Superfetch - ta hem bilder/filer smidigare från nätet
Jag har äntligen fått ändan ur vagnen och börjar använda forumet, detta blir mitt första inlägg. Nåja, nog om det.
Jag är i grund och botten spelutvecklare men just nu så har jag ett litet projekt jag kallar Superfetch.
Superfetch är en liten hjälpreda för att ta hem filer från webben. Programmet använder sig av clipboard, så det är i princip bara att kopiera önskat sökmål så tankas filen hem till en förinställd mapp. Programmet bygger upp en lista på alla kopierade webbadresser så det går i teorin att kopiera 10 länkar i sekunden (stora som små filer) och ändå få hem alla eftersom.
Superfetch hanterar:
- Alla former av filer från webben
- Skärmdumpar och alla slags kopierade bitmaps (ej i filhanteringsnivå)
- Vanlig kopierad text
- Igenkänning av filduplicering
- Automatiska uppdateringar
Superfetchs GUI
- Blå knappen: slår av och på. Skulle du behöva kopiera och klistra något i windowsmiljön så måste du slå av Superfetch.
- Dokumenten: slår av och på hotsearch-funktionen (läs mer om den nedan).
- Mappen: Väljer sökmål för dina hemtankningar.
- Högerklick i infofältet: tar dig till mappen dit du tankar hem (nytt explorerfönster öppnas).
Snabbaste sättet att kopiera en bildadress:
i FireFox: Högerklicka -> "Copy Image Location" eller "Copy Image"
i Internet Explorer: Högerklicka -> "Kopiera"
Superfetch känner automatiskt av vad det är för innehåll du vill spara, så om det är en bild du kopierat med hjälp av endast URL:en så kommer bilden att sparas, där du valt att lägga alla hemtankningar, med samma namn som på servern. Om du kopierar ett stycke text så kommer en textfil att sparas vid namn Copied text_nummer_datum_klockslag.txt. Om det är en bitmap du vill spara, t.ex. om du tryckt PrtScr så bygger programmet en bmp-fil vid namn fetched_datum_klockslag.bmp.
I någon version snart så kommer en hotsearch-funktion, som automatiskt kommer söka efter bilder. T.ex. om man kopierar URL:en till en bild som heter "chucknorris01.jpg" så kommer "chucknorris02.jpg" osv. att tankas hem till en separat mapp. Detta kan förhoppningsvis underlätta surfningen då man slipper spara varje bilds URL separat. Dock så måste en sån här funktion vara perfekt när den levereras så den inte går lös och skriver 1000 filer till era datorer, därav dröjsmålet.
Varje gång man startar Superfetch så kollar den automatiskt efter uppdateringar, så man behöver bara ta hem installern en gång.
Tanka Superfetch med installer
Tanka Superfetch i zipformat
Om ni upptäcker något underligt så säg gärna till så jag kan åtgärda så snabbt som möjligt. Kom gärna med förslag på förbättring och funktioner ni skulle vilja se fanns med i ett sånt här program.
Länk till updateLoggen - för att se vad som skett i uppdateringar.
Tyvärr finns det ingen möjlighet att porta till linux. Däremot kommer jag se över om det kan vara värt att utveckla en mac-version.
Superfetch är nu uppdaterad till v0.3. Nu finns det stöd för fuskertaggar, så om man t.ex. kopierar en adress som ser ut såhär: http://www.exempel.com/bild[1-99].jpg så kommer Superfetch ta hem alla bilder som hittas.
Taggarna kan sättas varsomhelst i filnamnet, så t.ex.
http://...enbild[1-200]serie.jpg
http://...[1-50].jpg
http://...[1-30]bildnamn.jpg
ska fungera utmärkt!
Hoppas ni får användning av det, det förenklar ju en del hemtankningar om det är över tio bilder man vill få hem.
Självfallet går det att skapa egna fuskeradresser genom att bara skriva in det var som helst och sedan kopiera texten, så kommer superfetch börja tugga.
Nu är version 0.31 ute med lite bättre stöd för fuskering, t.ex. så fungerar wildcard nu som fuskertagg (t.ex. http://www.exempel.com/bild*01-49*.jpg)
Läs updateLoggen för mer info (länk finns i slutet av första posten).
Nu kan man i version 0.35 använda sig utav dubbla fuskertaggar!
Dvs. http://www.exempel.se/sida[1-20]/bild[1-99].jpg
För några timmar sedan dök uppdatering 0.42 upp. Antagligen kommer uppdateringarna bli färre i framtiden eftersom programmet är aningen fulländat, så länge ni inte har något att tillägga vill säga.