Goed, de overload aan informatie is weer een beetje onder controle. Deels omdat ik de feeds waar ik het over had, in een aparte map (categorie) bij elkaar gezet heb (leest sneller), maar ook doordat ik Sharpreader gewoon zo ingesteld heb dat veel minder vaak gekeken wordt of er nieuws is. Dat staat standaard op één keer per uur. En omdat dat dus zeker elk uur nieuws opleverd is dat onhandig. Want het één keer scannend lezen van vijftig a zestig berichten gaat per saldo veel sneller dan het in vijf of zes keer lezen van een tiental berichten.
Berichten worden nu ééns per acht uur opgehaald. En dat klinkt waarschijnlijk gek, maar het geeft de broodnodige rust als je een informatie-junkie bent.
Overmoedig geworden heb ik daarom maar een paar nieuwe feeds gemaakt. Er waren een paar sites die ik gewoon handmatig moet controleren omdat ze geen eigen RSS-feed hebben. Voor een aantal daarvan heb ik in PHP een screen-scraper geschreven die netjes een RSS-XML bestand bij mij op de server zet. Het script wordt steeds één keer per dag opgestart, dus ook voor de sites die ik zo binnen haal is de last minimaal. Voor de SURF-SiX website heb ik de link naar het RSS-bestand overigens openbaar gemaakt, zodat ook anderen dit kunnen gebruiken.
Toen ik daarmee bezig was kwam ik ook een script tegen om een RSS-bestand in de vorm van javascript eenvoudig in te voegen in een andere pagina. Dat heb ik daarom ook maar geprobeerd. Als je een schermresolutie van minimaal 1024×768 hebt, zie je nu aan de rechterkant van de hoofdpagina een aantal nieuwsberichten. Bij 800×600 zul je daarvoor horizontaal moeten scrollen. Klikken op een titel brengt je naar het bericht op de pagina.
Omdat een aantal van de overzichten werkt op basis van RSS-feeds die door de screen-scraper gemaakt worden is het nog even een test om te zien of het ook blijft werken.