mei 202015
 

Belastingdienst

De Belastingdienst ondergaat de komende jaren een forse reorganisatie. Dit betekent dat circa 5000 functies zullen verdwijnen. Daarentegen wil de dienst 1500 nieuwe data-analisten aannemen die computersystemen aan elkaar moeten knopen.
Woordvoerder Robin Middel laat aan Tweakers weten dat de banen verdwijnen door de opkomst van ict binnen de Belastingdienst. Volgens hem ontwikkelden data-analisten bij wijze van proef een algoritme dat sneller betalingsachterstand signaleerde. “Dit zorgde voor hogere opbrengsten in kortere tijd.”
Het experiment bleek zo succesvol dat de Belastingdienst heeft besloten om de hele dienst verder te automatiseren. “Dit betekent dat er 5000 functies overbodig zijn er voor de betreffende medewerkers elders werk binnen de overheid moet worden gevonden. We hopen dit binnen vijf jaar te voltooien en de eerste slag binnenkort te slaan”, aldus Middel. (bron)

Oei. Dat tikt toch wel aan. Het zijn dan wel geen “robots” zoals veel mensen zich dat voorstellen, maar wel een heel zichtbare rekensom: 5.000 mensen overbodig door verdergaande automatisering terwijl er maar 1.500 (andere) mensen nodig zijn om het automatiseringsdeel te regelen. Wordt nog een hele klus dan om die mensen aan een nieuwe baan te helpen.

Na deze aankondiging, is dit bericht:

De Rekenkamer heeft grote veroudering en achterstallig onderhoud van de it-systemen van de Belastingdienst geconstateerd. Bovendien zijn de systemen onderling sterk afhankelijk. De Rekenkamer vreest ‘ernstige verstoring van de massale processen’.

toch ook wel wat zorgelijk.

Deel dit bericht:

Twitterarchief 19-05-2015

 Gepubliceerd door om 19:01  Twitterarchief
mei 202015
 

Deel dit bericht:
mei 192015
 

NRO

Onderzoekers onder leiding van prof. dr. Marco Kalz, hoogleraar Open Education aan de Open Universiteit, zullen vijf jaar lang onderzoek doen naar open en online hoger onderwijs. Het project moet leiden tot wetenschappelijk onderbouwde, praktische adviezen voor de onderwijspraktijk over het aanbieden van dit type onderwijs en over de strategische impact voor de organisatie. Het NRO en het ministerie van OCW stelden hiervoor in totaal € 1.350.000 beschikbaar.

Nadat eerder al bekend werd welke 8 projecten tijdens de eerste tranche van de stimuleringsregeling rond Open en Online Onderwijs van start mogen gaan, is nu ook bekend welk consortium de komende vijf jaar flankerend onderzoek gaat doen. De Open Universiteit en de Universiteit Utrecht zullen dit onder de titel SOONER (‘De Structuratie van Open Online Onderwijs in Nederland’) gaan uitvoeren.
Voor de hele aankondiging van de NRO, zie dit bericht.

Betekent dat we de OU en de Universiteit Utrecht de komende jaren nog vaker als spreker kunnen verwachten op conferenties zoals volgende week in Wageningen!

Deel dit bericht:
mei 182015
 


Bij European Schoolnet loopt op dit moment een MOOC over Creative use of Tablets in Schools. OK, eerlijk is eerlijk, zelf noemen ze het helemaal geen MOOC, maar gewoon een “online course” en het is ook zeker niet het enig eindproduct van dit Europese project. Ze hebben ook ‘gewoon’ een eindconferentie gehad, leveren rapportages op, verzorgen een webinar-serie, etc.

Maar goed, neem het even als idee: een MOOC na afronding van een project waarin de resultaten van het project, de lessons learned ‘gepresenteerd’ worden. Natuurlijk, was ik een connectivist, dan zou ik roepen “nee, niet pas aan het einde, meteen al aan het begin, maar het een gezamenlijk leertraject”. En inderdaad, alleen ‘presenteren’ is dan wel wat mager. Immers, je bent al tijdens het project met het materiaal bezig geweest, je zou daar als projectleden natuurlijk over in discussie moeten kunnen gaan. De juiste vragen kunnen formuleren voor anderen om dat wat je gevonden hebt te toetsen aan hun ideeën, uit te breiden met hun voorbeelden.

Als je het als een MOOC (of online course) doet, dan bereik je waarschijnlijk een groter, diverser, ander publiek dan wanneer je het in de vorm van een enkele conferentie op één locatie doet. Immers, lang niet iedereen die je er bij zou willen hebben heeft ook tijd en budget om er dan te zijn.
Ik denk dat je er dan wel al tijdens het project rekening mee moet houden. Een MOOC ontwikkelen is immers toch niet iets meer dan het bij elkaar gooien van wat content. Net als bij ‘gewoon’ onderwijs heb je bepaalde doelen voor de deelnemers, kies je daar geschikte werkvormen bij etc.

Toch zou het wel mooi zijn als we in de volgende tranche projecten voor Open en Online Onderwijs van SURF/OCW er ook eentje bij hebben zitten die zoiets doet: een MOOC ontwikkelen over het ontwikkelen van Open en Online Onderwijs…zoiets als die summerschool van EMMA, maar dan als MOOC.

Deel dit bericht:

EZTV stopt er mee!

 Gepubliceerd door om 21:31  Internet, Media
mei 182015
 

eztvAls je geen idee hebt wie of wat EZTV is of was, dan is dit bericht niet voor jou. Weet je dat wel, lees dan zeker even dit bericht!

Geen idee wie de opvolger wordt.

Zucht. Zou het nou zo raar zijn als ik voor het bedrag dat ik maandelijks aan Ziggo moet betalen voor TV, ik gewoon naar een site zoals EZTV was kon gaan om daar die shows te downloaden die ik wil zien? En dan echt gewoon zoals ze daar worden aangeboden: alle seizoenen van alles wat er geproduceerd wordt? Ik snap wel dat er ingewikkelde verdienmodellen achter al die TV-netwerken zitten, maar dan kregen ze tenminste geld van al die mensen die echt niet zitten te wachten op NCIS afleveringen van 10 jaar geleden. Gewoon, omdat ze die 10 jaar geleden al gezien hebben (en er toen ook al voor betaald hebben via abonnement + kijk/luistergeld).

Deel dit bericht:
mei 162015
 

AzureMachineLearning Als je R zegt, dan zeg je “open source”, “statistiek”, “hacken”, “vrij”. Als Microsoft dan een leverancier van zowel open source als closed source producten voor R overneemt (Revolution Analytics), dan gaan er links en rechts alarmbellen af. Natuurlijk, ze kopen niet de makers van R zelf op, maar de vraag ontstaat natuurlijk al snel: wat moeten ze hiermee?

Tijdens de Ignite conferentie eerder deze maand hebben ze een tipje van de sluiter opgelicht. En het is een tipje dat eigenlijk heel erg logisch klinkt: ze gaan de kennis en producten van het bedrijf gebruiken om R ondersteuning in SQL Server 2016 in te bouwen.
Nou zou het “oude” Microsoft het daarbij niet kunnen laten om R “beter” te maken door het net iets aan te passen qua syntax etc. Het verhaal zoals het nu gepresenteerd wordt lijkt echter te passen bij het “nieuwe” microsoft: zo probleemloos mogelijk integreren van de verschillende tools. Dus zodat je gewoon gebruik kunt blijven maken van de plugins die R kent, het uitvoeren van de verschillende modellen etc. op de R-engine, maar dan met een aantal aanpassingen en verbeteringen die inderdaad het leven van gebruikers binnen grotere bedrijven een stuk eenvoudiger zouden moeten maken.

Het probleem dat beschreven werd zal namelijk heel herkenbaar zijn: je hebt mensen die verantwoordelijk zijn voor het beheer van databases en bestanden binnen een organisatie en je hebt mensen die van tijd tot tijd analyses willen uitvoeren op die data. Dat kan fraudedetectie zijn, maar neem binnen onderwijsinstellingen bijvoorbeeld de analyses in het kader van learning analytics. Of nog kleiner/specifieker: analyseren van het kijkgedrag van studenten binnen een MOOC of voor opnames van colleges of kennisclips met behulp van R. Als je bijvoorbeeld Mediasite gebruikt voor je video’s, dan maakt ook die gebruik van SQL Server voor de opslag van de logdata. Als je daar vanuit R analyses op wilt uitvoeren, dan moet je die data eerst van de server naar je lokale computer halen. Of als je R ergens op een server hebt staan, dan moet je de data eerst van de SQL Server naar die R-server overpompen. Als dat een grote hoeveelheid historische data is, dan moet je bij het uitvoeren van de analyses gaan stoeien met de geheugenbegrenzingen die R daarbij heeft (of die je machine daarbij heeft). Of het gegeven dat R (blijkbaar) maar op één processor tegelijkertijd die analyses uitvoert.

De producten van Revolution Analytics richten zich op het optimaliseren daarvan. Maar de integratie van (een deel) van de processing ín SQL Server zelf heeft nóg een voordeel: de data hoeft niet van de server af. De analyses kunnen worden uitgevoerd binnen de beveiligingcontext van de database-server. De beheerder kan processor- en geheugencapaciteit voor het proces beschikbaar stellen. En de data-analist krijgt alleen die data ter beschikking waar hij/zij rechten toe heeft. Dus als ik analyses mag uitvoeren voor alle opnames van alle vakken/docenten/studenten dan kan ik die draaien, mag ik dat slechts voor één vak of de vakken van één opleiding/faculteit, dan draai ik dezelfde scripts en dezelfde modellen, maar krijg ik een subset van de data.

Interessant, ik ben benieuwd of er leveranciers van lecture capture tools zijn die hiermee in 2016 aan de slag gaan.
Wil je de hele video zien met de uitleg en de demo, een exemplaar van de sessie-opname is opgenomen in deze blogpost.

(via Computerworld en Revolutions Analytics blog

Deel dit bericht:

Hoe ziet Facebook jouw website?

 Gepubliceerd door om 20:48  Internet
mei 122015
 

Open_Graph_DebuggerHet was er echt zo eentje in de categorie “huh?” (ok, ik gebruikte andere termen maar dit is netter voor hier). Ik had afgelopen weekend de AddThis plugin vervangen door de AddToAny (ik vond de opties in de nieuwste versie van AddThis niet zo handig, AddToAny was werkbaar alternatief).

Dat had ik zowel hier op ictoblog.nl gedaan als op activegeek.nl. Alleen, op activegeek werkte het delen naar Facebook niet. Ik kreeg steeds een 404 Not Found fout te zien in de popup. Natuurlijk dacht ik meteen aan een fout in AddToAny, maar de setup op beide plekken in WordPress was identiek.

Het werd nóg vreemder: als ik de URL rechtstreeks in een statusupdate van Facebook plakte, dan kreeg ik eveneens een 404 Not Found fout. Terwijl als ik diezelfde URL in de browser plakte, dan werkte alles zonder problemen.

Het heeft even geduurd voordat ik via een forum de Facebook Open Graph Object Debugger tegen kwam. Het is een pagina waar je een URL in kunt plakken en precies kunt zien wat Facebook aan informatie krijgt (“ziet”) als je een URL invult in een status-update. Dat kan rechtstreeks zijn of via een plugin.

En wat bleek: Facebook gebruikte IPv6 om de pagina’s van mijn weblog op te halen. En dat was minder vanzelfsprekend dat het lijkt want ik had wel voor ictoblog.nl in de DNS aangegeven wat het IPv6 adres was, maar nog niet voor activegeek.nl
En ook de Apache webserver wist niet dat hij voor het IPv6 adres van mijn server in combinatie met de header activegeek.nl de juiste pagina’s moest versturen. In plaats daarvan probeerde hij de pagina’s bij de default site te versturen.
Apart is echter dat ik alleen de instelling voor de webserver hoefde aan te passen, niet die in het DNS (heb ik inmiddels wel gedaan om het consistent te maken). Het zou kunnen zijn dat Facebook intern in hun eigen DNS systeem inmiddels een koppeling heeft gelegd tussen het IPv4-adres van mijn server en het bijbehorende IPv6-adres, maar je zou toch denken dat ze daar ook van tijd tot tijd mijn DNS voor bevragen.

Hoe dan ook, de pagina is een handig middel als je moet debuggen. Of als je wilt weten of de metadata in je pagina geschikt is voor Facebook als ze zaken als titel, omschrijving etc. proberen af te leiden uit de pagina.

 

Deel dit bericht:
mei 112015
 

RSS_pollHet was een voorbeeld van een absoluut niet representatieve steekproef met te weinig reacties om ook maar enigszins representatief te zijn voor welke populatie dan ook.

Maar ik misbruik hem toch maar even heel schaamteloos om duidelijk te maken dat Google het zichzelf extra moeilijk maakt door ook de nieuwe “Collections” functionaliteit van Google+ niet van RSS te voorzien. Net als Flipboard kiezen ze voor een systeem waarbij je als gebruiker wél content toe kunt voegen aan het online platform van (in dit geval) Google, maar jezelf en andere gebruikers geen andere manier hebben om die content te benaderen dan via de website zelf.

Dat is voor Google+ niet nieuw. Voorheen hadden de Communities nog een niet formeel ondersteunde mogelijkheid om een RSS-feed te genereren, maar ook daar is die optie weg.

En dat is zonde! (die opvoeding raak ik nooit helemaal kwijt geloof ik). Want net als alle (onzinnige) claims over het gegeven dat RSS “dood” zou zijn, dat niemand het meer gebruikt, is dat ook niet waar voor Google+. Er zijn of waren (helaas lijkt een aantal recent stil te vallen) daar ook levendige communities met interessante berichten te vinden (kijk bijvoorbeeld maar eens bij 3D Printers and printing NL, Sociale media in het onderwijs, Arduino (actief!), 3D Printing (actief!), Video Ondersteund leren (niet meer erg actief), Underwater Video.
Maar het volgen van de berichten in die communities is moeilijk zonder RSS. En het maken van Collections is onhandig als je afhankelijk bent van de vraag hoe lang Google er ondersteuning voor gaat bieden.

Het is jammer. Want Google+ lijkt het zoveelste gefaalde experiment te worden. En ik weet zeker dat RSS in ieder geval een beetje had kunnen bijdragen aan het behoud ervan.

Deel dit bericht: