alt-i-lab 2006 – Dag 2

Om maar met het slechte nieuws te beginnen: geen filmpjes van demonstrators en helaas ook niet van de presentatie die Tegrity gaf gisteren. De reden voor dat laatste is simpel, de presentatie was goed te zien maar omdat de spreker geen microfoon gebruikte was het geluid niet om aan te horen. Dus niet voor publicatie.
Wel heel veel interessante gesprekken, waar ik (uiteraard) niet alles hier over kan vertellen. Maar het is in ieder geval duidelijk dat de belangstelling voor QTI is groot en de komende 12 maanden gaat er nog het nodige gebeuren.
QTI
Een ding wil ik in ieder geval nog wel even rechtzetten voor wat betreft QIT. Jeff Bonasso van IBM liet hun Content Producer zien. Daar had ik over gelezen op het Sakai weblog. De uitspraak daar dat IBM geen gebruik maakte van QTI zou ook aan hem toe te schrijven zijn en dat bleek toch een stuk genuanceerder te liggen.
De dingen die ze dachten te missen in QTI zitten wel in versie 2.x en omgekeerd zijn wij natuurlijk heel geïnteresseerd vanuit IMS in het model dat zij gebruiken voor de het opslaan van de content. Dat doen ze namelijk ook met XML en met name ook de ondersteuning van uitvoer naar verschillende devices, accessibility features die ze inbouwen zijn dingen die mogelijk breder toepasbaar zijn.

Certificering

alt-i-lab 2006

Interessant was ook het verhaal van de Open Group over certificering/testen etc.
Neem als voorbeeld het certificatielabel dat WiFi is. Dat logo geeft niet alleen vertrouwen in het samen kunnen gebruiken van apparaten die dat logo dragen, maar het zorgt er daarom ook voor dat leveranciers graag dat logo willen kunnen dragen.
Dat zou je voor leertechnologie-afspraken ook willen hebben. Maar daar komt uiteraard het nodige bij kijken.
Leuk ook was de discussie die ik had naar aanleiding van mijn vraag aan David Rose over wat hij dacht de fase na de VLE (in de foto hierboven de laatste fase in het figuur) zou zijn. Uiteindelijk kwamen we toch wel op het pad van de student die een persoonlijke set van tools had die toegang boden tot centrale en decentrale informatie en diensten van de onderwijsinstelling. En dat maakt certificering toch weer een stukje complexer.

DRM en caching
Sommige problemen waar over gesproken werd kan ik moeilijk echt begrip voor opbrengen terwijl het natuurlijk echte uitdagingen zijn. Een van de presentaties ging over het slim cachen en distribueren van video en andere multimedia over netwerken en de problemen die DRM daarbij opleverde. Want als je aan slimme pre-caching wilt doen (maar ook caching in het algemeen) dan kom je in de problemen want de hardware/software die dat cachen doet moet dan de juiste credentials kunnen doorgeven. Maar als je vooraf aan het cachen bent dan is nog niet duidelijk wie dat materiaal gaat krijgen en dus ook niet of dat materiaal wel daar gecached mag worden. Ik heb dan zoiets van “het is toch maar een cache, who cares about DRM?” maar dat ligt in de praktijk wat genuanceerder.

Noodzaak afspraken over complexe content
Een ander ding dat vanuit de aanwezige leveranciers ook als een nog steeds aanwezig probleem gesignaleerd werd was het ontbreken van gezamenlijke modellen/afspraken over hoe complexere structuren/content op te slaan. Dus bijvoorbeeld, hoe sla je een discussie-thread van een forum op in een manier dat je er ook op andere plekken iets mee kunt? of hoe doe je dat met een chat-transcript of een een verzameling pagina’s met navigatie op een wat slimmere manier dan HTML + CSS?
Geen uitgevers in de zaal op dat moment tijdens de workshop, maar ook dat is een gebied waarbij het komende jaar voorzichtig stapjes gezet zullen worden.

Kortom geen filmpjes, wel veel om over na te denken en over te praten.