Jan 292013
 

Ik was gisteren in Amsterdam bij de Hogeschool van Amsterdam voor de tweede editie van de Mediasite User Group Europe Forum. De Europese gebruikersbijeenkomst van Sonic Foundry, de makers van Mediasite, het product dat we ook bij Fontys gebruiken voor het maken van opnames van colleges, presentaties, livestreaming van evenementen etc.
En het is het product dat een nauwe relatie heeft met mijn promotieonderzoek omdat het zowel bij Fontys als TU/e de basis vormt voor de recorded lectures die ik onderzoek. Meer dan voldoende reden om er te zijn dus.

Nou heb ik gisteren voornamelijk tweets verstuurd (niet zitten bloggen), dus daarom wil ik ook in deze blogpost niet helemaal gaan proberen de inhoud van de verschillende sessies te herhalen. In plaats daarvan neem ik acht tweets van gisteren en licht die een beetje verder toe.


Mijn eerst tweet zal ik kort over zijn. OV9292 is geen goed hulpmiddel als je van plan bent om het Kohnstamm gebouw aan de Wibautstraat 2-3 in Amsterdam te vinden. Dat ligt géén 2 minuten (eerder 20 minuten) lopen van Amsterdam Amstel. Er ligt wel een gebouw van de HvA op 2 minuten lopen van Amsterdam Amstel, er ligt ook een gebouw op 2 minuten lopen van Metrostation Wibautstraat, maar beiden waren niet het gebouw waar ik moest zijn.

Zoals gebruikelijk bij bijeenkomsten van de Mediasite Usergroup (was ook al zo toen het een puur Nederlandse aangelegenheid was) is er bij het begin tijd ingeruimd voor Rob Lipps, Executive Vicepresident van Sonic Foundry om iets te vertellen over de meest recente release van het product en de toekomstplannen. Uiteraard in een wat breder kader geplaatst.

Dit was het overzicht dat Rob daarbij gebruikte:


Er zitten een aantal mooie functionaliteiten aan te komen in versie 7 van Mediasite, de eerste is Notes:


Notes zijn aantekeningen die een student digitaal kan maken tijdens het college dat opgenomen wordt met Mediasite. Het idee is dan dat de aantekeningen gesynchroniseerd worden met de opname en dat de student daarna via die aantekeningen de bijbehorende delen van de opname terug kan vinden. Een beetje zoals de Livescribe Smartpen, maar dan wordt niet alleen de audio van de docent, maar ook de video en de dia’s via Mediasite opgenomen. Waarom zijn hier interessante onderzoeksvragen over te formuleren? Nou, omdat het natuurlijk maar de vraag is of dit daadwerkelijk helpt/werkt. En wat is het (gewenste) effect? Verwachten we dat studenten andere/betere/kortere aantekeningen maken? Gaan deze online aantekeningen er voor zorgen dat studenten sneller de gewenste delen van de opname kunnen vinden? Hoe gaan we dat meten? Veronderstellen we gewoon dat dat gebeurt? Gaan we het ze alleen vragen? Kunnen we het op een andere manier meten? Is het zinvol om vooraf de aantekeningen van studenten te beoordelen op structuur en inhoud zodat we ze kunnen vergelijken met de aantekeningen die ze maken met de Notes functionaliteit?

Een voor mij interessante was de uitleg over de tagging functionaliteit die Mediasite heeft (OCR – Optical Character Recognition, hierbij wordt de tekst op dia’s doorzoekbaar gemaakt) en die er bij komt: Voice tagging (de audio van de opname wordt omgezet in doorzoekbare tekst)


In mijn promotieonderzoek hou ik me bezig met tagging door studenten en experts. Daar gaat het echter om tagging ín de opname, hier lijkt het bij de handmatige tagging vooral te gaan om het taggen van de opnames zelf en bij het automatisch taggen om het taggen ín de opname. Voordeel van het automatisch taggen is dat het niemand ‘werk’ kost, maar de vraag is hoe het zich verhoudt tot het handmatig taggen door een student of expert. Is het vergelijkbaar? Komen de begrippen die een student zou gebruiken om te taggen ook voor in de automatisch gegenereerde tags? Kortom, ook hier interessante vragen voor onderzoek.


Heel mooi vond ik de opmerking van Rob over het feit dat het belangrijk was dat ze het mogelijk maakten om beter te volgen wat een student doet in het systeem. Zodat je bijvoorbeeld beter kunt zien welke delen van een opname een student bekijkt, waar hij of zij naar toe springt etc.
Het was precies de boodschap die ik twee jaar geleden ook bij Unleash mocht presenteren en de basis van mijn promotieonderzoek.

Een sessie waar ik nog een paar tweets van wil bespreken is de discussiesessie over het automatiseren van je opnames.


Dat was geen sessie met een centrale presentatie, maar meer het uitwisselen van ervaringen tussen de deelnemers. Dat was af en toe wat moeilijk omdat er natuurlijk heel wat verschil in kennis aanwezig is. En zo kan de ene deelnemer moeiteloos de merk en type-aanduidingen van een aantal automatische cameratrackingsystemen uit zijn mouw schudden terwijl de andere deelnemers daarmee nog niet echt weten waar ze dan mee aan de slag moeten. Op dat gebied was het meer zo dat als je dacht dat iemand iets interessants vertelde waar je meer over wilde weten, je die persoon daarna even aan zijn/haar jasje moest trekken.

Een constatering was:


Dat had in dit geval weliswaar betrekking op een situatie waar men probeerde met een automatische camera het schrijven van een docent op een krijtbord te filmen, maar is ook generieker te maken. Studenten verlangen helemaal niet dat je een docent heel precies ‘trackt’. Inzoomen op de docent als hij/zij zit of op bepaalde plekken staat aangevuld met een wide-shot in de andere gevallen blijkt voldoende te zijn. Zeker als het alternatief is dat er heel veel camerabewegingen zijn, want die leiden af tijdens het kijken/maken van aantekeningen op basis van de opname.

Dit is er ook eentje die al veel mensen ondervonden hebben:


Studenten wennen aan een bepaald niveau van kwaliteit en eisen dat niveau daarna als standaard. Hou er dus altijd mee dat als je de lat hoger legt, hij niet snel meer omlaag kan (betekent niet dat je de lat daarom maar *niet* hoger moet leggen natuurlijk!).

Nog een schijnbare open deur (maar toch denken we vaak dat het wél kan!):


Je kunt geen ‘digitale les’ verzorgen in een ‘analoog lokaal’. Ik was wat langzaam met het maken van foto’s van de ‘voor’ en ‘na’ foto’s van het klaslokaal waar het in dit geval om ging, maar het liet duidelijk zien dat het in eerste instantie niet gericht was op het met digitale middelen verzorgen van een les en daarna, niet eens met zo heel schokkende uitbreidingen, wél.

Tot slot, nog even een meer ludieke actie / tweet. Bij conferenties in de VS is het heel gebruikelijk dat deelnemers onder aan hun naamkaartje allemaal strookjes hebben hangen die aanduiden hoe speciaal ze zijn. Sprekers hebben een lintje, voorzitters van bepaalde commissies of sessies hebben er eentje etc.


Sonic Foundry had er ook voor gezorgd dat wij er voldoende konden scoren. Ik had uiteraard niet die waarop stond dat ik voor het eerst bij de usergroup bijeenkomst was (ik was er vorig jaar immers ook), ik heb die met “ik hou van bitterballen” en “ik hou van stroopwafels” heel verstandig maar laten liggen. Je moet ook niet altijd alles met de rest van de wereld delen. 🙂

Deel dit bericht:

  Een reactie aan “MUGEU13 in 10 tweets”

Sorry, het reactieformulier is momenteel gesloten.