mei 302019
 

In Finland deed al (ruim) 1% van de bevolking mee aan een gratis online cursus over Kunstmatige Intelligentie (de makers gebruiken vooral de afkorting AI afkomstig van het Engelse “Artificial Intelligence”). Er is sinds kort ook een Nederlandse online cursus en ongeveer 10.000 mensen gingen je al voor en leerden wat AI is en hoe zij er nu al mee te maken hebben in hun dagelijkse leven. Doel van de makers is om ook in Nederland minimaal 1% van de bevolking (170.000 mensen) te bereiken.

De cursus bestaat uit 8 tracks en 4 cases. Het kost je ongeveer 8 uur om ze allemaal te doorlopen. Natuurlijk, je kunt proberen zo snel mogelijk door te klikken, de app voorkomt dat soms door het doorbladeren alleen mogelijk te maken als je een vraag beantwoordt hebt. Maar waarom zou je? Je doet de cursus immers omdat je wat bij wilt leren.

Daarbij is de cursus gewoon in je browser te bekijken (ik zie de noodzaak van de app niet echt), hij werkt prettig(er) op je mobiel door de wijze van bladeren en wisselt korte teksten af met filmpjes. Daarbij kan het gaan om uitleg door Jim Stolze zelf, gesprekken met experts (wetenschappers, vertegenwoordigers van bedrijven), mensen op straat (soms naïef, anderen zijn beter op de hoogte en geven afgewogen antwoorden) en animaties die toelichting geven bij deelonderwerpen.

De tracks hebben de volgende onderwerpen:
#1 Een kijkje in de wereld van AI (15 min)
#2 Wat is AI?  (35 min)
CASE AI en WIJ (13 min)
#3 Is een zoekmachine ook AI? (25 min)
#4 Machine Learning (40 min)
#5 Deep Learning (35 min)
CASE AI en de RECHTSPRAAK (10 min)
#6  AI in het dagelijks leven (35 min)
#7 AI en de regels (40 min)
#8 Het werk van de toekomst (35 min)
CASE AI en GEMAK (10 min)
CASE AI en mobiliteit (11 min)

De tracks die als CASE worden aangeduid bevatten uitstapjes naar bedrijven als BOL.com, Post.nl, Wolters Kluwer, PON, Rabobank etc. Als je een account aanmaakt dan wordt je voortgang bijgehouden, je hoeft dus ook zeker niet alle onderdelen achter elkaar of op dezelfde dag te doen. Heb je alle 12 tracks doorlopen, dan kun je een certificaat downloaden (zie hierboven).

Maar ook dan is er nog voldoende te verkennen, te lezen en te bekijken. Er zitten op dit moment 39 bronnen in de bijlagenlijst bij de cursus. Vandaag (30-5-2019) heb ik problemen met het afspelen van de videos die daar staan, die worden ofwel niet getoond ofwel bijna volledig buiten beeld (getest op verschillende browsers en in de app).
De PDF documenten die er opgenomen zijn, kan ik wél bekijken. Elke track heeft in ieder geval een “inspiratielijst”. Dat is een PDF document met verwijzingen naar andere bronnen: boeken (die moet je dan zelf natuurlijk wel aanschaffen of opsporen), artikelen, video’s etc.
Daar kun je je dus ook nog wel even mee zoet houden. Verrassend hier vind ik dat er geen links opgenomen zijn naar de talloze online tutorials voor machine learning met bv Python. Ik neem aan dat de makers dat té complex vonden voor de doelgroep.

Die doelgroep kan tamelijk breed zijn. Ik wist al het nodige van AI, maar heb vooral genoten van de straatgesprekken, maar ook de Nederlandse voorbeelden waren voor mij interessant om te zien. Terwijl het laagdrempelig genoeg lijkt voor mensen die er nog helemaal niets van weten.

Dus wat gaat het worden? Hoor jij straks ook bij de 1% van de Nederlanders die weet wat AI is?
Eigenlijk zou het geen vraag meer moeten zijn. De cursus geeft het zelf ook aan: Continu blijven leren is de sleutel.

p.s. ik werd getipt door de site ibestuur.nl

p.p.s. er zijn op het moment meer dan voldoende actuele berichten rond AI in onze eigen praktijk. Bijvoorbeeld: Toezichthouder: overheden moeten transparant zijn over gebruik algoritmes (als je de cursus doorlopen hebt dan weet je wat FACTA betekent), de EU test ethische richtlijnen voor AI die in wat meer woorden overeenkomen met FACTA.

Kijk dus snel hier: https://app.ai-cursus.nl/ en treedt toe tot de 1%

Deel dit bericht:
dec 182018
 

Zullen de meeste lezer van dit weblog bij het bericht dat ik zaterdag plaatste niet veel moeite hebben met mijn conclusie “dit is cool”, bij dit andere bericht verwacht ik dat de meningen wat meer verdeeld zijn. Het gaat over een pilot/experiment bij een restaurant in Japan. Daar maken ze gebruik van robots in de bediening.

Op zich niet zo vreemd, knap zou ik zeggen als die robots dat kunnen, ik zou verwachten dat de werkelijkheid wat minder vloeiend en vlekkeloos verloopt dan zo’n verhaal meestal doet vermoeden.

Klein detail in het verhaal echter is dat de robots niet autonoom werken, maar op afstand bestuurt worden door een mens. En dan niet zomaar een mens, maar iemand met (ernstige) verlammingsverschijnselen als gevolg van ALS of een dwarslaesie. In het filmpje hieronder kun je zien dat het gaat om situaties waarbij de persoon die de robot bestuurt met de ogen en grote knoppen op het beeldscherm de robot bestuurt.

Dat betekent dat de robot nog steeds tamelijk autonoom moet zijn aangezien de mate van besturing begrenst is. Tijdens een deel van een filmpje doen ze voorkomen dat de robot zelfstandig naar de werkplek navigeert. Dat lijkt me redelijk onwaarschijnlijk gezien de beperkte mogelijkheden om de robot te besturen en de te verwachten vertraging tussen het geven van een commando (lang genoeg naar de knop kijken om als “klik” te tellen) en de noodzakelijke snelheid ervan.

Maar waarom dan niet automatisch cool?
Dat komt waarschijnlijk door de wijze waarop het filmpje begint. En waarschijnlijk helpt het daarbij niet dat niet alle teksten vertaald worden en zonder ondertitels moet je veel van de audio raden. Maar het idee wordt gewekt dat er een soort van “mind-transfer” plaats vindt van de persoon in het bed naar de robot. Onzin natuurlijk. maar in de Japanse context helemaal niet zo vreemd. Als je die denktrant echter volgt dan is voor mij de volgende vraag wat dan voor iemand in die situatie het ultieme levensdoel is. In het filmpje wordt gesteld dat dat is om een actieve bijdrage te kunnen leveren aan de samenleving. Ook daar kan ik me nog wat bij voorstellen. Dat dat doel dan behaald wordt door als serveerster in een restaurant te werken, dat ging er bij mij niet helemaal in.

En natuurlijk, het is slechts een pilot, de technologie heeft nog heel wat stappen om te zetten voor het praktisch haalbaar is om dit grootschaliger in te zetten. Het lijkt me super cool als ook iemand die bedlegerig is, straks in staat is om, via een robot, buiten dat bed te kunnen bewegen en leven. Met welk doel dat dan gebeurt, daarover zouden we het wat mij betreft nog mogen hebben. Maar het idee dat ín zo’n machine straks een levend persoon zit. Dat zal een idee zijn dat (zeker in onze westerse wereld) veel mensen tamelijk creepy zullen vinden. Dan krijgt de vraag “mag je een robot martelen?” opeens ook een heel andere lading.

Meer filmpjes en foto’s zijn te vinden op deze site.

Deel dit bericht:
dec 142018
 

12 maanden verschil

Bij Wilfred Rubens kwam ik mezelf gisterenavond tegen als onderdeel van de introductie van een blogpost getiteld “Stemgestuurde digitale assistenten en leren“. In het bericht (dat je natuurlijk het beste ook zelf eerst even kunt lezen) reageert Wilfred op zijn beurt op twee online berichten, eentje getiteld “Hey, Google, Alexa, Siri and Higher Ed” van Ray Schroeder en de ander heet “Using Amazon Alexa for the Math Classroom” van Matthew Lynch.

Centrale vraag daarbij is eigenlijk hoe / of we als onderwijsinstellingen zouden moeten omgaan met de toegenomen belangstelling (ook in Nederland) voor spraakgestuurde assistenten zoals die Google, Siri van Apple en Alexa van Amazon.
Zoals Wilfred altijd doet, maakt hij een tamelijk zakelijke en objectieve samenvatting van de berichten. Dat is fijn, want zelf zou ik ze waarschijnlijk anders nooit gelezen hebben. Ray Schroeder bijvoorbeeld begint zijn verhaal met een vergelijking van hoe zijn 7 jaar oude kleinzoon het altijd van hem wint als er vragen beantwoord moeten worden. Waarom? Tja, je kunt het wel raden: die kleinzoon begint met “Hey Google….”. Halverwege het bericht komt hij dan uit bij:

How far away are we from a full synthesis of emerging capabilities to do original research and writing — all triggered by a voice command? Not far. And, one has to ask, how does the advent of this technology impact the way in which we teach? Do we need to re-examine our pedagogies in light of very smart assistants?

Daarna introduceert hij een nieuw fancy begrip: voice engine optimization (VEO) als tegenhanger van search engine optimization. Kortom, het bericht heeft echt alles in zich dat er voor zorgt dat sommige mensen het een super bericht zullen vinden (en een waarschuwing / signaal voor de te volgen weg) en anderen op hun achterste benen zullen staan als het gaat om weer zo’n technoloog die de toekomst van onze kinderen wil verpesten met een stuk niet onderzochte technologie.
Het artikel van Matthew Lynch steekt daar heel veilig tegenover af met een aantal voorbeelden van hoe je Alexa in de klas kunt inzetten.

OK, zoals gezegd: goed dat Wilfred het samenvat, want dat maakt het mogelijk om te kijken naar de punten die hij er uit haalt, dat maakt het voor mij een stuk gemakkelijker om inhoudelijk te reageren.

Lees verder….

Deel dit bericht:
mei 282018
 

Via Adafruit kwam ik bij deze leuke (verder tamelijk nutteloze) Record Player. het is een combinatie van de Google Vision API en de Spotify API.

De werking is tamelijk eenvoudig: maak een foto van een hoes van een LP of CD of als je die niet meer hebt (of nooit gehad hebt), zoek je gewoon even op Google naar plaatjes. Die afbeelding sleep je dan op de interface en dan stuurt de site die eerst door naar Google Vision om te beoordelen wat er op de afbeelding staat. Het resultaat wordt dan naar Spotify gestuurd en jij krijgt het resultaat daarvan te zien.

Mijn eerste test was met Eliminator van ZZ Top:

Het resultaat was niet 100% correct, maar wél ZZ Top:

Een dubbelcheck (dank je Marit) liet zien dat dat logisch is: Eliminator als album staat namelijk niet op Spotify. Zoek ik op basis van de cover van Afterburner, dan komt Spotify met het juiste album. Cool! 🙂

Hieronder staan er nog een paar:

De twee antieke “Now This is Music” hoezen kan Spotify niets mee. Maar dat ligt niet eens alleen aan Spotify (die die oude LP’s niet in de collectie heeft), van #4 maakt Google “lassen” (geen idee waarom) en op #6 herkent Google alleen Tina Turner. Op zich ook niet verkeerd.
Van de verzamel CD van Level 42 weet Google alleen “level 42” te achterhalen. Grappig is dan weer dat Spotify dan ook “The Very Best Of” als response geeft, als de cover in dat geval niet helemaal hetzelfde.

Je ziet het, je kunt je hier heeeeel lang mee amuseren. Vooral als je een oude sok bent (zegt Marit).

Deel dit bericht:
mei 092018
 

Ok, een demo is een demo, het is nog geen product dat je zelf kunt gebruiken. De demo is in het Engels, niet in het Nederlands. Maar als voorbeeld van hoe ver het nu al bijna is, vond ik hem zeker een blogpost waard. Zeker omdat Google Duplex dusdanig op echte mensen lijkt qua dialoog dat het voor de partij aan de andere kant van de telefoon niet duidelijk is dát het een computer is die belt. Vinden we dat acceptabel.
Sowieso laat Google zelf ook als voorbeeld zien dat zij bedrijven kunnen bellen om te vragen naar openingstijden (zodat ze die dan op de website kunnen aanpassen als service aan ons allemaal). Je kunt je indenken dat telemarketers dit een schitterende tool zullen vinden. Ongetwijfeld veel goedkoper dan echte mensen, 24/7 beschikbaar en niet gevoelig voor vervelende klanten.

Het is overigens een clip op een niet-Google site, dus ik hoop dat hij blijft staan. De informatie bij Google zelf in ieder geval wel. Daar vind je ook meerdere audiobestanden van interactie tussen Google Duplex en (zo zegt Google) echte personen aan de andere kant van de telefoon.

Wordt ongetwijfeld vervolgd. Ik kan in ieder geval niet wachten totdat ik mijn eigen Google Assistant met deze functionaliteit kan updaten.

Deel dit bericht: