okt 052019
 

Mocht je nou de Google Colab van afgelopen maandag bekeken hebben en gedacht hebben “dat gaat me een heel eind boven mijn pet”, dan kan ik je de PBS Crash Course A.I. met Jabril Ashe van harte aanraden. Die serie kent inmiddels 8 afleveringen en start helemaal bij het begin.

Bij aflevering 5 en 8 (die vandaag nog niet in de playlist te vinden is, maar wel al hier te bekijken) wordt gebruik gemaakt van Google Colab voor de hands-on uitwerkingen. Daarbij wordt geen gebruik gemaakt van Tensorflow, maar de neurale netwerken werken (uiteraard) op een vergelijkbare manier.
Tijdens aflevering 5 wordt een classificatiesysteem gebouwd voor handgeschreven letters (waar ik uitging van cijfers) en in aflevering 8 gaat het om “natural language processing” (natuurlijke taalverwerking). In de andere afleveringen komen concepten als supervised learning en unsupervised learning aan bod, wordt k-means clustering als voorbeeld van unsupervised learning behandeld. Ook meer complexe begrippen als backpropagation en de loss functie komen aan bod. Al kunnen ze (uiteraard?) niet overal helemaal de diepte ingaan om het “geschikt voor iedereen” te houden.

Dus de video’s van 3Blue1Brown zijn nog steeds een mooie aanvulling als je ook de wiskunde achter de netwerken beter wilt leren begrijpen.

Elk filmpje is zo’n 10 – 15 minuten lang, als je met de twee Google Colab document wilt spelen moet je daar zeker nog een half uurtje aan toevoegen, dus zo’n 2 – 2,5 uur ben je er wel zoet mee. Ideaal toch voor een regenachtig weekend of de komende herfstvakantie? ūüėČ

Ik weet niet hoeveel nieuwe afleveringen er nog bij komen. Maar als je na deze acht n√ļ al op zoek bent naar meer, dan is hier nog veel meer aanbod van training!

Deel dit bericht:
okt 012019
 

De uitdaging was: geef een introductie op Kunstmatige Intelligentie voor collega-onderzoekers die er wellicht ooit wel eens van gehoord hebben, zeker nog nooit gebouwd hebben, in het algemeen geen programmeerervaring hebben.
Het moest in ieder geval ook hands-on zijn, want dat werkt nou eenmaal het beste.

Beide uitgangspunten: hands-on en laagdrempelig vormden een redelijke uitdaging. De verschillende laptops hadden immers niet de benodigde software of programmeeromgevingen ge√Įnstalleerd. En dat allemaal vooraf (laten) doen op de verschillende systemen zou het overgrote deel van de beschikbare tijd opslurpen.

Daarom hebben we gebruik gemaakt van Google Colab, een experimentele online omgeving van Google waarbij ze Jupyter Notebooks (gratis) beschikbaar stellen. Je weet het: gratis experimentele omgevingen van Google verdwijnen net zo snel als dat ze verschijnen, dus je wilt er niet een business op bouwen. Maar omdat de notebooks die je er maakt “gewone” Jupyter Notebooks zijn (disclaimer: ik moet nog testen of ze daadwerkelijk uitwisselbaar zijn), jou je een Colab notebook moeten kunnen exporteren en, indien gewenst op je eigen Jupyter Notebook omgeving kunnen installeren.

Je kunt de Colab hier vinden: http://kortelink.com/CoE-AI
Dat betekent dat je voldoende hebt aan een Google account om je eerste kunstmatige neurale netwerk te beschrijven, te compileren, te trainen en te evalueren.

Lees verder….

Deel dit bericht:
mei 302019
 

In Finland deed al (ruim) 1% van de bevolking mee aan een gratis online cursus over Kunstmatige Intelligentie (de makers gebruiken vooral de afkorting AI afkomstig van het Engelse ‚ÄúArtificial Intelligence‚ÄĚ). Er is sinds kort ook een Nederlandse online cursus en ongeveer 10.000 mensen gingen je al voor en leerden wat AI is en hoe zij er nu al mee te maken hebben in hun dagelijkse leven.¬†Doel van de makers is om ook in Nederland minimaal 1% van de bevolking (170.000 mensen) te bereiken.

De cursus bestaat uit 8 tracks en 4 cases. Het kost je ongeveer 8 uur om ze allemaal te doorlopen. Natuurlijk, je kunt proberen zo snel mogelijk door te klikken, de app voorkomt dat soms door het doorbladeren alleen mogelijk te maken als je een vraag beantwoordt hebt. Maar waarom zou je? Je doet de cursus immers omdat je wat bij wilt leren.

Daarbij is de cursus gewoon in je browser te bekijken (ik zie de noodzaak van de app niet echt), hij werkt prettig(er) op je mobiel door de wijze van bladeren en wisselt korte teksten af met filmpjes. Daarbij kan het gaan om uitleg door Jim Stolze zelf, gesprekken met experts (wetenschappers, vertegenwoordigers van bedrijven), mensen op straat (soms na√Įef, anderen zijn beter op de hoogte en geven afgewogen antwoorden) en animaties die toelichting geven bij deelonderwerpen.

De tracks hebben de volgende onderwerpen:
#1 Een kijkje in de wereld van AI (15 min)
#2 Wat is AI?  (35 min)
CASE AI en WIJ (13 min)
#3 Is een zoekmachine ook AI? (25 min)
#4 Machine Learning (40 min)
#5 Deep Learning (35 min)
CASE AI en de RECHTSPRAAK (10 min)
#6  AI in het dagelijks leven (35 min)
#7 AI en de regels (40 min)
#8 Het werk van de toekomst (35 min)
CASE AI en GEMAK (10 min)
CASE AI en mobiliteit (11 min)

De tracks die als CASE worden aangeduid bevatten uitstapjes naar bedrijven als BOL.com, Post.nl, Wolters Kluwer, PON, Rabobank etc. Als je een account aanmaakt dan wordt je voortgang bijgehouden, je hoeft dus ook zeker niet alle onderdelen achter elkaar of op dezelfde dag te doen. Heb je alle 12 tracks doorlopen, dan kun je een certificaat downloaden (zie hierboven).

Maar ook dan is er nog voldoende te verkennen, te lezen en te bekijken. Er zitten op dit moment 39 bronnen in de bijlagenlijst bij de cursus. Vandaag (30-5-2019) heb ik problemen met het afspelen van de videos die daar staan, die worden ofwel niet getoond ofwel bijna volledig buiten beeld (getest op verschillende browsers en in de app).
De PDF documenten die er opgenomen zijn, kan ik w√©l bekijken. Elke track heeft in ieder geval een “inspiratielijst”. Dat is een PDF document met verwijzingen naar andere bronnen: boeken (die moet je dan zelf natuurlijk wel aanschaffen of opsporen), artikelen, video’s etc.
Daar kun je je dus ook nog wel even mee zoet houden. Verrassend hier vind ik dat er geen links opgenomen zijn naar de talloze online tutorials voor machine learning met bv Python. Ik neem aan dat de makers dat té complex vonden voor de doelgroep.

Die doelgroep kan tamelijk breed zijn. Ik wist al het nodige van AI, maar heb vooral genoten van de straatgesprekken, maar ook de Nederlandse voorbeelden waren voor mij interessant om te zien. Terwijl het laagdrempelig genoeg lijkt voor mensen die er nog helemaal niets van weten.

Dus wat gaat het worden? Hoor jij straks ook bij de 1% van de Nederlanders die weet wat AI is?
Eigenlijk zou het geen vraag meer moeten zijn. De cursus geeft het zelf ook aan: Continu blijven leren is de sleutel.

p.s. ik werd getipt door de site ibestuur.nl

p.p.s. er zijn op het moment meer dan voldoende actuele berichten rond AI in onze eigen praktijk. Bijvoorbeeld: Toezichthouder: overheden moeten transparant zijn over gebruik algoritmes (als je de cursus doorlopen hebt dan weet je wat FACTA betekent), de EU test ethische richtlijnen voor AI die in wat meer woorden overeenkomen met FACTA.

Kijk dus snel hier: https://app.ai-cursus.nl/ en treedt toe tot de 1%

Deel dit bericht:
dec 182018
 

Zullen de meeste lezer van dit weblog bij het bericht dat ik zaterdag plaatste niet veel moeite hebben met mijn conclusie “dit is cool”, bij dit andere bericht¬†verwacht ik dat de meningen wat meer verdeeld zijn. Het gaat over een pilot/experiment bij een restaurant in Japan. Daar maken ze gebruik van robots in de bediening.

Op zich niet zo vreemd, knap zou ik zeggen als die robots dat kunnen, ik zou verwachten dat de werkelijkheid wat minder vloeiend en vlekkeloos verloopt dan zo’n verhaal meestal doet vermoeden.

Klein detail in het verhaal echter is dat de robots niet autonoom werken, maar op afstand bestuurt worden door een mens. En dan niet zomaar een mens, maar iemand met (ernstige) verlammingsverschijnselen als gevolg van ALS of een dwarslaesie. In het filmpje hieronder kun je zien dat het gaat om situaties waarbij de persoon die de robot bestuurt met de ogen en grote knoppen op het beeldscherm de robot bestuurt.

Dat betekent dat de robot nog steeds tamelijk autonoom moet zijn aangezien de mate van besturing begrenst is. Tijdens een deel van een filmpje doen ze voorkomen dat de robot zelfstandig naar de werkplek navigeert. Dat lijkt me redelijk onwaarschijnlijk gezien de beperkte mogelijkheden om de robot te besturen en de te verwachten vertraging tussen het geven van een commando (lang genoeg naar de knop kijken om als “klik” te tellen) en de noodzakelijke snelheid ervan.

Maar waarom dan niet automatisch cool?
Dat komt waarschijnlijk door de wijze waarop het filmpje begint. En waarschijnlijk helpt het daarbij niet dat niet alle teksten vertaald worden en zonder ondertitels moet je veel van de audio raden. Maar het idee wordt gewekt dat er een soort van “mind-transfer” plaats vindt van de persoon in het bed naar de robot. Onzin natuurlijk. maar in de Japanse context helemaal niet zo vreemd. Als je die denktrant echter volgt dan is voor mij de volgende vraag wat dan voor iemand in die situatie het ultieme levensdoel is. In het filmpje wordt gesteld dat dat is om een actieve bijdrage te kunnen leveren aan de samenleving. Ook daar kan ik me nog wat bij voorstellen. Dat dat doel dan behaald wordt door als serveerster in een restaurant te werken, dat ging er bij mij niet helemaal in.

En natuurlijk, het is slechts een pilot, de technologie heeft nog heel wat stappen om te zetten voor het praktisch haalbaar is om dit grootschaliger in te zetten. Het lijkt me super cool als ook iemand die bedlegerig is, straks in staat is om, via een robot, buiten dat bed te kunnen bewegen en leven. Met welk doel dat dan gebeurt, daarover zouden we het wat mij betreft nog mogen hebben. Maar het idee dat √≠n zo’n machine straks een levend persoon zit. Dat zal een idee zijn dat (zeker in onze westerse wereld) veel mensen tamelijk creepy zullen vinden. Dan krijgt de vraag “mag je een robot martelen?” opeens ook een heel andere lading.

Meer filmpjes en foto’s zijn te vinden op deze site.

Deel dit bericht:
mei 282018
 

Via Adafruit kwam ik bij deze leuke (verder tamelijk nutteloze) Record Player. het is een combinatie van de Google Vision API en de Spotify API.

De werking is tamelijk eenvoudig: maak een foto van een hoes van een LP of CD of als je die niet meer hebt (of nooit gehad hebt), zoek je gewoon even op Google naar plaatjes. Die afbeelding sleep je dan op de interface en dan stuurt de site die eerst door naar Google Vision om te beoordelen wat er op de afbeelding staat. Het resultaat wordt dan naar Spotify gestuurd en jij krijgt het resultaat daarvan te zien.

Mijn eerste test was met Eliminator van ZZ Top:

Het resultaat was niet 100% correct, maar wél ZZ Top:

Een dubbelcheck (dank je Marit) liet zien dat dat logisch is: Eliminator als album staat namelijk niet op Spotify. Zoek ik op basis van de cover van Afterburner, dan komt Spotify met het juiste album. Cool! ūüôā

Hieronder staan er nog een paar:

De twee antieke “Now This is Music” hoezen kan Spotify niets mee. Maar dat ligt niet eens alleen aan Spotify (die die oude LP’s niet in de collectie heeft), van #4 maakt Google “lassen” (geen idee waarom) en op #6 herkent Google alleen Tina Turner. Op zich ook niet verkeerd.
Van de verzamel CD van Level 42 weet Google alleen¬†“level 42” te achterhalen. Grappig is dan weer dat Spotify dan ook “The Very Best Of” als response geeft, als de cover in dat geval niet helemaal hetzelfde.

Je ziet het, je kunt je hier heeeeel lang mee amuseren. Vooral als je een oude sok bent (zegt Marit).

Deel dit bericht:
mei 092018
 

Ok, een demo is een demo, het is nog geen product dat je zelf kunt gebruiken. De demo is in het Engels, niet in het Nederlands. Maar als voorbeeld van hoe ver het nu al bijna is, vond ik hem zeker een blogpost waard. Zeker omdat Google Duplex dusdanig op echte mensen lijkt qua dialoog dat het voor de partij aan de andere kant van de telefoon niet duidelijk is d√°t het een computer is die belt. Vinden we dat acceptabel.
Sowieso laat Google zelf ook als voorbeeld zien dat zij bedrijven kunnen bellen om te vragen naar openingstijden (zodat ze die dan op de website kunnen aanpassen als service aan ons allemaal). Je kunt je indenken dat telemarketers dit een schitterende tool zullen vinden. Ongetwijfeld veel goedkoper dan echte mensen, 24/7 beschikbaar en niet gevoelig voor vervelende klanten.

Het is overigens een clip op een niet-Google site, dus ik hoop dat hij blijft staan. De informatie bij Google zelf in ieder geval wel. Daar vind je ook meerdere audiobestanden van interactie tussen Google Duplex en (zo zegt Google) echte personen aan de andere kant van de telefoon.

Wordt ongetwijfeld vervolgd. Ik kan in ieder geval niet wachten totdat ik mijn eigen Google Assistant met deze functionaliteit kan updaten.

Deel dit bericht:
mrt 282018
 

Vond ik afgelopen weekend nog dat Docker toch best wel een leercurve had, vandaag¬† kwam ik er gelukkig al achter dat die ge√Įnvesteerde tijd toch niet voor niets was geweest. Want op het¬†Revolutions weblog stond een interessant bericht. Daarbij werd gebruik gemaakt van de Microsoft¬†Azure Computer Vision API om automatisch een bijschrijft te laten genereren van willekeurige afbeeldingen die opgehaald werden van Wikimedia Commons. De stap-voor-stap beschrijving staat hier.

Om dat te doen had je alleen een (gratis) Azure-account nodig (ik heb de studenten versie aangemaakt met mijn Office365-account) én een installatie van RStudio. Die laatste gebruik ik niet dagelijks. Maar met behulp van Docker was het een kwestie van een Docker commandline openen en het commando docker run --rm -p 8787:8787 rocker/verse, even wachten totdat Docker gezien had dat container nog niet lokaal beschikbaar was, de container automatisch gedownload was en opgestart.

Daarna had ik in mijn browser de beschikking over een volledige R setup met RStudio en de meest voorkomende libraries.

Ik heb daarop een R-bestand aangemaakt en daar de code die David Smith in zijn blogpost plaatst geknipt en geplakt. Daarbij bleek er 1 klein foutje te zitten in de code waardoor het niet werkte. In regel 3 van image_caption.R stond "?visualFeatures=Description",
en dat moet zijn "/analyze?visualFeatures=Description", anders krijg je alleen 404 meldingen terug van Azure. Daarna krijg je confidence info en een beschrijving retour. Bij een niveau boven de 50% komt hij zo te zien heel aardig overeen:

Lees verder….

Deel dit bericht:
okt 042017
 

Google heeft een leuk experiment beschikbaar gemaakt waarmee je eenvoudig kunt spelen met het principe van beeldherkenning en neurale netwerken. Je hebt alleen een geschikte browser en een webcam nodig.

Het idee is simpel: ga naar teachablemachine.withgoogle.com en ga van start. Je wordt stap voor stap door het setup proces geleid: kies 3 bewegingen en een bijbehorend gifje, een geluid of een stukje audio. Simpel. Grappig is dan als je daarna de camera een beetje verschuift of als je gaat testen wanneer de herkenning niet meer werkt.

Wil je daarna nóg verder, kan kun je met de code zelf aan de slag.  De code staat op github. Ik heb nog niet getest of het bijvoorbeeld te installeren is op een Raspberry Pi. Als dat werkt is het ook in een lessituatie goed bruikbaar. Sowieso geeft Google aan dat er geen data/afbeeldingen richting hun server gaan, het is allemaal JavaScript code die lokaal draait, maar dan weet je het helemaal zeker.

Cool. ūüôā

Deel dit bericht:
jun 182017
 

Toen ik de vraag kreeg wat ik van de Sanbot en haar bruikbaarheid voor het onderwijs vond was mijn eerste reactie dat ik daar nog helemaal niets van vond. Want ik kende de robot helemaal nog niet.

Nu, na het wat verder duiken in de schaarse beschikbare informatie, weet ik het eigenlijk nog steeds niet zo.

Wat ik weet:

  • Het is een robot van het bedrijf¬†Qihan Technology Co. Ltd uit China;
  • Ze is redelijk betaalbaar, zo’n $6.000,- al weet ik niet wat de cloud-connectivity die mogelijk is zou moeten kosten;
  • Er bestaat een integratiemogelijkheid met Watson van IBM, dat zou interessante gebruikscenario’s moeten kunnen opleveren waarbij je niet afhankelijk ¬†bent van de verwerkingskracht van het apparaat zelf;
  • De Sanbot sprak eerste Chinees en heeft daarna Engels geleerd, dat lijkt soms nog wat moeite te kosten, ook op andere plekken, want bij de ontwikkelaarspagina’s lijken de pagina’s nog niet helemaal vertaald;
  • Het kan aan mij liggen, maar het uiterlijk van de robot doet me een beetje aan¬†Mrs. Doubtfire denken.

Lees verder….

Deel dit bericht:
mei 192017
 

Ik ga hem niet in de categorie “onderzoek” labelen, want daar is de steekproef van vier zinnen en acht proefpersonen me net wat klein voor, hij krijgt daarom eerder het label “grappig” en het is wel een heel relevante vergelijking: hoe doen Google Home, Siri van Apple en Alexa van Amazon het op het gebied van het herkennen van vragen die in het Engels gesteld worden als je een accent hebt. Bijvoorbeeld omdat je Brit, Schot, Ier, Amerikaan, Aussie, Duitser, Italiaan of Japanner bent.

Je kunt het resultaat in het filmpje zien of hier nalezen.

Spoiler:¬†Benedict Cumberbatch wint! ūüôā

 

Deel dit bericht: