dec 182018
 

Zullen de meeste lezer van dit weblog bij het bericht dat ik zaterdag plaatste niet veel moeite hebben met mijn conclusie “dit is cool”, bij dit andere bericht verwacht ik dat de meningen wat meer verdeeld zijn. Het gaat over een pilot/experiment bij een restaurant in Japan. Daar maken ze gebruik van robots in de bediening.

Op zich niet zo vreemd, knap zou ik zeggen als die robots dat kunnen, ik zou verwachten dat de werkelijkheid wat minder vloeiend en vlekkeloos verloopt dan zo’n verhaal meestal doet vermoeden.

Klein detail in het verhaal echter is dat de robots niet autonoom werken, maar op afstand bestuurt worden door een mens. En dan niet zomaar een mens, maar iemand met (ernstige) verlammingsverschijnselen als gevolg van ALS of een dwarslaesie. In het filmpje hieronder kun je zien dat het gaat om situaties waarbij de persoon die de robot bestuurt met de ogen en grote knoppen op het beeldscherm de robot bestuurt.

Dat betekent dat de robot nog steeds tamelijk autonoom moet zijn aangezien de mate van besturing begrenst is. Tijdens een deel van een filmpje doen ze voorkomen dat de robot zelfstandig naar de werkplek navigeert. Dat lijkt me redelijk onwaarschijnlijk gezien de beperkte mogelijkheden om de robot te besturen en de te verwachten vertraging tussen het geven van een commando (lang genoeg naar de knop kijken om als “klik” te tellen) en de noodzakelijke snelheid ervan.

Maar waarom dan niet automatisch cool?
Dat komt waarschijnlijk door de wijze waarop het filmpje begint. En waarschijnlijk helpt het daarbij niet dat niet alle teksten vertaald worden en zonder ondertitels moet je veel van de audio raden. Maar het idee wordt gewekt dat er een soort van “mind-transfer” plaats vindt van de persoon in het bed naar de robot. Onzin natuurlijk. maar in de Japanse context helemaal niet zo vreemd. Als je die denktrant echter volgt dan is voor mij de volgende vraag wat dan voor iemand in die situatie het ultieme levensdoel is. In het filmpje wordt gesteld dat dat is om een actieve bijdrage te kunnen leveren aan de samenleving. Ook daar kan ik me nog wat bij voorstellen. Dat dat doel dan behaald wordt door als serveerster in een restaurant te werken, dat ging er bij mij niet helemaal in.

En natuurlijk, het is slechts een pilot, de technologie heeft nog heel wat stappen om te zetten voor het praktisch haalbaar is om dit grootschaliger in te zetten. Het lijkt me super cool als ook iemand die bedlegerig is, straks in staat is om, via een robot, buiten dat bed te kunnen bewegen en leven. Met welk doel dat dan gebeurt, daarover zouden we het wat mij betreft nog mogen hebben. Maar het idee dat ín zo’n machine straks een levend persoon zit. Dat zal een idee zijn dat (zeker in onze westerse wereld) veel mensen tamelijk creepy zullen vinden. Dan krijgt de vraag “mag je een robot martelen?” opeens ook een heel andere lading.

Meer filmpjes en foto’s zijn te vinden op deze site.

Deel dit bericht:
dec 142018
 

12 maanden verschil

Bij Wilfred Rubens kwam ik mezelf gisterenavond tegen als onderdeel van de introductie van een blogpost getiteld “Stemgestuurde digitale assistenten en leren“. In het bericht (dat je natuurlijk het beste ook zelf eerst even kunt lezen) reageert Wilfred op zijn beurt op twee online berichten, eentje getiteld “Hey, Google, Alexa, Siri and Higher Ed” van Ray Schroeder en de ander heet “Using Amazon Alexa for the Math Classroom” van Matthew Lynch.

Centrale vraag daarbij is eigenlijk hoe / of we als onderwijsinstellingen zouden moeten omgaan met de toegenomen belangstelling (ook in Nederland) voor spraakgestuurde assistenten zoals die Google, Siri van Apple en Alexa van Amazon.
Zoals Wilfred altijd doet, maakt hij een tamelijk zakelijke en objectieve samenvatting van de berichten. Dat is fijn, want zelf zou ik ze waarschijnlijk anders nooit gelezen hebben. Ray Schroeder bijvoorbeeld begint zijn verhaal met een vergelijking van hoe zijn 7 jaar oude kleinzoon het altijd van hem wint als er vragen beantwoord moeten worden. Waarom? Tja, je kunt het wel raden: die kleinzoon begint met “Hey Google….”. Halverwege het bericht komt hij dan uit bij:

How far away are we from a full synthesis of emerging capabilities to do original research and writing — all triggered by a voice command? Not far. And, one has to ask, how does the advent of this technology impact the way in which we teach? Do we need to re-examine our pedagogies in light of very smart assistants?

Daarna introduceert hij een nieuw fancy begrip: voice engine optimization (VEO) als tegenhanger van search engine optimization. Kortom, het bericht heeft echt alles in zich dat er voor zorgt dat sommige mensen het een super bericht zullen vinden (en een waarschuwing / signaal voor de te volgen weg) en anderen op hun achterste benen zullen staan als het gaat om weer zo’n technoloog die de toekomst van onze kinderen wil verpesten met een stuk niet onderzochte technologie.
Het artikel van Matthew Lynch steekt daar heel veilig tegenover af met een aantal voorbeelden van hoe je Alexa in de klas kunt inzetten.

OK, zoals gezegd: goed dat Wilfred het samenvat, want dat maakt het mogelijk om te kijken naar de punten die hij er uit haalt, dat maakt het voor mij een stuk gemakkelijker om inhoudelijk te reageren.

Lees verder….

Deel dit bericht:
mei 282018
 

Via Adafruit kwam ik bij deze leuke (verder tamelijk nutteloze) Record Player. het is een combinatie van de Google Vision API en de Spotify API.

De werking is tamelijk eenvoudig: maak een foto van een hoes van een LP of CD of als je die niet meer hebt (of nooit gehad hebt), zoek je gewoon even op Google naar plaatjes. Die afbeelding sleep je dan op de interface en dan stuurt de site die eerst door naar Google Vision om te beoordelen wat er op de afbeelding staat. Het resultaat wordt dan naar Spotify gestuurd en jij krijgt het resultaat daarvan te zien.

Mijn eerste test was met Eliminator van ZZ Top:

Het resultaat was niet 100% correct, maar wél ZZ Top:

Een dubbelcheck (dank je Marit) liet zien dat dat logisch is: Eliminator als album staat namelijk niet op Spotify. Zoek ik op basis van de cover van Afterburner, dan komt Spotify met het juiste album. Cool! 🙂

Hieronder staan er nog een paar:

De twee antieke “Now This is Music” hoezen kan Spotify niets mee. Maar dat ligt niet eens alleen aan Spotify (die die oude LP’s niet in de collectie heeft), van #4 maakt Google “lassen” (geen idee waarom) en op #6 herkent Google alleen Tina Turner. Op zich ook niet verkeerd.
Van de verzamel CD van Level 42 weet Google alleen “level 42” te achterhalen. Grappig is dan weer dat Spotify dan ook “The Very Best Of” als response geeft, als de cover in dat geval niet helemaal hetzelfde.

Je ziet het, je kunt je hier heeeeel lang mee amuseren. Vooral als je een oude sok bent (zegt Marit).

Deel dit bericht:
mei 092018
 

Ok, een demo is een demo, het is nog geen product dat je zelf kunt gebruiken. De demo is in het Engels, niet in het Nederlands. Maar als voorbeeld van hoe ver het nu al bijna is, vond ik hem zeker een blogpost waard. Zeker omdat Google Duplex dusdanig op echte mensen lijkt qua dialoog dat het voor de partij aan de andere kant van de telefoon niet duidelijk is dát het een computer is die belt. Vinden we dat acceptabel.
Sowieso laat Google zelf ook als voorbeeld zien dat zij bedrijven kunnen bellen om te vragen naar openingstijden (zodat ze die dan op de website kunnen aanpassen als service aan ons allemaal). Je kunt je indenken dat telemarketers dit een schitterende tool zullen vinden. Ongetwijfeld veel goedkoper dan echte mensen, 24/7 beschikbaar en niet gevoelig voor vervelende klanten.

Het is overigens een clip op een niet-Google site, dus ik hoop dat hij blijft staan. De informatie bij Google zelf in ieder geval wel. Daar vind je ook meerdere audiobestanden van interactie tussen Google Duplex en (zo zegt Google) echte personen aan de andere kant van de telefoon.

Wordt ongetwijfeld vervolgd. Ik kan in ieder geval niet wachten totdat ik mijn eigen Google Assistant met deze functionaliteit kan updaten.

Deel dit bericht: