mei 282018
 

Via Adafruit kwam ik bij deze leuke (verder tamelijk nutteloze) Record Player. het is een combinatie van de Google Vision API en de Spotify API.

De werking is tamelijk eenvoudig: maak een foto van een hoes van een LP of CD of als je die niet meer hebt (of nooit gehad hebt), zoek je gewoon even op Google naar plaatjes. Die afbeelding sleep je dan op de interface en dan stuurt de site die eerst door naar Google Vision om te beoordelen wat er op de afbeelding staat. Het resultaat wordt dan naar Spotify gestuurd en jij krijgt het resultaat daarvan te zien.

Mijn eerste test was met Eliminator van ZZ Top:

Het resultaat was niet 100% correct, maar wél ZZ Top:

Een dubbelcheck (dank je Marit) liet zien dat dat logisch is: Eliminator als album staat namelijk niet op Spotify. Zoek ik op basis van de cover van Afterburner, dan komt Spotify met het juiste album. Cool! 🙂

Hieronder staan er nog een paar:

De twee antieke “Now This is Music” hoezen kan Spotify niets mee. Maar dat ligt niet eens alleen aan Spotify (die die oude LP’s niet in de collectie heeft), van #4 maakt Google “lassen” (geen idee waarom) en op #6 herkent Google alleen Tina Turner. Op zich ook niet verkeerd.
Van de verzamel CD van Level 42 weet Google alleen “level 42” te achterhalen. Grappig is dan weer dat Spotify dan ook “The Very Best Of” als response geeft, als de cover in dat geval niet helemaal hetzelfde.

Je ziet het, je kunt je hier heeeeel lang mee amuseren. Vooral als je een oude sok bent (zegt Marit).

Deel dit bericht:
mei 092018
 

Ok, een demo is een demo, het is nog geen product dat je zelf kunt gebruiken. De demo is in het Engels, niet in het Nederlands. Maar als voorbeeld van hoe ver het nu al bijna is, vond ik hem zeker een blogpost waard. Zeker omdat Google Duplex dusdanig op echte mensen lijkt qua dialoog dat het voor de partij aan de andere kant van de telefoon niet duidelijk is dát het een computer is die belt. Vinden we dat acceptabel.
Sowieso laat Google zelf ook als voorbeeld zien dat zij bedrijven kunnen bellen om te vragen naar openingstijden (zodat ze die dan op de website kunnen aanpassen als service aan ons allemaal). Je kunt je indenken dat telemarketers dit een schitterende tool zullen vinden. Ongetwijfeld veel goedkoper dan echte mensen, 24/7 beschikbaar en niet gevoelig voor vervelende klanten.

Het is overigens een clip op een niet-Google site, dus ik hoop dat hij blijft staan. De informatie bij Google zelf in ieder geval wel. Daar vind je ook meerdere audiobestanden van interactie tussen Google Duplex en (zo zegt Google) echte personen aan de andere kant van de telefoon.

Wordt ongetwijfeld vervolgd. Ik kan in ieder geval niet wachten totdat ik mijn eigen Google Assistant met deze functionaliteit kan updaten.

Deel dit bericht:
mrt 282018
 

Vond ik afgelopen weekend nog dat Docker toch best wel een leercurve had, vandaag  kwam ik er gelukkig al achter dat die geïnvesteerde tijd toch niet voor niets was geweest. Want op het Revolutions weblog stond een interessant bericht. Daarbij werd gebruik gemaakt van de Microsoft Azure Computer Vision API om automatisch een bijschrijft te laten genereren van willekeurige afbeeldingen die opgehaald werden van Wikimedia Commons. De stap-voor-stap beschrijving staat hier.

Om dat te doen had je alleen een (gratis) Azure-account nodig (ik heb de studenten versie aangemaakt met mijn Office365-account) én een installatie van RStudio. Die laatste gebruik ik niet dagelijks. Maar met behulp van Docker was het een kwestie van een Docker commandline openen en het commando docker run --rm -p 8787:8787 rocker/verse, even wachten totdat Docker gezien had dat container nog niet lokaal beschikbaar was, de container automatisch gedownload was en opgestart.

Daarna had ik in mijn browser de beschikking over een volledige R setup met RStudio en de meest voorkomende libraries.

Ik heb daarop een R-bestand aangemaakt en daar de code die David Smith in zijn blogpost plaatst geknipt en geplakt. Daarbij bleek er 1 klein foutje te zitten in de code waardoor het niet werkte. In regel 3 van image_caption.R stond "?visualFeatures=Description",
en dat moet zijn "/analyze?visualFeatures=Description", anders krijg je alleen 404 meldingen terug van Azure. Daarna krijg je confidence info en een beschrijving retour. Bij een niveau boven de 50% komt hij zo te zien heel aardig overeen:

Lees verder….

Deel dit bericht:
okt 042017
 

Google heeft een leuk experiment beschikbaar gemaakt waarmee je eenvoudig kunt spelen met het principe van beeldherkenning en neurale netwerken. Je hebt alleen een geschikte browser en een webcam nodig.

Het idee is simpel: ga naar teachablemachine.withgoogle.com en ga van start. Je wordt stap voor stap door het setup proces geleid: kies 3 bewegingen en een bijbehorend gifje, een geluid of een stukje audio. Simpel. Grappig is dan als je daarna de camera een beetje verschuift of als je gaat testen wanneer de herkenning niet meer werkt.

Wil je daarna nóg verder, kan kun je met de code zelf aan de slag.  De code staat op github. Ik heb nog niet getest of het bijvoorbeeld te installeren is op een Raspberry Pi. Als dat werkt is het ook in een lessituatie goed bruikbaar. Sowieso geeft Google aan dat er geen data/afbeeldingen richting hun server gaan, het is allemaal JavaScript code die lokaal draait, maar dan weet je het helemaal zeker.

Cool. 🙂

Deel dit bericht:
jun 182017
 

Toen ik de vraag kreeg wat ik van de Sanbot en haar bruikbaarheid voor het onderwijs vond was mijn eerste reactie dat ik daar nog helemaal niets van vond. Want ik kende de robot helemaal nog niet.

Nu, na het wat verder duiken in de schaarse beschikbare informatie, weet ik het eigenlijk nog steeds niet zo.

Wat ik weet:

  • Het is een robot van het bedrijf Qihan Technology Co. Ltd uit China;
  • Ze is redelijk betaalbaar, zo’n $6.000,- al weet ik niet wat de cloud-connectivity die mogelijk is zou moeten kosten;
  • Er bestaat een integratiemogelijkheid met Watson van IBM, dat zou interessante gebruikscenario’s moeten kunnen opleveren waarbij je niet afhankelijk  bent van de verwerkingskracht van het apparaat zelf;
  • De Sanbot sprak eerste Chinees en heeft daarna Engels geleerd, dat lijkt soms nog wat moeite te kosten, ook op andere plekken, want bij de ontwikkelaarspagina’s lijken de pagina’s nog niet helemaal vertaald;
  • Het kan aan mij liggen, maar het uiterlijk van de robot doet me een beetje aan Mrs. Doubtfire denken.

Lees verder….

Deel dit bericht:
mei 192017
 

Ik ga hem niet in de categorie “onderzoek” labelen, want daar is de steekproef van vier zinnen en acht proefpersonen me net wat klein voor, hij krijgt daarom eerder het label “grappig” en het is wel een heel relevante vergelijking: hoe doen Google Home, Siri van Apple en Alexa van Amazon het op het gebied van het herkennen van vragen die in het Engels gesteld worden als je een accent hebt. Bijvoorbeeld omdat je Brit, Schot, Ier, Amerikaan, Aussie, Duitser, Italiaan of Japanner bent.

Je kunt het resultaat in het filmpje zien of hier nalezen.

Spoiler: Benedict Cumberbatch wint! 🙂

 

Deel dit bericht:
mei 182017
 

Als je ook maar enigszins iets te maken hebt met kunstmatige intelligentie, ontwikkelingen op het gebied van ict, ethiek en technologie, dan kan je Peter-Paul Verbeek, hoogleraar Wijsbegeerte aan de Universiteit Twente. Het eerste boek dat ik van hem las was De grens van de mens.

Op 29 mei start een gratis MOOC getiteld “Philosophy of Technology and Design: Shaping the Relations Between Humans and Technologies” bij FutureLearn onder leiding van Peter-Paul Verbeek en Roos de Jong.

De MOOC is maar 3 weken lang (kort), dus ik verwacht geen enorme diepgang ten opzichte van bv zijn boeken, de beschrijving geeft aan dat er aandacht zijn voor de volgende onderwerpen:

  • Evaluate some classical thinkers in philosophy of technology.
  • Reflect on the power of technology: are humans still in control?
  • Explore the contemporary philosophical approach of technological mediation.
  • Engage in case studies to get insights in the impact of technology on society and human life.
  • Debate the ethical dimension of technology and apply this to design.
  • Discuss the ethical limits of designing technologies that influence our behaviour.

Doelgroep: “This course has been created for anyone interested in the relations between technology and society, and in particular for people working or studying in philosophy, engineering, design, social science and policy. The course might be specifically relevant to those interested in what philosophical analysis can contribute to the practice of design, engineering, and policy-making.”

p.s. de MOOC is gratis te volgen, maar dan raak je 14 dagen na afloop de toegang kwijt, voor €64,- kun je er voor zorgen dat je onbeperkt toegang blijft houden. Dat betekent dus dat als je de gratis variant wilt volgen, je de activiteiten het beste ook tijdens de daadwerkelijke looptijd kunt plannen.

Deel dit bericht: