mei 282018
 

Via Adafruit kwam ik bij deze leuke (verder tamelijk nutteloze) Record Player. het is een combinatie van de Google Vision API en de Spotify API.

De werking is tamelijk eenvoudig: maak een foto van een hoes van een LP of CD of als je die niet meer hebt (of nooit gehad hebt), zoek je gewoon even op Google naar plaatjes. Die afbeelding sleep je dan op de interface en dan stuurt de site die eerst door naar Google Vision om te beoordelen wat er op de afbeelding staat. Het resultaat wordt dan naar Spotify gestuurd en jij krijgt het resultaat daarvan te zien.

Mijn eerste test was met Eliminator van ZZ Top:

Het resultaat was niet 100% correct, maar wél ZZ Top:

Een dubbelcheck (dank je Marit) liet zien dat dat logisch is: Eliminator als album staat namelijk niet op Spotify. Zoek ik op basis van de cover van Afterburner, dan komt Spotify met het juiste album. Cool! 🙂

Hieronder staan er nog een paar:

De twee antieke “Now This is Music” hoezen kan Spotify niets mee. Maar dat ligt niet eens alleen aan Spotify (die die oude LP’s niet in de collectie heeft), van #4 maakt Google “lassen” (geen idee waarom) en op #6 herkent Google alleen Tina Turner. Op zich ook niet verkeerd.
Van de verzamel CD van Level 42 weet Google alleen “level 42” te achterhalen. Grappig is dan weer dat Spotify dan ook “The Very Best Of” als response geeft, als de cover in dat geval niet helemaal hetzelfde.

Je ziet het, je kunt je hier heeeeel lang mee amuseren. Vooral als je een oude sok bent (zegt Marit).

Deel dit bericht:
mei 092018
 

Ok, een demo is een demo, het is nog geen product dat je zelf kunt gebruiken. De demo is in het Engels, niet in het Nederlands. Maar als voorbeeld van hoe ver het nu al bijna is, vond ik hem zeker een blogpost waard. Zeker omdat Google Duplex dusdanig op echte mensen lijkt qua dialoog dat het voor de partij aan de andere kant van de telefoon niet duidelijk is dát het een computer is die belt. Vinden we dat acceptabel.
Sowieso laat Google zelf ook als voorbeeld zien dat zij bedrijven kunnen bellen om te vragen naar openingstijden (zodat ze die dan op de website kunnen aanpassen als service aan ons allemaal). Je kunt je indenken dat telemarketers dit een schitterende tool zullen vinden. Ongetwijfeld veel goedkoper dan echte mensen, 24/7 beschikbaar en niet gevoelig voor vervelende klanten.

Het is overigens een clip op een niet-Google site, dus ik hoop dat hij blijft staan. De informatie bij Google zelf in ieder geval wel. Daar vind je ook meerdere audiobestanden van interactie tussen Google Duplex en (zo zegt Google) echte personen aan de andere kant van de telefoon.

Wordt ongetwijfeld vervolgd. Ik kan in ieder geval niet wachten totdat ik mijn eigen Google Assistant met deze functionaliteit kan updaten.

Deel dit bericht:
feb 172018
 

Goed, eigenlijk zou ik blij moeten zijn van de aanpassing die Google afgelopen week doorgevoerd heeft in haar zoekpagina voor afbeeldingen. Als onderdeel van de afhandeling van de schikking met Getty Images heeft Google namelijk toegezegd om duidelijker te maken dat er auteursrecht rust/kan rusten op afbeeldingen die je via Google kunt vinden én ze hebben de knop verwijderd waarmee je de afbeelding buiten de context van de pagina waar hij op staat kon bekijken.
En daar zou ik blij mee moeten zijn omdat dit een té handige manier voor veel docenten, studenten en mensen die in het onderwijs leermateriaal maken. PowerPoint maken met afbeeldingen? Even zoeken in Google en dan knippen en plakken in de presentatie. Plaatjes voor een verslag of een stukje (online) lesmateriaal? Idem.

Wil je die PowerPoint, dat verslag of lesmateriaal daarna breder delen dan gaat het mis. Je moet dan namelijk minimaal voor al die afbeeldingen gaan controleren of er auteursrecht op zit, of er bijvoorbeeld een Creative Commons licentie op zit etc.

Het is dus veel handiger als dat meteen al vooraf gedaan is, de nodige bronvermelding beschikbaar is etc.

Natuurlijk, wie een beetje weet hoe een browser werkt, weet dat een rechtermuisklik op de afbeelding en kiezen voor “Afbeelding openen in nieuw tabblad” genoeg is om alsnog de afbeelding te bekijken. En natuurlijk is er ook al een oplossing in de vorm van een plugin voor Google Chrome en Firefox. Handig, dat wel, maar eigenlijk zou het mooier zijn als ze duidelijker zouden aangeven wat het auteursrecht op een afbeelding daadwerkelijk is (voor zover bekend).

Dat zal niet zo gemakkelijk zijn als dat het bij Wikipedia is, maar daar heb je wel een situatie waarbij je daadwerkelijk van mensen mag verwachten dat ze op een juiste manier melding maken van het bijbehorende auteursrecht. De screenshot hieronder is van een foto van Sasha Krotov.

Ik snap het dus als mensen niet blij zijn met de aanpassing. Het zal de rechthebbenden wellicht (een beetje) tevreden stellen, maar “gewone” gebruikers zullen het zien als “lastig”.

Deel dit bericht:
dec 302017
 

Een blogpost over een oplossing waarvan ik zelf inmiddels al geconstateerd heb dat hij tóch niet zo handig is? Moet kunnen. Want ik wil in ieder geval even documenteren hoe ik e.e.a. voor elkaar gekregen heb. Wie weet heeft iemand anders er toch nog wat aan.

Naast de fijnstofsensor voor het RIVM experiment heb ik er ook eentje gemaakt die ik in de woonkamer opgesteld heb. Gewoon om te zien hoe in huis eventueel het niveau fijnstof zou stijgen als we in de keuken aan het koken waren, of een paar uur wafels stonden te bakken.

Ik wilde de data snel kunnen verwerken zonder teveel gedoe met databases of zo, zou het niet handig en mogelijk zijn om de data op te slaan in een Google Sheet?

Ik weet inmiddels dat als ik het kan verzinnen, iemand anders dat ongetwijfeld ook al gedaan heeft. Zo ook nu. En lang geleden al.In 2011 schreef Martin Hawksey een script waarmee  je via een URL data door kunt geven aan  een Google Sheet. Je moet een Sheet aanmaken en dan in de Script editor het script inplakken. Eenmalig moet je dan de Setup() procedure uitvoeren en via Publish > Deploy as web app het script publiceren. Daarbij moet je er dan voor kiezen om het script ook voor “Anonymous” beschikbaar maken. Google zal dan moord en brand schreeuwen omdat het script niet door hen getest is etc.

De werking is dan eenvoudig. Op de eerste rij van de sheet zet je de namen van de waarden die je wilt doorgeven. Tip: noem de eerste kolom “Timestamp”, dan voegt het script automatisch datum en tijd in waarop de nieuwer data is ingevoerd.

Daarna kun je via GET of POST de data doorsturen naar de Google Sheet waarbij elke waarde gelijk moet zijn aan de titel van een kolom (hoofdlettergevoelig).

Ik gebruikte een NodeMCU ESP8266. Omdat Google een beveiligde verbinding gebruikt moet je gebruik maken van een andere bibliotheek dan normaal:

#include <WiFiClientSecure.h>
en
WiFiClientSecure client2;

Lees verder….

Deel dit bericht:

Programmeren met de kerstman

 Gepubliceerd door om 17:01  Algemeen, Programmeren
dec 232017
 

Alle scholen hebben inmiddels Kerstvakantie. En zelf doen we eigenlijk helemaal niet aan de Kerstman, maar de Santa Tracker van Google met ingebouwde “leren programmeren” omgeving is leuk genoeg om even naar te linken: https://santatracker.google.com/codelab.html

Leuk om zelf uit te proberen, samen met de kids….

De gewone tracker met al zijn extra’s is hier te vinden: http://g.co/santatracker

 

 

Deel dit bericht:
dec 182017
 

Zal ik beginnen met de opmerking dat je prima kunt leven zónder de oplossing waar ik nu over ga schrijven? Goed, dan weet je dat in ieder geval. Los daarvan heb ik best een speciale relatie met onze kerstboom. Die gaat verder terug dan 2015, maar voor deze blogpost hou ik het daar even bij. In dat jaar sloot ik de lampjes van de boom namelijk aan op een ELRO KlikAanKlikUit kloon. Dat is zo’n stopcontact dat je met een afstandsbediening aan/uit kunt schakelen. Maar als je zo’n zender aansluit op een Raspberry Pi, dan kan dat ook vanuit je smartphone. Het resultaat kun je hier zien/lezen.

Vorig jaar besloot ik nog dat het te vroeg was om gebruik te maken van stembesturing, de benodigde hardware was nog niet te koop in Nederland en veel te duur (200 dollar). Dit jaar was dat al heel anders, de hardware kostte minder dan de helft: €39,- voor een Raspberry Pi 3b, een paar euro voor een micro-SD kaartje en goede voeding en €33,- voor de Google AIY Voice Kit. Die laatste was niet heel gemakkelijk te vinden, na de initiële verspreiding via MagPi duurde het een paar maanden voordat er een nieuwe batch gemaakt was voor gewone verkoop. Maar ik had er eentje.

Het in elkaar zetten van de hardware is niet heel moeilijk, een kwestie van het volgen van de stappen op de website (of in het boekje op papier dat er bij zit), je moet bij Google een account hebben, een project aanmaken en een bestand downloaden naar de Raspberry Pi. Gemakkelijk genoeg allemaal.

Lees verder….

Deel dit bericht:
dec 022017
 

Google heeft weer een geinig nieuw experiment de wereld in gestuurd: Paper Signals. Het principe is heel simpel: je print een vouwmodel op papier, knipt het uit volgens de instructies. Je neemt een ESP8266, een servomoter en 3 kabels. Vouw het geheel samen. Maak een account aan bij Google zodat je via je smartphone en Google Assistent commando’s aan het “signal” door kunt geven. Zet de benodigde code op de ESP8266 (kwestie van wat variabelen in een bestandje aanpassen voor jouw wifi-netwerk, jouw code bij Google etc en dan uploaden). En klaar.

Het resultaat is dan bv een signal met een paraplu er op die open gaat wanneer het gaat regenen. Je geeft dan via de Google Assistent, met stemcommando’s, door dat die bepaalde signal het weer in jouw woonplaats bij moet houden.  Zo hebben ze al een voorbeeld voor een signal voor raketlanceringen, een countdown klok (leuk voor in de klas om af te tellen naar de Kerstvakantie), eentje voor het weer die aangeeft of het korte broeken weer is of niet (voor de meeste leraren is het nooit korte broeken weer in de klas!!). Maar je kunt ook zelf nieuwe sjablonen verzinnen.

Google gebruikt voor hun kit de Adafruit Feather HUZZAH en die is niet heel goedkoop. Maar als ik naar de bijgevoegde code kijk, dan zit daar op het eerste oog niets in dat niet op een willekeurig ESP8266 zou kunnen draaien. Ik heb het nog niet kunnen testen, maar dit zou ook op een Wemos D1 mini van 2 euro uit China moeten kunnen werken. Logisch ook omdat de ESP8266 niet veel hoeft te doen. Hij hoeft alleen via WiFi contact te maken met de Google dienst, te luisteren naar opdrachten die hem vertellen hoe de servo moet draaien en de servo op basis daarvan aansturen.

Let op! Ik ga er vanuit dat dit een experiment is van Google dat met name op de Google Assistant gericht is. Garantie dat de API en de dienst jaren in de lucht blijft heb je bij Google sowieso niet vaak. Maar ja, dan haal je de onderdelen toch weer uit elkaar en gebruik je ze voor wat anders?

 

 

Deel dit bericht:

Zijn computers seksistisch?

 Gepubliceerd door om 21:14  Internet, Tools
okt 052017
 

Gender bias, genderneutraliteit, het zijn onderwerpen waar je op Twitter heel eenvoudig kunt scoren. En daarmee ook onderwerpen waar ik me normaal gesproken heel erg ver van hou. Ik heb er wel een mening over, maar voel niet de behoefte die online te delen.

Waarom dan tóch aandacht voor de tweet van Diane Kim? Nou, omdat hij iets zichtbaar maakt waar je waarschijnlijk niet zo snel bij stil staat: bij het vertalen van zinnen kan het voor komen dat systemen als Google Translate, keuzes maken die wij als seksistisch beschouwen. Het voorbeeld dat Diane laat zien is de vertaling van de zin “Hij is een babysitter” en “Zij is een dokter” vanuit het Engels naar het Turks en terug naar het Engels. Google Translate laat dan over “Zij is een babysitter” en “Hij is een dokter”.  Oeps.

Als je naar de screenshot hierboven kijkt, dan zie je dat “he” en “she” vanuit het Engels naar het Turks beiden naar “O” vertaald worden. Dat betekent dat Google Translate bij het terug vertalen van Turks naar Engels geen enkele aanwijzing heeft wat het geslacht zou moeten zijn. Nou kent het Engels ook het gebruik van “they” in enkelvoud waarbij het geslacht niet vastgesteld is. Dus het was absoluut mogelijk geweest om de vertaling correct(er) te maken.

Is Google Translate dan seksistisch? Tja, dat hangt waarschijnlijk een beetje van je definitie af. Het systeem erachter “leert” hoe vertalingen gemaakt moeten worden op basis van bestaande teksten. Het systeem “weet” niet dat wij het als seksistisch beschouwen dat bij een dokter het mannelijke geslacht gekozen wordt en bij babysitter het vrouwelijke geslacht. Dat maakt aanpassen ook ingewikkeld. Interessant in de reacties op de tweet is dat er niet alleen gemopperd wordt, maar ook verwezen wordt naar reeds bestaande initiatieven, zoals dit bericht. Een ding is zeker, we zijn er nog lang niet en we zullen er bewust van moeten zijn dat dit soort systemen het risico lopen alle vooroordelen die wij nu hebben in zich “op te nemen”. Signaleren van stap 1.

Deel dit bericht:
okt 042017
 

Google heeft een leuk experiment beschikbaar gemaakt waarmee je eenvoudig kunt spelen met het principe van beeldherkenning en neurale netwerken. Je hebt alleen een geschikte browser en een webcam nodig.

Het idee is simpel: ga naar teachablemachine.withgoogle.com en ga van start. Je wordt stap voor stap door het setup proces geleid: kies 3 bewegingen en een bijbehorend gifje, een geluid of een stukje audio. Simpel. Grappig is dan als je daarna de camera een beetje verschuift of als je gaat testen wanneer de herkenning niet meer werkt.

Wil je daarna nóg verder, kan kun je met de code zelf aan de slag.  De code staat op github. Ik heb nog niet getest of het bijvoorbeeld te installeren is op een Raspberry Pi. Als dat werkt is het ook in een lessituatie goed bruikbaar. Sowieso geeft Google aan dat er geen data/afbeeldingen richting hun server gaan, het is allemaal JavaScript code die lokaal draait, maar dan weet je het helemaal zeker.

Cool. 🙂

Deel dit bericht:
okt 012017
 

Pedro De Bruyckere deelt bovenstaand filmpje van Google Expeditions AR. Hij geeft daarbij aan dat de video hem een beetje op zijn honger laat zitten. Nou kende ik die uitdrukking niet, ik moest hem even opzoeken: “niet voldaan zijn”.  En ja, ik kan me bij dat gevoel wel wat voorstellen. Enerzijds is het meer “open” dan de VR versie van de Expeditions. De kinderen kunnen elkaar zien, met elkaar interacteren. Maar ik blijf het maf vinden, die kinderen met zo’n selfiestick die door de klas heen rennen om dingen te bekijken die er niet zijn. Ik kan alleen mijn vinger er niet helemaal achter krijgen waarom ik er sceptisch over ben. Ja, ze worden er enthousiast van, zoveel is duidelijk. Gaan ze er beter door leren is een vraag waarbij je eerst moet vaststellen wat dan “beter leren” is (nee, het is wat mij betreft “meer feitjes onthouden voor het proefwerk”. Dat ze het, zeker in het begin, “leuk” vinden geloof ik eveneens wel. Nee, ik heb nog geen direct antwoord op de vraag of dit een gimmick is of een waardevolle aanvulling op het onderwijs.

Deel dit bericht: