dec 142018
 

12 maanden verschil

Bij Wilfred Rubens kwam ik mezelf gisterenavond tegen als onderdeel van de introductie van een blogpost getiteld “Stemgestuurde digitale assistenten en leren“. In het bericht (dat je natuurlijk het beste ook zelf eerst even kunt lezen) reageert Wilfred op zijn beurt op twee online berichten, eentje getiteld “Hey, Google, Alexa, Siri and Higher Ed” van Ray Schroeder en de ander heet “Using Amazon Alexa for the Math Classroom” van Matthew Lynch.

Centrale vraag daarbij is eigenlijk hoe / of we als onderwijsinstellingen zouden moeten omgaan met de toegenomen belangstelling (ook in Nederland) voor spraakgestuurde assistenten zoals die Google, Siri van Apple en Alexa van Amazon.
Zoals Wilfred altijd doet, maakt hij een tamelijk zakelijke en objectieve samenvatting van de berichten. Dat is fijn, want zelf zou ik ze waarschijnlijk anders nooit gelezen hebben. Ray Schroeder bijvoorbeeld begint zijn verhaal met een vergelijking van hoe zijn 7 jaar oude kleinzoon het altijd van hem wint als er vragen beantwoord moeten worden. Waarom? Tja, je kunt het wel raden: die kleinzoon begint met “Hey Google….”. Halverwege het bericht komt hij dan uit bij:

How far away are we from a full synthesis of emerging capabilities to do original research and writing — all triggered by a voice command? Not far. And, one has to ask, how does the advent of this technology impact the way in which we teach? Do we need to re-examine our pedagogies in light of very smart assistants?

Daarna introduceert hij een nieuw fancy begrip: voice engine optimization (VEO) als tegenhanger van search engine optimization. Kortom, het bericht heeft echt alles in zich dat er voor zorgt dat sommige mensen het een super bericht zullen vinden (en een waarschuwing / signaal voor de te volgen weg) en anderen op hun achterste benen zullen staan als het gaat om weer zo’n technoloog die de toekomst van onze kinderen wil verpesten met een stuk niet onderzochte technologie.
Het artikel van Matthew Lynch steekt daar heel veilig tegenover af met een aantal voorbeelden van hoe je Alexa in de klas kunt inzetten.

OK, zoals gezegd: goed dat Wilfred het samenvat, want dat maakt het mogelijk om te kijken naar de punten die hij er uit haalt, dat maakt het voor mij een stuk gemakkelijker om inhoudelijk te reageren.

Lees verder….

Deel dit bericht:
dec 082018
 

(klik even door voor de rest van de bijbehorende tweets, het werkt namelijk lang niet altijd!)

Deel dit bericht:
dec 022018
 

Het was eigenlijk gewoon heel logisch. In 2015 sloot ik mijn kerstboom aan op mijn home automation systeem, toen was dat OpenHab. In 2017 (vorig jaar) gebruikte ik een Google AIY Voice Kit om de kerstboom in het Engels aan en uit te schakelen. Het kartonnen doosje had afgelopen jaar niet zo heel veel gedaan, maar toen als onderdeel van de Black Friday aanbiedingen (tja, sorry hoor) ook de Google Home Mini voorbij kwam, inmiddels ook met ondersteuning voor Nederlandse spraak, kon ik het niet laten en heb ik er eentje besteld.
Het was meteen ook een moment om OpenHab te vervangen door Home Assistant. Ik had afgelopen jaar nog wel de upgrade uitgevoerd naar de nieuwe versie van OpenHab, maar het was tijd voor wat nieuws. Betekende dus weer een nieuw systeem en architectuur leren kennen. Nou ja, zeg maar gerust “betekent” want het systeem heeft zó veel verschillende opties, dat ik nog wel even aan het leren ben.

Een paar dingen gingen in ieder geval heel erg prettig. Ik sloot de RFXcom ontvanger/zender aan op de Raspberry Pi waarop is Home Assistant via Hass.io geïnstalleerd had en in no time werden de verschillende vochtigheid/thermometers door het huis heen (die gebruiken 433Mhz om hun data te versturen) herkend. De goedkope 433Mhz KlikAanKlikUit klonen van de Action waren eveneens geen probleem. En zo had ik redelijk snel een basic werkend systeem. De integratie met de Google Home Mini (en daarmee ook de Google Home app op mijn iPad en Android telefoon) was niet heel veel meer werk. De plugin voor Duckdns maakte het heel gemakkelijk om de benodigde veilige verbinding naar buiten te maken en de setup was redelijk duidelijk. Ik heb geen gebruik gemaakt van de (betaalde) Cloud app/setup, maandelijkse bedragen betalen om lampen in mijn huis aan/uit te kunnen schakelen vind ik nou eenmaal niet zo handig.

In het Nederlands heel eenvoudig niet alleen je Kerstboom (wees gerust hij staat nog niet op!) maar ook alle  andere schakelaars kunnen bedienen is iets dat ook de rest van het gezin kon bevallen. Zeker omdat de spraakherkenning, helemaal als je hem traint, prima is.

De integratie met de componenten in huis is nog niet helemaal optimaal. Zo kan de Google Home Mini niet “zomaar” antwoord geven op een vraag naar de waarde van de sensoren die aan Home Assistant gekoppeld zijn. Daarvoor moest ik met Dialogflow aan de slag en Intent regels per sensor, dat werkt nog wat omslachtig zoals je ook in het filmpje hierboven kunt horen. Maar het werkt.

Ondertussen heb ik ook de data van de zonnepanelen in Home Assistent ontsluiten, een stukje Automation toegevoegd en kan ik notificaties ontvangen via Pushbullet, kortom het begint al heel aardig vorm te krijgen. Wordt vervolgd!

Deel dit bericht:
mei 282018
 

Via Adafruit kwam ik bij deze leuke (verder tamelijk nutteloze) Record Player. het is een combinatie van de Google Vision API en de Spotify API.

De werking is tamelijk eenvoudig: maak een foto van een hoes van een LP of CD of als je die niet meer hebt (of nooit gehad hebt), zoek je gewoon even op Google naar plaatjes. Die afbeelding sleep je dan op de interface en dan stuurt de site die eerst door naar Google Vision om te beoordelen wat er op de afbeelding staat. Het resultaat wordt dan naar Spotify gestuurd en jij krijgt het resultaat daarvan te zien.

Mijn eerste test was met Eliminator van ZZ Top:

Het resultaat was niet 100% correct, maar wél ZZ Top:

Een dubbelcheck (dank je Marit) liet zien dat dat logisch is: Eliminator als album staat namelijk niet op Spotify. Zoek ik op basis van de cover van Afterburner, dan komt Spotify met het juiste album. Cool! 🙂

Hieronder staan er nog een paar:

De twee antieke “Now This is Music” hoezen kan Spotify niets mee. Maar dat ligt niet eens alleen aan Spotify (die die oude LP’s niet in de collectie heeft), van #4 maakt Google “lassen” (geen idee waarom) en op #6 herkent Google alleen Tina Turner. Op zich ook niet verkeerd.
Van de verzamel CD van Level 42 weet Google alleen “level 42” te achterhalen. Grappig is dan weer dat Spotify dan ook “The Very Best Of” als response geeft, als de cover in dat geval niet helemaal hetzelfde.

Je ziet het, je kunt je hier heeeeel lang mee amuseren. Vooral als je een oude sok bent (zegt Marit).

Deel dit bericht:
mei 092018
 

Ok, een demo is een demo, het is nog geen product dat je zelf kunt gebruiken. De demo is in het Engels, niet in het Nederlands. Maar als voorbeeld van hoe ver het nu al bijna is, vond ik hem zeker een blogpost waard. Zeker omdat Google Duplex dusdanig op echte mensen lijkt qua dialoog dat het voor de partij aan de andere kant van de telefoon niet duidelijk is dát het een computer is die belt. Vinden we dat acceptabel.
Sowieso laat Google zelf ook als voorbeeld zien dat zij bedrijven kunnen bellen om te vragen naar openingstijden (zodat ze die dan op de website kunnen aanpassen als service aan ons allemaal). Je kunt je indenken dat telemarketers dit een schitterende tool zullen vinden. Ongetwijfeld veel goedkoper dan echte mensen, 24/7 beschikbaar en niet gevoelig voor vervelende klanten.

Het is overigens een clip op een niet-Google site, dus ik hoop dat hij blijft staan. De informatie bij Google zelf in ieder geval wel. Daar vind je ook meerdere audiobestanden van interactie tussen Google Duplex en (zo zegt Google) echte personen aan de andere kant van de telefoon.

Wordt ongetwijfeld vervolgd. Ik kan in ieder geval niet wachten totdat ik mijn eigen Google Assistant met deze functionaliteit kan updaten.

Deel dit bericht:
feb 172018
 

Goed, eigenlijk zou ik blij moeten zijn van de aanpassing die Google afgelopen week doorgevoerd heeft in haar zoekpagina voor afbeeldingen. Als onderdeel van de afhandeling van de schikking met Getty Images heeft Google namelijk toegezegd om duidelijker te maken dat er auteursrecht rust/kan rusten op afbeeldingen die je via Google kunt vinden én ze hebben de knop verwijderd waarmee je de afbeelding buiten de context van de pagina waar hij op staat kon bekijken.
En daar zou ik blij mee moeten zijn omdat dit een té handige manier voor veel docenten, studenten en mensen die in het onderwijs leermateriaal maken. PowerPoint maken met afbeeldingen? Even zoeken in Google en dan knippen en plakken in de presentatie. Plaatjes voor een verslag of een stukje (online) lesmateriaal? Idem.

Wil je die PowerPoint, dat verslag of lesmateriaal daarna breder delen dan gaat het mis. Je moet dan namelijk minimaal voor al die afbeeldingen gaan controleren of er auteursrecht op zit, of er bijvoorbeeld een Creative Commons licentie op zit etc.

Het is dus veel handiger als dat meteen al vooraf gedaan is, de nodige bronvermelding beschikbaar is etc.

Natuurlijk, wie een beetje weet hoe een browser werkt, weet dat een rechtermuisklik op de afbeelding en kiezen voor “Afbeelding openen in nieuw tabblad” genoeg is om alsnog de afbeelding te bekijken. En natuurlijk is er ook al een oplossing in de vorm van een plugin voor Google Chrome en Firefox. Handig, dat wel, maar eigenlijk zou het mooier zijn als ze duidelijker zouden aangeven wat het auteursrecht op een afbeelding daadwerkelijk is (voor zover bekend).

Dat zal niet zo gemakkelijk zijn als dat het bij Wikipedia is, maar daar heb je wel een situatie waarbij je daadwerkelijk van mensen mag verwachten dat ze op een juiste manier melding maken van het bijbehorende auteursrecht. De screenshot hieronder is van een foto van Sasha Krotov.

Ik snap het dus als mensen niet blij zijn met de aanpassing. Het zal de rechthebbenden wellicht (een beetje) tevreden stellen, maar “gewone” gebruikers zullen het zien als “lastig”.

Deel dit bericht:
dec 302017
 

Een blogpost over een oplossing waarvan ik zelf inmiddels al geconstateerd heb dat hij tóch niet zo handig is? Moet kunnen. Want ik wil in ieder geval even documenteren hoe ik e.e.a. voor elkaar gekregen heb. Wie weet heeft iemand anders er toch nog wat aan.

Naast de fijnstofsensor voor het RIVM experiment heb ik er ook eentje gemaakt die ik in de woonkamer opgesteld heb. Gewoon om te zien hoe in huis eventueel het niveau fijnstof zou stijgen als we in de keuken aan het koken waren, of een paar uur wafels stonden te bakken.

Ik wilde de data snel kunnen verwerken zonder teveel gedoe met databases of zo, zou het niet handig en mogelijk zijn om de data op te slaan in een Google Sheet?

Ik weet inmiddels dat als ik het kan verzinnen, iemand anders dat ongetwijfeld ook al gedaan heeft. Zo ook nu. En lang geleden al.In 2011 schreef Martin Hawksey een script waarmee  je via een URL data door kunt geven aan  een Google Sheet. Je moet een Sheet aanmaken en dan in de Script editor het script inplakken. Eenmalig moet je dan de Setup() procedure uitvoeren en via Publish > Deploy as web app het script publiceren. Daarbij moet je er dan voor kiezen om het script ook voor “Anonymous” beschikbaar maken. Google zal dan moord en brand schreeuwen omdat het script niet door hen getest is etc.

De werking is dan eenvoudig. Op de eerste rij van de sheet zet je de namen van de waarden die je wilt doorgeven. Tip: noem de eerste kolom “Timestamp”, dan voegt het script automatisch datum en tijd in waarop de nieuwer data is ingevoerd.

Daarna kun je via GET of POST de data doorsturen naar de Google Sheet waarbij elke waarde gelijk moet zijn aan de titel van een kolom (hoofdlettergevoelig).

Ik gebruikte een NodeMCU ESP8266. Omdat Google een beveiligde verbinding gebruikt moet je gebruik maken van een andere bibliotheek dan normaal:

#include <WiFiClientSecure.h>
en
WiFiClientSecure client2;

Lees verder….

Deel dit bericht:

Programmeren met de kerstman

 Gepubliceerd door om 17:01  Algemeen, Programmeren
dec 232017
 

Alle scholen hebben inmiddels Kerstvakantie. En zelf doen we eigenlijk helemaal niet aan de Kerstman, maar de Santa Tracker van Google met ingebouwde “leren programmeren” omgeving is leuk genoeg om even naar te linken: https://santatracker.google.com/codelab.html

Leuk om zelf uit te proberen, samen met de kids….

De gewone tracker met al zijn extra’s is hier te vinden: http://g.co/santatracker

 

 

Deel dit bericht:
dec 182017
 

Zal ik beginnen met de opmerking dat je prima kunt leven zónder de oplossing waar ik nu over ga schrijven? Goed, dan weet je dat in ieder geval. Los daarvan heb ik best een speciale relatie met onze kerstboom. Die gaat verder terug dan 2015, maar voor deze blogpost hou ik het daar even bij. In dat jaar sloot ik de lampjes van de boom namelijk aan op een ELRO KlikAanKlikUit kloon. Dat is zo’n stopcontact dat je met een afstandsbediening aan/uit kunt schakelen. Maar als je zo’n zender aansluit op een Raspberry Pi, dan kan dat ook vanuit je smartphone. Het resultaat kun je hier zien/lezen.

Vorig jaar besloot ik nog dat het te vroeg was om gebruik te maken van stembesturing, de benodigde hardware was nog niet te koop in Nederland en veel te duur (200 dollar). Dit jaar was dat al heel anders, de hardware kostte minder dan de helft: €39,- voor een Raspberry Pi 3b, een paar euro voor een micro-SD kaartje en goede voeding en €33,- voor de Google AIY Voice Kit. Die laatste was niet heel gemakkelijk te vinden, na de initiële verspreiding via MagPi duurde het een paar maanden voordat er een nieuwe batch gemaakt was voor gewone verkoop. Maar ik had er eentje.

Het in elkaar zetten van de hardware is niet heel moeilijk, een kwestie van het volgen van de stappen op de website (of in het boekje op papier dat er bij zit), je moet bij Google een account hebben, een project aanmaken en een bestand downloaden naar de Raspberry Pi. Gemakkelijk genoeg allemaal.

Lees verder….

Deel dit bericht:
dec 022017
 

Google heeft weer een geinig nieuw experiment de wereld in gestuurd: Paper Signals. Het principe is heel simpel: je print een vouwmodel op papier, knipt het uit volgens de instructies. Je neemt een ESP8266, een servomoter en 3 kabels. Vouw het geheel samen. Maak een account aan bij Google zodat je via je smartphone en Google Assistent commando’s aan het “signal” door kunt geven. Zet de benodigde code op de ESP8266 (kwestie van wat variabelen in een bestandje aanpassen voor jouw wifi-netwerk, jouw code bij Google etc en dan uploaden). En klaar.

Het resultaat is dan bv een signal met een paraplu er op die open gaat wanneer het gaat regenen. Je geeft dan via de Google Assistent, met stemcommando’s, door dat die bepaalde signal het weer in jouw woonplaats bij moet houden.  Zo hebben ze al een voorbeeld voor een signal voor raketlanceringen, een countdown klok (leuk voor in de klas om af te tellen naar de Kerstvakantie), eentje voor het weer die aangeeft of het korte broeken weer is of niet (voor de meeste leraren is het nooit korte broeken weer in de klas!!). Maar je kunt ook zelf nieuwe sjablonen verzinnen.

Google gebruikt voor hun kit de Adafruit Feather HUZZAH en die is niet heel goedkoop. Maar als ik naar de bijgevoegde code kijk, dan zit daar op het eerste oog niets in dat niet op een willekeurig ESP8266 zou kunnen draaien. Ik heb het nog niet kunnen testen, maar dit zou ook op een Wemos D1 mini van 2 euro uit China moeten kunnen werken. Logisch ook omdat de ESP8266 niet veel hoeft te doen. Hij hoeft alleen via WiFi contact te maken met de Google dienst, te luisteren naar opdrachten die hem vertellen hoe de servo moet draaien en de servo op basis daarvan aansturen.

Let op! Ik ga er vanuit dat dit een experiment is van Google dat met name op de Google Assistant gericht is. Garantie dat de API en de dienst jaren in de lucht blijft heb je bij Google sowieso niet vaak. Maar ja, dan haal je de onderdelen toch weer uit elkaar en gebruik je ze voor wat anders?

 

 

Deel dit bericht: