dec 182018
 

Zullen de meeste lezer van dit weblog bij het bericht dat ik zaterdag plaatste niet veel moeite hebben met mijn conclusie “dit is cool”, bij dit andere bericht verwacht ik dat de meningen wat meer verdeeld zijn. Het gaat over een pilot/experiment bij een restaurant in Japan. Daar maken ze gebruik van robots in de bediening.

Op zich niet zo vreemd, knap zou ik zeggen als die robots dat kunnen, ik zou verwachten dat de werkelijkheid wat minder vloeiend en vlekkeloos verloopt dan zo’n verhaal meestal doet vermoeden.

Klein detail in het verhaal echter is dat de robots niet autonoom werken, maar op afstand bestuurt worden door een mens. En dan niet zomaar een mens, maar iemand met (ernstige) verlammingsverschijnselen als gevolg van ALS of een dwarslaesie. In het filmpje hieronder kun je zien dat het gaat om situaties waarbij de persoon die de robot bestuurt met de ogen en grote knoppen op het beeldscherm de robot bestuurt.

Dat betekent dat de robot nog steeds tamelijk autonoom moet zijn aangezien de mate van besturing begrenst is. Tijdens een deel van een filmpje doen ze voorkomen dat de robot zelfstandig naar de werkplek navigeert. Dat lijkt me redelijk onwaarschijnlijk gezien de beperkte mogelijkheden om de robot te besturen en de te verwachten vertraging tussen het geven van een commando (lang genoeg naar de knop kijken om als “klik” te tellen) en de noodzakelijke snelheid ervan.

Maar waarom dan niet automatisch cool?
Dat komt waarschijnlijk door de wijze waarop het filmpje begint. En waarschijnlijk helpt het daarbij niet dat niet alle teksten vertaald worden en zonder ondertitels moet je veel van de audio raden. Maar het idee wordt gewekt dat er een soort van “mind-transfer” plaats vindt van de persoon in het bed naar de robot. Onzin natuurlijk. maar in de Japanse context helemaal niet zo vreemd. Als je die denktrant echter volgt dan is voor mij de volgende vraag wat dan voor iemand in die situatie het ultieme levensdoel is. In het filmpje wordt gesteld dat dat is om een actieve bijdrage te kunnen leveren aan de samenleving. Ook daar kan ik me nog wat bij voorstellen. Dat dat doel dan behaald wordt door als serveerster in een restaurant te werken, dat ging er bij mij niet helemaal in.

En natuurlijk, het is slechts een pilot, de technologie heeft nog heel wat stappen om te zetten voor het praktisch haalbaar is om dit grootschaliger in te zetten. Het lijkt me super cool als ook iemand die bedlegerig is, straks in staat is om, via een robot, buiten dat bed te kunnen bewegen en leven. Met welk doel dat dan gebeurt, daarover zouden we het wat mij betreft nog mogen hebben. Maar het idee dat ín zo’n machine straks een levend persoon zit. Dat zal een idee zijn dat (zeker in onze westerse wereld) veel mensen tamelijk creepy zullen vinden. Dan krijgt de vraag “mag je een robot martelen?” opeens ook een heel andere lading.

Meer filmpjes en foto’s zijn te vinden op deze site.

Deel dit bericht:

Sneeuwvlokken voor gevorderden

 Gepubliceerd door om 21:58  Agenda, coding
dec 152018
 

Als ik zeg “je hebt altijd baas boven baas”, dan klinkt dat negatief, maar wat ik bedoel in dit geval is dat wat ik ook doe, er altijd wel iemand is die iets doet waarvan ik dan denk “oh, zo zou het ook nog kunnen, dat is wel heel erg cool”. En dat bedoel ik dan juist positief. Dan valt er nog wat te leren.

Zo ook bij het bericht dat ik bij Adafruit las over de HoLLiday party bij Lab64 vorige week. Geen sneeuwvlokken uit de lasersnijder of de snijplotter. Nee, zelf ontworpen PCB’s in de vorm van sneeuwvlokken die ter plekke gesoldeerd en geprogrammeerd werden. In het bericht heel veel foto’s van wat er in ieder geval uitziet als een gezellige activiteit. Het enige dat eigenlijk ontbreekt zijn een aantal gifjes van de resultaten. De sneeuwvlokken zijn capacitive touch (aanraakgevoelig) en (na solderen) voorzien van neopixels en een SAMD21 zoals ook op de Adafruit Feather M0 waar het ontwerp op gebaseerd is (en dat mag, want Adafruit heeft dat ontwerp open source beschikbaar gemaakt).

Het is geen project voor beginners, dat zie je ook als je naar de materiaallijst kijk.  Ze wilden het event geschikt maken voor beginners, daarom hoefde je niet alles zelf te doen als je dat te spannend vond, En als voor jou solderen ook nog nieuw is: de tutorial die ze linken ziet er heel handig uit.

Kortom, een leuke activiteit die de nodige planning kost, maar die (aan de foto’s te zien) voor een groep studenten op zijn minst een leuke middag opgeleverd heeft. De vraag is natuurlijk of ze na die sessie echt anders zijn gaan denken over electronica / programmeren, of ze de volgende keer bij een project hier nu eerder ook mee aan de slag zouden gaan….want daar deden ze het voor.

Ik wil tot slot ook wel even ongevraagd de oproep van de mensen van Lab64 herhalen:

This all made possible because Adafruit invests time and resources providing open source designs and software. Please support Adafruit and open-source hardware by purchasing products from Adafruit and documenting your projects!!

Ik heb een paar Adafruit boards in huis zoals de  Circuit Playground Express en de Circuit Playground Developer Edition (nu “Classic”), maar ik moet bekennen dat ze het qua prijs en bestelgemak wel heel veraf liggen van de leveranciers die via AliExpress boards met een ESP8266 of EPS32 aanbieden. Daarom koop ik er niet zo heel vaak (maar documenteer ik wat ik er mee doe zo goed mogelijk).

/ht Adafruit

Deel dit bericht:

Twitterarchief 14-12-2018

 Gepubliceerd door om 23:00  Twitterarchief
dec 142018
 

Deel dit bericht:
dec 142018
 

12 maanden verschil

Bij Wilfred Rubens kwam ik mezelf gisterenavond tegen als onderdeel van de introductie van een blogpost getiteld “Stemgestuurde digitale assistenten en leren“. In het bericht (dat je natuurlijk het beste ook zelf eerst even kunt lezen) reageert Wilfred op zijn beurt op twee online berichten, eentje getiteld “Hey, Google, Alexa, Siri and Higher Ed” van Ray Schroeder en de ander heet “Using Amazon Alexa for the Math Classroom” van Matthew Lynch.

Centrale vraag daarbij is eigenlijk hoe / of we als onderwijsinstellingen zouden moeten omgaan met de toegenomen belangstelling (ook in Nederland) voor spraakgestuurde assistenten zoals die Google, Siri van Apple en Alexa van Amazon.
Zoals Wilfred altijd doet, maakt hij een tamelijk zakelijke en objectieve samenvatting van de berichten. Dat is fijn, want zelf zou ik ze waarschijnlijk anders nooit gelezen hebben. Ray Schroeder bijvoorbeeld begint zijn verhaal met een vergelijking van hoe zijn 7 jaar oude kleinzoon het altijd van hem wint als er vragen beantwoord moeten worden. Waarom? Tja, je kunt het wel raden: die kleinzoon begint met “Hey Google….”. Halverwege het bericht komt hij dan uit bij:

How far away are we from a full synthesis of emerging capabilities to do original research and writing — all triggered by a voice command? Not far. And, one has to ask, how does the advent of this technology impact the way in which we teach? Do we need to re-examine our pedagogies in light of very smart assistants?

Daarna introduceert hij een nieuw fancy begrip: voice engine optimization (VEO) als tegenhanger van search engine optimization. Kortom, het bericht heeft echt alles in zich dat er voor zorgt dat sommige mensen het een super bericht zullen vinden (en een waarschuwing / signaal voor de te volgen weg) en anderen op hun achterste benen zullen staan als het gaat om weer zo’n technoloog die de toekomst van onze kinderen wil verpesten met een stuk niet onderzochte technologie.
Het artikel van Matthew Lynch steekt daar heel veilig tegenover af met een aantal voorbeelden van hoe je Alexa in de klas kunt inzetten.

OK, zoals gezegd: goed dat Wilfred het samenvat, want dat maakt het mogelijk om te kijken naar de punten die hij er uit haalt, dat maakt het voor mij een stuk gemakkelijker om inhoudelijk te reageren.

Lees verder….

Deel dit bericht:
dec 132018
 

Toen ik besloot om de uitleg over mijn tweet van zondagavond op te knippen in drie in plaats van twee delen, was dat omdat ik vond dat na de uitleg over de terminologie in deel 1, het verstandiger was om eerst een eenvoudig voorbeeld uit te werken in deel 2. Maar dat heeft ook tot gevolg dat dit deel 3 een stuk eenvoudiger moet zijn om te volgen ondanks dat het resultaat dat zeker niet is.

De app van gisteren deed niet veel zinvols en had één intent (+ 2 ingebouwde) in totaal. Deze app combineert twee groepen vragen (in totaal 7 intents) in één app. Wat kun je doen?

  1. Je kunt vragen of een van de familieleden thuis is of niet.
  2. Je kunt vragen wat de temperatuur of de luchtvochtigheid is van een aantal sensoren in Home Assistant

Voor dit deel 3 ga ik er vanuit dat je deel 2, gelezen én nagebouwd hebt. Dat betekent dat je de Handmatige setup – deel 2 voor het configureren van Dialogflow uitgevoerd hebt, dat je een intent.yaml op je Home Assistant server hebt staan, dat je een webhook geconfigureerd hebt en die ook al eens succesvol gebruikt hebt (in je persoonlijke routeplanner). En ik ga er ook vanuit dat je al eens een app gemaakt hebt (als onderdeel van deel 2).

OK? Goed, dan aan de slag.

Lees verder….

Deel dit bericht:
dec 122018
 

Gisteren heb ik de TTGO T-Beam meegenomen toen ik met de trein op en neer van Deurne naar Apeldoorn gereisd ben. Gewoon in mijn tas, mijn jaszak, naast de laptop op het tafeltje terwijl ik zat te werken. Echt een wereld van verschil ten opzichte van de eerste keer. Dit maakt het veel haalbaarder om van tijd tot tijd een dagje de status van het netwerk te testen. En omdat de tracker redelijk netjes is voor wat betreft het aantal berichten dat verstuurd wordt (als de trein/auto/ik niet beweegt worden er veel minder berichten verstuurd dan bij beweging) kan dat ook prima.

Gisteren had ik, zoals inmiddels gebruikelijk een reserve LiPo batterij bij me, maar ik heb hem niet nodig gehad. De T-Beam wist het vol te houden gedurende de heenreis (ongeveer 2 uur en 15 minuten van deur tot deur) en de terugreis (idem). Toen ik in Apeldoorn op mijn bestemming aankwam heb ik de T-Beam uitgezet (handig dat fysieke schakelaartje dat al op het board zit!) want voor de tijd die ik ín het gebouw doorbracht had tracken niet echt veel zin.

Op het kaartje hierboven zie je dat ook nu er best veel plekken zijn waar je vanuit de trein geen ontvangst hebt, landelijke dekking is er dus nu nog lang niet (ik ben benieuwd wanneer de dag komt dat ik kan zeggen “en nu wel!”). Maar in de steden gaat het al heel goed. Als we inzoomen (klik op een afbeelding voor grotere versie).

Lees verder….

Deel dit bericht:
dec 112018
 

Tijd voor deel 2 van de serie berichten over het praten met je Home Assistant installatie via Google Home. Als je deel 1 van gisteren nog niet gelezen hebt, doe dat dan eerst even. Anders wordt het heel moeilijk om te volgen.

Als je deel 1 gelezen hebt, dan weet je inmiddels dat er een aantal manieren zijn waarom je een koppeling kunt hebben tussen je Google Home (Mini).

Home Assistant Cloud
Laat ik beginnen met Home Assistant Cloud, een dienst waar ik zelf (nog) geen ervaring mee heb. Dat maakt het wat ongemakkelijker voor me om er uitspraken over te doen, maar ik lees vooral dat het gewoon werkt en als ik de info lees dan lijkt het ook een stuk gemakkelijker qua setup dan de handmatige manier. Je kunt het gratis een maand testen, daarna €5,- per maand, dus als je denkt “ik zie al dat zelf installeren niet zitten” is het zeker iets om uit te proberen. In onderstaande video kun je zien hoe je Home Assistant Cloud kunt installeren en configureren:

Met de setup kun je standaard zaken doen: lampen of schakelaars aan/uit zetten en alle apparaten aansturen die standaard door het home automation deel van Google Assistant worden ondersteund.

Ik ben voor de handmatige setup gegaan en zoals gezegd die is wat ingewikkelder. In de rest van het bericht ga ik uit van die setup.

Lees verder….

Deel dit bericht:
dec 102018
 

Het tweede weekend met de Google Home Mini in huis betekende dat ik verder gewerkt heb aan de integratie ervan met Home Assistant. Maar voordat ik daar over ga schrijven, eerst even wat begrippen op een rij om te voorkomen dat je al bij de start van dit bericht de draad helemaal kwijt bent. Het doel / resultaat zie je in de tweet hierboven. Hoe ik dat gerealiseerd heb lees je uiteindelijk in deel 3, maar dit eerste deel is wel even handig om te lezen. Goed, de spelers dan eerst even op een rij.

Home Assistant – is een open source software omgeving die niet van Google is. Ik gebruik Home Assistant en meer in het bijzonder Hass.io als vervanger voor OpenHAB (een ander open source systeem voor home automation / domotica). Omdat ik vooral ‘domme’ sensoren en schakelaars gebruik zou Google niet veel kunnen in mijn huis. Straks zal ik ook de “app” Home Assistant introduceren. dat is wat anders. Als ik alleen Home Assistant als begrip gebruik dan heb ik het over deze omgeving, geïnstalleerd op een Raspberry Pi 3B+ thuis bij mij in de meterkast.

Google Home Mini – het kleinere zusje van de Google Home. Een speaker / microfoon combinatie die luistert naar opdrachten en die doorgeeft aan Google Assistant. Vergelijkbaar met wat de Amazon Echo is voor Alexa.

Google Assistant – zorgt voor het omzetten van mijn gesproken opdrachten naar tekst en probeert daar dan iets mee te doen. Dat iets kan van alles zijn: opzoeken van een definitie van een woord op internet, het toevoegen van een item aan een boodschappenlijst, het starten van een liedje op Spotify. Google Assistant heeft ook ondersteuning voor domotica. Bijvoorbeeld voor het aanzetten van lampen of schakelaar. Google Assistant kan communiceren met Home Assistant waarbij Home Assistant er dan voor zorgt dat de actie daadwerkelijk uitgevoerd wordt. Dat is handig want hoewel Google Assistant geen ondersteuning heeft voor mijn goedkope (3 voor 10 euro) schakelaars van de Action, vindt ze het geen enkel probleem om een commando als “Zet Kerstboom Aan” door te geven aan Home Assistant. Home Assistant zorgt er dan wel voor dat via de RFXcom module die er aan hangt de juiste codes via 433Mhz naar de schakelaar gestuurd wordt.

Onhandiger wordt het als ik wil weten hoe warm het ergens in huis is. Of hoe vochtig. Home Assistant weet daar het antwoord op omdat ik daar er voor zorg dat de waardes van die sensoren via 433Mhz en wederom de RFXcom module ontvangen wordt. Maar Home Assistant heeft nog geen ondersteuning voor sensoren die luchtvochtigheid terug geven. Wel voor thermometers. Dus rechtstreeks vragen kan nog niet.

Lees verder….

Deel dit bericht:
dec 082018
 

(klik even door voor de rest van de bijbehorende tweets, het werkt namelijk lang niet altijd!)

Deel dit bericht:
dec 072018
 

Gisteren schreef ik over een lesactiviteit waarbij je in Tinkercad met blokken een sneeuwvlok kon laten genereren. Ik weet niet precies waarom ik het in de titel van het bericht “kerstster” genoemd heb, waarschijnlijk omdat ze daar op lijken en gezien de tijd van het jaar.

Het idee van het ontwerpen van een sneeuwvlok in code is natuurlijk dat je eenvoudig meer verschillende ontwerpen kunt maken. Dat kon ook met de code in Tinkercad, maar toen ik daar gisterenavond mee aan de slag ging, liep ik al snel tegen een beperking van de huidige versie aan. Ik kon (nog) geen IF-statements toevoegen en daardoor was het niet mogelijk om in één ontwerp de code voor meerdere, verschillende sneeuwvlokken op te nemen.
De programmeerfunctie in Tinkercad is nog nieuw en zal ongetwijfeld nog verder uitgewerkt worden, maar voor nu kan het nog even niet.

Dus ging ik nadenken over andere manieren waarop ik dat zou kunnen vormgeven. Omdat het soms helpt om daar een nachtje over te slapen, deed ik dat. En vanochtend, toen ik wakker werd was (voor mij) duidelijk dat ik daarvoor OpenSCAD wilde gaan gebruiken. Het was al weer lang geleden dat ik daar voor het laatst mee gewerkt had (ruim 5 jaar!). Gelukkig was ik niet de enige die daar aan gedacht had en JanPieter wees me via Twitter op het bestaan van The Snowflake Machine. Dat is een stuk code in OpenSCAD waarmee je sneeuwvlokken kunt genereren.

Lees verder….

Deel dit bericht: