dec 242018
 

Vanmiddag zijn we nog even met de  snijplotter aan de slag gegaan. Enerzijds gewoon om wat dingen te doen die we inmiddels redelijk onder de knie hebben: stickers van vinyl maken. Als eerste werd de snijplotter zelf van een iXperium logo voorzien. Nog niet zo leuk en persoonlijk als de snijplotter van Per Ivar (die heet “Marleen“), maar het is een begin.

Marit zocht zichzelf een T-Rex schedel op online die ze omzette naar stickers en daarna was het tijd voor een nieuwe uitdaging: heat transfer vinyl (HTV). Je kunt er echt een miljoen filmpjes of zo over vinden op YouTube. Het idee is simpel en de naam zegt het al: het is vinyl die je op de snijplotter (hij heet in het Engels niet voor niets meestal gewoon “vinyl cutter”) snijdt en dan met behulp van een hittepers of transferpers aanbrengt op het gewenste materiaal. Veel voorkomend is dat te doen op stof, dus bijvoorbeeld een tas, een t-shirt, een trui / hoodie. Maar zoals je hier kunt zien (is link naar een winkel waar ik verder geen relatie mee heb), zijn er ook persen speciaal voor petten of voor mokken / flessen. Kosten voor zo’n pers variëren van zo’n 200-500 euro (en veel hoger als het allemaal een slag professioneler wordt). Die heb ik niet thuis staan.

Natuurlijk kun je het ook met een strijkbout proberen, maar mijn ervaringen met ‘gewoon’ printbaar inkjetpapier dat je eveneens met een strijkbout over kunt brengen op t-shirts (jaren geleden) waren we niet zo goed bevallen. Dat leverde toen een strijkplank op met schroeiplekken en niet het gewenste resultaat.
De altijd vriendelijke Betsy (uit Texas) heeft met uiteindelijk met haar filmpje over het gebruik van een strijkbout in combinatie met HTV overgehaald om het toch nog maar een keer te proberen. Vellen HTV hadden we meer dan genoeg. In plaats van de strijkplank hebben gebruik gemaakt van de ontbijttafel met daar bovenop een stevig, gladde plank van geplastificeerde spaanplaat.

De Teflon beschermfolie hebben we niet online besteld. Daar worden prijzen gehanteerd van zo’n 10-20 euro per vel. Bij de Blokker hadden ze ze voor 4 euro per stuk. We hebben 1 vel onder de stof gelegd en 1 er bovenop. Dat ging goed.
Tweede uitdaging was de strijkbout. Die hebben we uiteraard in huis, maar dat is een stoomstrijkijzer (gevuld ook logischerwijs met water). En stoom en HTV dat is niet de bedoeling. We hebben dus eerst het strijkijzer ontdaan van water (voor zover dat kon). Maar ondanks dat zag ik dat de gaatjes die in het strijkvlak zitten steeds duidelijk zichtbaar waren in de transferlaag (niet in het eindresultaat gelukkig). De Blokker heeft ook een droogstrijkijzer op de site staan, die heeft die gaatjes niet en een vlak strijkvlak. Hij was helaas niet op voorraad in de winkel. Ik heb hem besteld, want voor de 20 euro incl. verzendkosten vond ik hem sowieso al handiger dan het steeds leeg moeten maken van ons stoomstrijkijzer. Want dit keer lukte het wel!

Lees verder….

Deel dit bericht:
dec 212018
 

Vorig jaar knutselde Marit een kerstster in elkaar waarvan ze eerste de individuele onderdelen met liniaal en potlood getekend had, uitgeknipt en gesneden en daarna gelijmd. Hoe dat moet kun je ook in dit filmpje zien (alleen gebruikt zij veel dikker papier dan Marit had waardoor het een stuk gemakkelijker is). Ik zorgde daarna voor de verlichting ín de ster.

Dit jaar wilde Marit opnieuw zo’n ster maken, maar dan met behulp van de snijplotter. Omdat ze het vorig jaar allemaal met de hand getekend had op basis van een beschrijving over de verhoudingen tussen de hoeken, hadden we geen bronbestanden of ontwerptekeningen meer bij de hand. Maar omdat het principe generiek is, wist ik dat er vast wel andere mensen waren die zo’n ontwerp gedeeld hadden. Ik vond er uiteindelijk eentje bij The Spruce Crafts. Maar dat was een afbeelding, in zwart/wit.

In zo’n geval kun je een aantal dingen proberen als het gaat om het omzetten van zo’n afbeelding naar iets waarmee een snijplotter aan de slag kan. Je moet rechte lijnen hebben, anders gaat het snijden en vouwen niet goed. En je moet de lijnen in verschillende kleuren kunnen weergeven om het verschil tussen snijlijnen en vouwlijnen helder te maken.

Ik besloot uiteindelijk om de tekening gewoon na te tekenen. En tja, voor mij is dan PowerPoint een logische tool om te gebruiken. Daarin kan ik namelijk gemakkelijk de afbeelding inladen en dan eroverheen rechte lijnstukken in verschillende kleuren tekenen. Bijkomend voordeel was dat de versie van Marit uitgesneden sterretjes op de ster had. Die wilde ik er nog aan toevoegen. In PowerPoint is dat een kwestie van het gebruiken van een van de clipart sterretjes, die kopiëren, in afmeting variëren, wat draaien en klaar is je patroon.

Lees verder….

Deel dit bericht:
dec 182018
 

Zullen de meeste lezer van dit weblog bij het bericht dat ik zaterdag plaatste niet veel moeite hebben met mijn conclusie “dit is cool”, bij dit andere bericht verwacht ik dat de meningen wat meer verdeeld zijn. Het gaat over een pilot/experiment bij een restaurant in Japan. Daar maken ze gebruik van robots in de bediening.

Op zich niet zo vreemd, knap zou ik zeggen als die robots dat kunnen, ik zou verwachten dat de werkelijkheid wat minder vloeiend en vlekkeloos verloopt dan zo’n verhaal meestal doet vermoeden.

Klein detail in het verhaal echter is dat de robots niet autonoom werken, maar op afstand bestuurt worden door een mens. En dan niet zomaar een mens, maar iemand met (ernstige) verlammingsverschijnselen als gevolg van ALS of een dwarslaesie. In het filmpje hieronder kun je zien dat het gaat om situaties waarbij de persoon die de robot bestuurt met de ogen en grote knoppen op het beeldscherm de robot bestuurt.

Dat betekent dat de robot nog steeds tamelijk autonoom moet zijn aangezien de mate van besturing begrenst is. Tijdens een deel van een filmpje doen ze voorkomen dat de robot zelfstandig naar de werkplek navigeert. Dat lijkt me redelijk onwaarschijnlijk gezien de beperkte mogelijkheden om de robot te besturen en de te verwachten vertraging tussen het geven van een commando (lang genoeg naar de knop kijken om als “klik” te tellen) en de noodzakelijke snelheid ervan.

Maar waarom dan niet automatisch cool?
Dat komt waarschijnlijk door de wijze waarop het filmpje begint. En waarschijnlijk helpt het daarbij niet dat niet alle teksten vertaald worden en zonder ondertitels moet je veel van de audio raden. Maar het idee wordt gewekt dat er een soort van “mind-transfer” plaats vindt van de persoon in het bed naar de robot. Onzin natuurlijk. maar in de Japanse context helemaal niet zo vreemd. Als je die denktrant echter volgt dan is voor mij de volgende vraag wat dan voor iemand in die situatie het ultieme levensdoel is. In het filmpje wordt gesteld dat dat is om een actieve bijdrage te kunnen leveren aan de samenleving. Ook daar kan ik me nog wat bij voorstellen. Dat dat doel dan behaald wordt door als serveerster in een restaurant te werken, dat ging er bij mij niet helemaal in.

En natuurlijk, het is slechts een pilot, de technologie heeft nog heel wat stappen om te zetten voor het praktisch haalbaar is om dit grootschaliger in te zetten. Het lijkt me super cool als ook iemand die bedlegerig is, straks in staat is om, via een robot, buiten dat bed te kunnen bewegen en leven. Met welk doel dat dan gebeurt, daarover zouden we het wat mij betreft nog mogen hebben. Maar het idee dat ín zo’n machine straks een levend persoon zit. Dat zal een idee zijn dat (zeker in onze westerse wereld) veel mensen tamelijk creepy zullen vinden. Dan krijgt de vraag “mag je een robot martelen?” opeens ook een heel andere lading.

Meer filmpjes en foto’s zijn te vinden op deze site.

Deel dit bericht:
dec 142018
 

12 maanden verschil

Bij Wilfred Rubens kwam ik mezelf gisterenavond tegen als onderdeel van de introductie van een blogpost getiteld “Stemgestuurde digitale assistenten en leren“. In het bericht (dat je natuurlijk het beste ook zelf eerst even kunt lezen) reageert Wilfred op zijn beurt op twee online berichten, eentje getiteld “Hey, Google, Alexa, Siri and Higher Ed” van Ray Schroeder en de ander heet “Using Amazon Alexa for the Math Classroom” van Matthew Lynch.

Centrale vraag daarbij is eigenlijk hoe / of we als onderwijsinstellingen zouden moeten omgaan met de toegenomen belangstelling (ook in Nederland) voor spraakgestuurde assistenten zoals die Google, Siri van Apple en Alexa van Amazon.
Zoals Wilfred altijd doet, maakt hij een tamelijk zakelijke en objectieve samenvatting van de berichten. Dat is fijn, want zelf zou ik ze waarschijnlijk anders nooit gelezen hebben. Ray Schroeder bijvoorbeeld begint zijn verhaal met een vergelijking van hoe zijn 7 jaar oude kleinzoon het altijd van hem wint als er vragen beantwoord moeten worden. Waarom? Tja, je kunt het wel raden: die kleinzoon begint met “Hey Google….”. Halverwege het bericht komt hij dan uit bij:

How far away are we from a full synthesis of emerging capabilities to do original research and writing — all triggered by a voice command? Not far. And, one has to ask, how does the advent of this technology impact the way in which we teach? Do we need to re-examine our pedagogies in light of very smart assistants?

Daarna introduceert hij een nieuw fancy begrip: voice engine optimization (VEO) als tegenhanger van search engine optimization. Kortom, het bericht heeft echt alles in zich dat er voor zorgt dat sommige mensen het een super bericht zullen vinden (en een waarschuwing / signaal voor de te volgen weg) en anderen op hun achterste benen zullen staan als het gaat om weer zo’n technoloog die de toekomst van onze kinderen wil verpesten met een stuk niet onderzochte technologie.
Het artikel van Matthew Lynch steekt daar heel veilig tegenover af met een aantal voorbeelden van hoe je Alexa in de klas kunt inzetten.

OK, zoals gezegd: goed dat Wilfred het samenvat, want dat maakt het mogelijk om te kijken naar de punten die hij er uit haalt, dat maakt het voor mij een stuk gemakkelijker om inhoudelijk te reageren.

Lees verder….

Deel dit bericht:
dec 132018
 

Toen ik besloot om de uitleg over mijn tweet van zondagavond op te knippen in drie in plaats van twee delen, was dat omdat ik vond dat na de uitleg over de terminologie in deel 1, het verstandiger was om eerst een eenvoudig voorbeeld uit te werken in deel 2. Maar dat heeft ook tot gevolg dat dit deel 3 een stuk eenvoudiger moet zijn om te volgen ondanks dat het resultaat dat zeker niet is.

De app van gisteren deed niet veel zinvols en had één intent (+ 2 ingebouwde) in totaal. Deze app combineert twee groepen vragen (in totaal 7 intents) in één app. Wat kun je doen?

  1. Je kunt vragen of een van de familieleden thuis is of niet.
  2. Je kunt vragen wat de temperatuur of de luchtvochtigheid is van een aantal sensoren in Home Assistant

Voor dit deel 3 ga ik er vanuit dat je deel 2, gelezen én nagebouwd hebt. Dat betekent dat je de Handmatige setup – deel 2 voor het configureren van Dialogflow uitgevoerd hebt, dat je een intent.yaml op je Home Assistant server hebt staan, dat je een webhook geconfigureerd hebt en die ook al eens succesvol gebruikt hebt (in je persoonlijke routeplanner). En ik ga er ook vanuit dat je al eens een app gemaakt hebt (als onderdeel van deel 2).

OK? Goed, dan aan de slag.

Lees verder….

Deel dit bericht:
dec 122018
 

Gisteren heb ik de TTGO T-Beam meegenomen toen ik met de trein op en neer van Deurne naar Apeldoorn gereisd ben. Gewoon in mijn tas, mijn jaszak, naast de laptop op het tafeltje terwijl ik zat te werken. Echt een wereld van verschil ten opzichte van de eerste keer. Dit maakt het veel haalbaarder om van tijd tot tijd een dagje de status van het netwerk te testen. En omdat de tracker redelijk netjes is voor wat betreft het aantal berichten dat verstuurd wordt (als de trein/auto/ik niet beweegt worden er veel minder berichten verstuurd dan bij beweging) kan dat ook prima.

Gisteren had ik, zoals inmiddels gebruikelijk een reserve LiPo batterij bij me, maar ik heb hem niet nodig gehad. De T-Beam wist het vol te houden gedurende de heenreis (ongeveer 2 uur en 15 minuten van deur tot deur) en de terugreis (idem). Toen ik in Apeldoorn op mijn bestemming aankwam heb ik de T-Beam uitgezet (handig dat fysieke schakelaartje dat al op het board zit!) want voor de tijd die ik ín het gebouw doorbracht had tracken niet echt veel zin.

Op het kaartje hierboven zie je dat ook nu er best veel plekken zijn waar je vanuit de trein geen ontvangst hebt, landelijke dekking is er dus nu nog lang niet (ik ben benieuwd wanneer de dag komt dat ik kan zeggen “en nu wel!”). Maar in de steden gaat het al heel goed. Als we inzoomen (klik op een afbeelding voor grotere versie).

Lees verder….

Deel dit bericht:
dec 112018
 

Tijd voor deel 2 van de serie berichten over het praten met je Home Assistant installatie via Google Home. Als je deel 1 van gisteren nog niet gelezen hebt, doe dat dan eerst even. Anders wordt het heel moeilijk om te volgen.

Als je deel 1 gelezen hebt, dan weet je inmiddels dat er een aantal manieren zijn waarom je een koppeling kunt hebben tussen je Google Home (Mini).

Home Assistant Cloud
Laat ik beginnen met Home Assistant Cloud, een dienst waar ik zelf (nog) geen ervaring mee heb. Dat maakt het wat ongemakkelijker voor me om er uitspraken over te doen, maar ik lees vooral dat het gewoon werkt en als ik de info lees dan lijkt het ook een stuk gemakkelijker qua setup dan de handmatige manier. Je kunt het gratis een maand testen, daarna €5,- per maand, dus als je denkt “ik zie al dat zelf installeren niet zitten” is het zeker iets om uit te proberen. In onderstaande video kun je zien hoe je Home Assistant Cloud kunt installeren en configureren:

Met de setup kun je standaard zaken doen: lampen of schakelaars aan/uit zetten en alle apparaten aansturen die standaard door het home automation deel van Google Assistant worden ondersteund.

Ik ben voor de handmatige setup gegaan en zoals gezegd die is wat ingewikkelder. In de rest van het bericht ga ik uit van die setup.

Lees verder….

Deel dit bericht:
dec 102018
 

Het tweede weekend met de Google Home Mini in huis betekende dat ik verder gewerkt heb aan de integratie ervan met Home Assistant. Maar voordat ik daar over ga schrijven, eerst even wat begrippen op een rij om te voorkomen dat je al bij de start van dit bericht de draad helemaal kwijt bent. Het doel / resultaat zie je in de tweet hierboven. Hoe ik dat gerealiseerd heb lees je uiteindelijk in deel 3, maar dit eerste deel is wel even handig om te lezen. Goed, de spelers dan eerst even op een rij.

Home Assistant – is een open source software omgeving die niet van Google is. Ik gebruik Home Assistant en meer in het bijzonder Hass.io als vervanger voor OpenHAB (een ander open source systeem voor home automation / domotica). Omdat ik vooral ‘domme’ sensoren en schakelaars gebruik zou Google niet veel kunnen in mijn huis. Straks zal ik ook de “app” Home Assistant introduceren. dat is wat anders. Als ik alleen Home Assistant als begrip gebruik dan heb ik het over deze omgeving, geïnstalleerd op een Raspberry Pi 3B+ thuis bij mij in de meterkast.

Google Home Mini – het kleinere zusje van de Google Home. Een speaker / microfoon combinatie die luistert naar opdrachten en die doorgeeft aan Google Assistant. Vergelijkbaar met wat de Amazon Echo is voor Alexa.

Google Assistant – zorgt voor het omzetten van mijn gesproken opdrachten naar tekst en probeert daar dan iets mee te doen. Dat iets kan van alles zijn: opzoeken van een definitie van een woord op internet, het toevoegen van een item aan een boodschappenlijst, het starten van een liedje op Spotify. Google Assistant heeft ook ondersteuning voor domotica. Bijvoorbeeld voor het aanzetten van lampen of schakelaar. Google Assistant kan communiceren met Home Assistant waarbij Home Assistant er dan voor zorgt dat de actie daadwerkelijk uitgevoerd wordt. Dat is handig want hoewel Google Assistant geen ondersteuning heeft voor mijn goedkope (3 voor 10 euro) schakelaars van de Action, vindt ze het geen enkel probleem om een commando als “Zet Kerstboom Aan” door te geven aan Home Assistant. Home Assistant zorgt er dan wel voor dat via de RFXcom module die er aan hangt de juiste codes via 433Mhz naar de schakelaar gestuurd wordt.

Onhandiger wordt het als ik wil weten hoe warm het ergens in huis is. Of hoe vochtig. Home Assistant weet daar het antwoord op omdat ik daar er voor zorg dat de waardes van die sensoren via 433Mhz en wederom de RFXcom module ontvangen wordt. Maar Home Assistant heeft nog geen ondersteuning voor sensoren die luchtvochtigheid terug geven. Wel voor thermometers. Dus rechtstreeks vragen kan nog niet.

Lees verder….

Deel dit bericht:
dec 082018
 

(klik even door voor de rest van de bijbehorende tweets, het werkt namelijk lang niet altijd!)

Deel dit bericht:
dec 022018
 

Het was eigenlijk gewoon heel logisch. In 2015 sloot ik mijn kerstboom aan op mijn home automation systeem, toen was dat OpenHab. In 2017 (vorig jaar) gebruikte ik een Google AIY Voice Kit om de kerstboom in het Engels aan en uit te schakelen. Het kartonnen doosje had afgelopen jaar niet zo heel veel gedaan, maar toen als onderdeel van de Black Friday aanbiedingen (tja, sorry hoor) ook de Google Home Mini voorbij kwam, inmiddels ook met ondersteuning voor Nederlandse spraak, kon ik het niet laten en heb ik er eentje besteld.
Het was meteen ook een moment om OpenHab te vervangen door Home Assistant. Ik had afgelopen jaar nog wel de upgrade uitgevoerd naar de nieuwe versie van OpenHab, maar het was tijd voor wat nieuws. Betekende dus weer een nieuw systeem en architectuur leren kennen. Nou ja, zeg maar gerust “betekent” want het systeem heeft zó veel verschillende opties, dat ik nog wel even aan het leren ben.

Een paar dingen gingen in ieder geval heel erg prettig. Ik sloot de RFXcom ontvanger/zender aan op de Raspberry Pi waarop is Home Assistant via Hass.io geïnstalleerd had en in no time werden de verschillende vochtigheid/thermometers door het huis heen (die gebruiken 433Mhz om hun data te versturen) herkend. De goedkope 433Mhz KlikAanKlikUit klonen van de Action waren eveneens geen probleem. En zo had ik redelijk snel een basic werkend systeem. De integratie met de Google Home Mini (en daarmee ook de Google Home app op mijn iPad en Android telefoon) was niet heel veel meer werk. De plugin voor Duckdns maakte het heel gemakkelijk om de benodigde veilige verbinding naar buiten te maken en de setup was redelijk duidelijk. Ik heb geen gebruik gemaakt van de (betaalde) Cloud app/setup, maandelijkse bedragen betalen om lampen in mijn huis aan/uit te kunnen schakelen vind ik nou eenmaal niet zo handig.

In het Nederlands heel eenvoudig niet alleen je Kerstboom (wees gerust hij staat nog niet op!) maar ook alle  andere schakelaars kunnen bedienen is iets dat ook de rest van het gezin kon bevallen. Zeker omdat de spraakherkenning, helemaal als je hem traint, prima is.

De integratie met de componenten in huis is nog niet helemaal optimaal. Zo kan de Google Home Mini niet “zomaar” antwoord geven op een vraag naar de waarde van de sensoren die aan Home Assistant gekoppeld zijn. Daarvoor moest ik met Dialogflow aan de slag en Intent regels per sensor, dat werkt nog wat omslachtig zoals je ook in het filmpje hierboven kunt horen. Maar het werkt.

Ondertussen heb ik ook de data van de zonnepanelen in Home Assistent ontsluiten, een stukje Automation toegevoegd en kan ik notificaties ontvangen via Pushbullet, kortom het begint al heel aardig vorm te krijgen. Wordt vervolgd!

Deel dit bericht: