apr 092018
 

Nee, ik ben niet boos. Maar veel andere mensen blijkbaar wel. En ik snap het ook wel een beetje. Padlet heeft namelijk onlangs haar gratis aanbod drastisch naar beneden bijgesteld.

Als nieuwe gebruiker mag je nu nog maar 3 padlets aanmaken in het gratis plan. Voor bestaande gebruikers ligt het er aan hoe veel bestaande padlets je al had. Ik heb geluk, mijn quotum ligt op 41 padlets. Wil ik er meer dan moet ik overstappen op het betaalde plan.

Weer een bedrijf dat gaat voor het grote geld? Nou, niet echt. ik werd via Richard Byrne gewezen op de uitgebreide uitleg van de baas van Padlet (en toen pas zag ik dat voor nieuwe gebruikers het aantal zo laag lag). Een van de dingen die in het bericht staat is dit:

We are a 6 person company of 5 super talented people: 3 engineers — SY, Linh, and Colin; 1 designer — Gerard, 1 support person — Carla. And then there’s me. Close to 10 million people come to Padlet every month. That’s 3 million people for every engineer to support every month. Carla answers over a 100 emails every day.

Oef. Dat zijn heel weinig mensen om een dienst betrouwbaar in de lucht te houden, gebruikers te ondersteunen en functionaliteit toe te voegen.

[…]

Je ziet het niet aan de blogpost, maar terwijl ik hem zat te typen realiseerde me dat ik meer wilde doen dan alleen de makers een hart onder de riem steken middels dit bericht. Dus heb ik mijn account omgezet naar een betaald account. Hoeveel jaar ik die $99 per jaar wil betalen? Geen idee. Maar minimaal voor het eerste jaar.
En eigenlijk is het simpelweg te hopen dat voldoende andere mensen dat ook doen. Lees de uitgebreide uitleg, beslis voor jezelf.
Ik gebruik Padlet soms een maand of twee niet, maar als ik snel een overzicht van bronnen wil maken dat er ook aantrekkelijk uitziet als je deelt, dan wel. Bijvoorbeeld deze: https://padlet.com/PiAir/lasersnijden

Daarom dus.

Deel dit bericht:
apr 022018
 

De SonicPi software bestaat al lang. Maar ik heb er nog niet eerder over geschreven. Bij deze dus. Want eigenlijk kan dat natuurlijk niet.

Even vooraf: de SonicPi software verwijst in zijn naam naar de Raspberry Pi, maar je hebt geen Raspberry Pi nodig, de software draait ook gewoon op Windows, een Mac of Linux. Je kunt hem gratis downloaden en voor Windows is er ook een “portable” versie, die hoef je dus niet te installeren, kun je gewoon op een USB-stick zetten.

Wat is SonicPi en waarom zou je er iets mee moeten?
Dat kan ik je waarschijnlijk het beste door de bedenker (Sam Aaron) ervan laten uitleggen. Het filmpje hieronder is al uit 2015 (er zijn oudere filmpjes):

De introductie lijkt erg op het verhaal van Felienne bij haar Python/programmeren en kunst workshop.  En daarmee bedoel ik richting beiden niets negatief. Integendeel. Beiden maken duidelijk dat maar een bepaalde (kleine) groep speciale mensen enthousiast wordt van programmeren. En ook Sam Aaron maakt duidelijk dat het een stuk eenvoudiger is om kinderen enthousiast te maken over programmeren als je ze ook echt iets geeft waar ze enthousiast over worden.

Nou moet ik bekennen dat dit, net als verhalen bedenken in Python, natuurlijk ook weer niet voor elke leerling zal gelden. Ik heb vanmiddag een uurtje zitten spelen met SonicPi en zo goed als Sam zal ik waarschijnlijk nooit worden. Sowieso, kijk maar eens hoe veel werk het is om onderstaande track te maken.

Lees verder….

Deel dit bericht:
mrt 252018
 

Toen ik met Resin.io en Docker aan de slag ging voor de TTN Gateway verliep het installatieproces probleemloos en snel. Inmiddels ben ik er ook achter dat het een andere verhaal wordt als je zelf een image wilt aanmaken.

Installatie op mijn laptop ging op zich wel, al heb ik uiteindelijk gekozen voor de Docker Toolbox omdat de “officiële” huidige versie op het eerste Windows 10 systeem waar ik het uitprobeerde voor de nodige problemen zorgde. Sommige containers werken daar heel mooi. Zo wist ik oude tijden te laten herleven door Etherpad te installeren op basis van deze container. Voor de jongeren onder ons: voordat Google documenten en Microsoft Word online het mogelijk maakten om samen, online, aan hetzelfde document te werken, was er al een gratis online dienst (Etherpad) die dat ook mogelijk maakte. Niet zo fancy als de anderen, maar gratis in een tijd dat nog niemand anders dat kon. Toen de dienst offline ging hebben ze de code en installatie open source beschikbaar gemaakt. Ook R en RStudio kreeg ik aan de praat met dank aan deze uitgebreide handleiding.

Installeren van Docker op een Raspberry Pi ging ook niet zonder slag of stoot. De installatie via Hypriot vergt dat ik ofwel de image via hun eigen flash-tool (geen Windows versie) uitvoer ofwel een vast netwerkverbinding heb. Omdat ik 2 Raspberry Pi zero’s ter beschikking had, was dat niet direct een handige optie. Rechtstreeks installeren op een bestaande image met deze instructies leek te werken, maar als ik docker probeerde op te starten kreeg ik niet meer dan een foutmelding.

Uiteindelijk ben ik dus met Resin.io aan de slag gegaan. Het coole daarbij was en is het heel eenvoudig is om meerdere apparaten toe te voegen. Wijzigingen worden dan automatisch naar alle apparaten doorgestuurd zodat ze steeds allemaal de laatste versie van de container(s) hebben. Ik zet de (s) even tussen haakjes. Ook via Resin.io kun je meerder containers tegelijkertijd op een machine laten draaien. De setup daarvan is echter ook weer even net wat ingewikkelder dan met één container.

En voor je het weet ben je dus wel meer dan even bezig met het onder de knie krijgen van een systeem dat eigenlijk tijd zou moeten besparen.  Tja, in ieder geval wat geleerd. 🙂

Deel dit bericht:
mrt 222018
 

Tijdens mijn promotieonderzoek heb ik veel gebruik gemaakt van SQL-server (daar zat de logdata van de opnames van de colleges waar ik onderzoek naar deed in) en SPSS (als toen meest voor de hand liggend statistiekpakket).

Ik heb sindsdien al vaker geconstateerd dat als ik nú nogmaals dat onderzoek zou doen ik waarschijnlijk in ieder geval SPSS zou hebben vervangen door R. Dat komt voor een belangrijk deel door de ervaringen die ik opgedaan heb tijdens de Data Science specialisatie bij Coursera een paar jaar geleden waar gebruik gemaakt wordt van R en de verschillende uitbreidingen.

Nou zorgt R er voor dat je eenvoudig je analyses, script, omgevingen, rapportages etc. kunt opslaan op een manier die reproductie ervan achteraf mogelijk maakt. Maar wat nou als die afhankelijk zijn van een specifieke versie van R of van de plugins? Dan biedt Docker een oplossing. Daarmee kun je namelijk “containers” downloaden die bestaan uit een specifiek setup van een R-versie en plugins. Eventueel kun je eigen specifieke plugins en uitbreidingen installeren en dan als eigen image bewaren. Dat is dan een bestand dat je bewijze van spreken bij de data en scripts kunt archiveren. Zolang Docker beschikbaar is kun je dan ten alle tijden die versie van de setup, exact zoals jij hem gebruikt hebt, opstarten en de analyses reproduceren. Mocht je dat willen dan kun je dus ook niet alleen de data maar ook de omgeving open access beschikbaar stellen en delen met andere onderzoekers. Die hoeven dan niet helemaal een omgeving in te richten met die tools, maar kunnen hem draaien naast eventueel andere omgevingen die ze zelf hebben. En ook: nieuwe laptop van de baas? Geen probleem. Als je docker installeert kun je in no time je omgeving weer opstarten en beschikbaar hebben met de setup die je had.

Super toch? En dat allemaal zonder jaarlijkse licentiekosten!
Overigens, het Rocker Project dat zorgt voor R-images binnen Docker bestaat al lang (sinds 2014)

Deel dit bericht:
mrt 122018
 

Ik moet er soms nog wel aan wennen dat samenwerken met “externen” binnen bedrijven, en dus ook onderwijsinstellingen, vaak nog zo’n dingetje is dat logisch lijkt, maar als het om systemen gaat, heel gevoelig ligt. Immers, het delen van digitale data kan, als het onbedoeld gebeurt, heel vervelende krantenkoppen opleveren.

En ik heb zelf ook al gemerkt dat bv het samenwerken in Dropbox en Google Drive heel eenvoudig kan, het samenwerken in Onedrive voor bedrijven vergt de juiste instelling van rechten aan beide kanten (zowel bij ons als bij de onderwijsinstelling waar je mee samen wilt werken). Het samenwerking in Microsoft Teams ging eerst alleen met mensen binnen je eigen onderwijsinstelling, toen ook met mensen die ook een Office365-account hadden (dus bv een hotmail/live.com account) en nu eindelijk dan ook met de rest van de wereld.

Dat betekent dat iemand niet persé een Microsoft gerelateerd mailaccount hoeft te hebben om aan een team deel te nemen. Je kunt ook bv iemand met een @gmail.com mailadres uitnodigen. Voordat die persoon dan toegang heeft, moet hij/zij wel nog even een paar dingen doen: een wachtwoord toevoegen is logisch. Je geboortedatum invullen zal wel zijn om te controleren of je wel oud genoeg bent om deel te nemen. Het verplichte telefoonnummer voor het geval je je inloginfo kwijt raakt vond ik al wat irritanter.  Maar goed, het werkt.

Deel dit bericht:
mrt 042018
 

Twitter komt weer met wat nieuws “Bladwijzers”. Ze maken het mogelijk om tweets te bewaren die je later terug wilt kunnen vinden. Eigenlijk dus wat de meeste mensen doen met de “Leuk” knop. Belangrijk verschil is dan dat een “Leuk” voor iedereen zichtbaar is en “Bladwijzers” niet.

Vreemd genoeg is de functionaliteit wel al beschikbaar in de iOS en Android app, maar nog niet op de website zelf. Je zou denken dat ze dat gelijktijdig implementeren, want bladwijzers die je op je telefoon toevoegt zijn nu niet te vinden vanaf je laptop.

Ik vind het zelf weer zo’n moeizame poging om Twitter eenvoudiger te maken. Eigenlijk een beetje zoals ze “Momenten” hebben ingevoerd:

‘Momenten’ zijn beheerde verhalen over wat er gebeurt – en die mogelijk worden gemaakt door Tweets. Het is eenvoudig om je eigen verhaal te maken met Twitter Momenten. Zodra je klaar bent, is je verhaal hier te zien.

Bij mij is dat overzicht nog leeg. Heb er nooit behoefte aan gehad (binnen Twitter). De extra privacy van een bladwijzer zal voor sommige mensen interessant zijn, anderen kunnen net zo goed de “Leuk” knop gebruiken en de auteur van de tweet (en anderen) openbaar laten weten dat de tweet de moeite van het bewaren in ieder geval waard was.

Deel dit bericht:
feb 172018
 

Goed, eigenlijk zou ik blij moeten zijn van de aanpassing die Google afgelopen week doorgevoerd heeft in haar zoekpagina voor afbeeldingen. Als onderdeel van de afhandeling van de schikking met Getty Images heeft Google namelijk toegezegd om duidelijker te maken dat er auteursrecht rust/kan rusten op afbeeldingen die je via Google kunt vinden én ze hebben de knop verwijderd waarmee je de afbeelding buiten de context van de pagina waar hij op staat kon bekijken.
En daar zou ik blij mee moeten zijn omdat dit een té handige manier voor veel docenten, studenten en mensen die in het onderwijs leermateriaal maken. PowerPoint maken met afbeeldingen? Even zoeken in Google en dan knippen en plakken in de presentatie. Plaatjes voor een verslag of een stukje (online) lesmateriaal? Idem.

Wil je die PowerPoint, dat verslag of lesmateriaal daarna breder delen dan gaat het mis. Je moet dan namelijk minimaal voor al die afbeeldingen gaan controleren of er auteursrecht op zit, of er bijvoorbeeld een Creative Commons licentie op zit etc.

Het is dus veel handiger als dat meteen al vooraf gedaan is, de nodige bronvermelding beschikbaar is etc.

Natuurlijk, wie een beetje weet hoe een browser werkt, weet dat een rechtermuisklik op de afbeelding en kiezen voor “Afbeelding openen in nieuw tabblad” genoeg is om alsnog de afbeelding te bekijken. En natuurlijk is er ook al een oplossing in de vorm van een plugin voor Google Chrome en Firefox. Handig, dat wel, maar eigenlijk zou het mooier zijn als ze duidelijker zouden aangeven wat het auteursrecht op een afbeelding daadwerkelijk is (voor zover bekend).

Dat zal niet zo gemakkelijk zijn als dat het bij Wikipedia is, maar daar heb je wel een situatie waarbij je daadwerkelijk van mensen mag verwachten dat ze op een juiste manier melding maken van het bijbehorende auteursrecht. De screenshot hieronder is van een foto van Sasha Krotov.

Ik snap het dus als mensen niet blij zijn met de aanpassing. Het zal de rechthebbenden wellicht (een beetje) tevreden stellen, maar “gewone” gebruikers zullen het zien als “lastig”.

Deel dit bericht:

Wikispaces gaat sluiten

 Gepubliceerd door om 22:42  Internet, Tools
feb 142018
 

Niets is voor altijd op het internet, zeker niet als het gratis aangeboden is. En het was al weer even geleden dat ik gebruik gemaakt heb van WikiSpaces. Deels komt dat omdat mijn account gekoppeld is aan MyOpenID en die zijn al een paar jaar uit de lucht. Ik ben toen blijkbaar vergeten mijn inlog terug om te zetten naar een “gewoon” account met als gevolg dat ik nu niet meer in kan loggen.

En nu gaat Wikispaces er ook mee stoppen, zo schrijven ze op hun weblog. De gratis wikis en klaslokalen stoppen per 31 juli 2018, betaalde (plus en super) wikis per 30 september en “private label” wikis per 31 januari 2019.

Nou is dat op zich geen vreselijk probleem, ik keek vandaag vooral op mijn accountpagina op http://ictenonderwijs.wikispaces.com/ uit nostalgie. De meeste pagina’s met links verwijzen naar plekken die op hun beurt al niet meer bestaan. Helaas gaan doordat een aantal van de wikis al offline zijn, ook een aantal van de berichten hier op het weblog die daarover gaan “kapot”. Zoals die over de DU Masterclass Social Software waar niet veel van over blijft. Gelukkig is het verslag erover op Frankwatching nog te volgen, ook al is ook die zo te zien door de jaren heen door de nodige conversies gegaan. De pagina over ebooks werkt wel nog al is ook hier veel van de info verouderd. Ik denk dan ook niet dat ik echt moeite ga doen om delen te bewaren.

Maar dat geldt vast niet voor alle Wikispaces pagina’s. Zo hoop ik dat Alan Levine toch wel een paar van zijn wikipagina’s ergens anders weet onder te brengen. Gewoon vanuit archiveringsoogpunt. Sommige dingen zijn de moeite van het bewaren waard.

Deel dit bericht:
jan 082018
 

Toen ik een week geleden schreef over het automatisch opslaan van sensordata in Google Sheets gaf ik al aan dat dat zeker niet een optimale oplossing was. Inmiddels wordt dat ook meer dan duidelijk omdat de spreadsheet zich blijft vullen en het opbouwen van de grafieken duidelijk meer tijd kost.

In dat bericht verwees ik al naar InfluxDB, een database die specifiek ontwikkeld is voor het opslaan van tijdreeksen, data dus die gekoppeld is aan een datum/tijd. Het is dan ook niet zo vreemd dat InfluxDB populair is als database om de data die vanuit de verschillende sensoren die je aan OpenHAB koppelt op te slaan. OpenHAB is een gratis tool/omgeving waarmee je zelf je huis kunt automatiseren. Je kunt er lampen of schakelaars mee aansluiten, de data van sensoren zoals thermometers verzamelen en weergeven, je kunt acties koppelen aan die sensoren (bv zet de ventilator op de badkamer automatisch aan als de luchtvochtigheid boven de 50% komt) etc.

Ik gebruik OpenHAB al een tijd en hoewel er ook hier discussies zijn over wat de beste omgeving is (er zijn meer gratis alternatieven op dit gebied), werkt het voor mij en heb ik geen reden om over te stappen. Wat ik echter wel wil doen is overstappen van mijn huidige 1.8 versie naar de recente 2.2 versie. Dat is op papier een eenvoudige upgrade, ik had vooral al begrepen dat het in praktijk niet helemaal zo zou zijn. Daarom wilde ik dat voorzichtig aanpakken. Het voordeel van het gebruik van OpenHAB op een Raspberry Pi is dat het niet veel geld kost om er een tweede Raspberry Pi naast te zetten met de nieuwe versie (zeker als je er al een paar in huis hebt).

Een tweede ontwerpkeuze waar ik veel voordeel van gehad heb is dat ik MQTT gebruik voor zo ongeveer alles wat met sensordata te maken heeft en ook voor het aansturen van schakelaren in huis. De Mosquitto-server (een gratis server voor MQTT) die ik daarvoor gebruik staat op dezelfde server als OpenHAB. Dat zou een probleem kunnen zijn, alle sensoren sturen namelijk hun data naar dat IP-adres, maar het is gelukkig heel eenvoudig om de Mosquitto-server te vertellen dat alle ontvangen data ook doorgestuurd moet worden naar de Mosquitto-server die op de “nieuwe” (test-)server met OpenHAB 2.2 staat. Zo kon ik de bestaande productieserver helemaal met rust laten (op het toevoegen van die ene doorverwijzing in het mosquitto.conf bestand (zie ook de schermafdruk hiernaast voor de benodigde aanpassing, voor het IP-adres gebruik je het eigen IP-adres van de nieuwe server, de naam van de connection is vrij te kiezen). Daarna moest ik de Mosquitto-server even herstarten met systemctl status mosquitto.service -l

Goed, terug naar de tijdseriedata en InfluxDB. Er zijn tutorials beschikbaar voor het installeren van InfluxDB op de Raspberry Pi (bv hier). Maar omdat het mij om de combinatie InfluxDB, Mosquitto, OpenHAB én Grafana ging, heb ik gekozen voor openHABian. Daar heb je namelijk al die tools (inclusief o.a. Node-RED, ook heel handig in combinatie met sensoren) ter beschikking in één download. Er is wat discussie over de vraag of je dat wel allemaal op één Raspberry Pi moet willen installeren. Dat zal waarschijnlijk een beetje afhangen van het gebruik. Ik heb het geheel nu draaien op 1 Raspberry Pi 2 en het werkt voor nu voldoende snel. Ik moet wel nog even uitzoeken hoe snel de database groeit, maar met een 16GB micro-SD kaartje is er nog wel wat ruimte over voor groei.
Lees verder….

Deel dit bericht:
nov 202017
 

De TIOBE index is een indicatie van de populariteit van programmeertalen. Het is een Nederlandse index (uit Eindhoven) en TIOBE staat voor “The Importance of Being Earnest” (klik maar even op de link voor verdere toelichting daarover).

De index wordt berekend aan de hand van het aantal resultaten dat je krijgt als je naar de programmeertaal zoekt in een aantal populaire zoekmachines: Google, Google Blogs, MSN, Yahoo!, Wikipedia en YouTube. Het is dus niet persé een index op basis van het daadwerkelijk gebruik van de programmeertalen, maar dat zou ook best moeilijk zijn, want wat tel je dan (aantal programma’s, aantal regels code, …. ?).  Het idee is dus dat hoe meer informatie over een programmeertaal online te vinden is, des te populairder je mag veronderstellen dat de programmeertaal is.

(als de resultaten voor jouw favoriete taal je dus niet bevallen, kun je altijd nog de validiteit van de index in twijfel trekken!)

Hoe dan ook, op basis van de TIOBE index komen een aantal oude bekenden nog steeds bovenaan in de lijst voor. Java voert de lijst aan, C / C++ / C# staan alledrie in de top 5. Python staat op 4, JavaScript op 6, PHP op 8 en Visual Basic .Net op plek 7.

Ik kwam bij de index vanwege een bericht op mspoweruser.com waar ze maar wat blij waren dat ze konden verwijzen naar Infoworld.com waar ze geconstateerd hadden dat Swift, de programmeertaal van Apple, na een initiële opkomst in de index, nu flink gekelderd was in de index. Van plek 12 naar plek 20.

Nogmaals, dat betekent niet persé dat Swift minder gebruikt wordt, wel dat er minder over gepubliceerd wordt.

De (mogelijke) verklaring die Infoworld gaf is dat Swift nou eenmaal maar voor één platform is: iOS, terwijl andere talen, zoals JavaScript en C# gebruikt worden in cross-platform ontwikkeltools Xamarin van Microsoft, Cordova van Apache en Ionic. Ook Java zou daaronder te lijden hebben, maar niet voldoende om van de nummer 1 plek gedrukt te worden.

Als je het hebt over het op school gebruiken van programmeertalen die ook in het wild populair zijn, dan is Python in ieder geval niet eens zo’n vreemde keuze.

 

Deel dit bericht: