srie13

Quantum weirdness in technology: Leo Kouwenhoven tijdens de #srie13

Gisteren vond het SURF Research and Innovation Event 2013 plaats bij de Haagse Hogeschool. Zo’n 250 geïnteresseerden kwamen naar Den Haag toe om meer te horen over o.a. (innovatief) gebruik van ICT bij onderzoek en onderzoeksdata. Met twee keynotes en vier te volgen sessies binnen eveneens vier tracks was er voldoende variatie voor iedereen, ongeacht je achtergrond en interesses. Zelf heb ik de eerste keynote bijgewoond, net als twee sessies in de vierde track over citizen science & social media. Er is door aanwezigen (en organisatie) flink getwitterd met de hashtag #srie13 dus ook hier kun je nog even terugblikken.

Na de opening door Rob Brons, collegevoorzitter van de Haagse Hogeschool, die vertelde over de innovatie in het onderwijs en onderzoek binnen de onderwijsinstelling, trad de eerste keynote spreker aan. Leo Kouwenhoven is een professor bij de TU Delft en is wellicht vooral bekend door de ontdekking van het Majorana deeltje. Tenminste, daar kende ik hem van aangezien dat nogal grootschalig het nieuws haalde.

 

Kouwenhoven vertelde een intrigerend – en bovenal complex – verhaal waarin hij summier quantumtheorie toelichtte en van molekulen via quantum superposition / teleportatie en quantum entanglement naar quantum computers ging. Ergens tijdens mijn middelbare schoolperiode keek ik ooit naar een Teleac cursus ‘Van quantum tot quark‘ en het zal kunnen liggen aan mij, maar Kouwenhoven wist in drie kwartier mij meer bij te brengen dan die hele cursus ooit gedaan had. Met veel humor en flair (wat ik altijd erg goed vind als je als Nederlander in het Engels staat te presenteren) wist hij iedereens aandacht zonder problemen vast te houden.

De duizelingwekkende mogelijkheden van een quantum computer lijken in ons bereik te liggen en Leo beloofde dat hij hard ging werken om quantum computers nog voor zijn pensioen te kunnen realiseren. Nog 15 tot 20 jaar geduld hebben voor je een quantum desktop, quantum laptop en een quantum tablet in huis kunt halen. Ineens leken alle laptops en tablets van de aanwezigen in de zaal niet zo modern meer.

#

kijkenkostgeld

Met toestemming films en tv programma’s kijken: de overeenkomst tussen Videma en de HBO-raad

HBO instellingen maken veel gebruik van auteursrechtelijk beschermde content, zowel rechtstreeks als indirect ten behoeve van het onderwijs. Voor het gebruik van artikelen en (delen uit) boeken hebben de HBO instellingen daarom via de HBO-raad een overeenkomst, een afkoopregeling, met de collectieve beheersorganisatie Stichting PRO. Daar valt nog wel het een en ander aan te verbeteren mijns inziens maar het is goed dat er een dergelijke regeling bestaat. Hogescholen zouden anders per overname, per gebruik, toestemming moeten vragen voor gebruik van andermans content. Een maatwerkregeling waarbij er gekeken wordt naar de specifieke omstandigheden en waarbij onder voorwaarden vrij gebruik mogelijk is, bespaart een hoop tijd en moeite.

Nu zijn teksten uit tijdschriften en boeken niet het enige beschermde materiaal dat gebruikt wordt. Foto’s en afbeeldingen worden, voor gebruik in onderwijsmateriaal, ook afgedekt door de regeling met Stichting PRO – die dat weer regelt met een andere organisatie Pictoright – maar voor televisieprogramma’s en films moest altijd per gebruik toestemming gevraagd worden. En betaald worden. In Nederland is daarvoor Stichting Videma de collectieve beheersorganisatie die namens rechthebbenden auteursrechtelijke toestemming verleent voor de openbaarmaking van tv- en filmbeelden.

Overeenkomst voor de openbaarmaking van filmwerken
Juni 2012 begonnen de gesprekken tussen Stichting Videma en de HBO-raad om te komen tot een overeenkomst waarbij door Videma toestemming verleend zou worden aan alle leden van de HBO-raad (de hogescholen) voor het gebruiken en vertonen van videofilms en televisieprogramma’s. Ik had het genoegen om de collegevoorzitter van Windesheim advies over het eerste voorstel te geven vanuit het Auteursrechten Informatie Punt en zag de voordelen van een dergelijke afkoopregeling wel voor me. In november van vorig jaar is de definitieve tekst opgesteld en de overeenkomst voor de openbaarmaking van filmwerken tussen de HBO-raad en Stichting Videma getekend.

Het ligt alleen wel wat lastiger met tv en film
Lang niet al het videomateriaal valt onder de overeenkomst. Videomateriaal dat gebruikt wordt in de digitale leeromgevingen is veelal afkomstig uit bronnen die buiten de scope van de overeenkomst vallen. Het gaat hier ondermeer om Academia, een videodatabank waarop diverse instellingen een licentie hebben en waarin tv uitzendingen van de publieke omroepen zijn opgenomen maar ook om videomateriaal van YouTube en zelfgemaakt videomateriaal. Hierover zijn geen rechten verschuldigd of zijn, in het geval van Academia, al afgekocht in de desbetreffende licentie.

Maar ook films op dvd’s hoeven niet perse onder de regeling met Videma te vallen. Video-, film of tv materiaal dat in de les(lokalen) wordt gebruikt is vrijgesteld van rechten in een onderwijssetting conform de Auteurswet artikel 12, lid 5, de zogeheten onderwijsexceptie. Daar hoefde je al geen toestemming voor te vragen als onderwijsinstelling, laat staan er voor te betalen.

Maar uitzonderingen waren en zijn er nog genoeg
Ook buiten de directe onderwijssetting wordt er echter veel gebruik gemaakt van tv-uitzendingen en films. TV’s in kantines of bij (journalistiek) opleidingen. Films die vertoond worden door studentenverenigingen (in de hogeschool) of die tijdens open dagen te zien zijn. De overeenkomst met Videma zorgt er nu in ieder geval voor dat er toestemming is voor deze openbaarmakingen en dat daar ook voor betaald is.

Niet meer hoeven na te denken of je tv-uitzendingen en videofilms mag vertonen in je hogeschool. Automatisch verantwoord omgaan met de auteursrechten van anderen. Dat legt een stuk gemakkelijker uit naar docenten, studenten en medewerkers van je hogeschool. Als je het Auteursrechten Informatie Punt bent natuurlijk.

Laat de film nu maar beginnen.

#

Over leenrecht en het uitlenen van ebooks door bibliotheken

ebooks leenrecht rapportEind 2011 schreef staatssecretaris Zijlstra een hoofdlijnenbrief actualisering bibliotheekwetgeving aan de Tweede Kamer waarin hij zijn plannen (en visie) onthulde over 1 landelijke digitale bibliotheek. Om dit mogelijk te maken zou de wetgeving rondom bibliotheken aangepast moeten worden en dat was het begin van de plannen voor een nieuwe Bibliotheekwet.

Onderdeel van die hoofdlijnenbrief was de aankondiging van een verkenning naar het vraagstuk van het leenrecht in het digitale domein. Openbare bibliotheken hebben op basis van een beperking in de Auteurswet de mogelijkheid om auteursrechtelijk beschermde, fysieke werken tegen een billijke vergoeding uit te lenen, de zogeheten leenrechtexceptie. Bij verschillende gelegenheden is in het kader van de landelijke digitale bibliotheek de vraag naar de toepasselijkheid van het leenrecht op ebooks aan de orde geweest en gisteren stuurde minister Bussemaker van OCenW een aanbiedingsbrief naar de Tweede Kamer inclusief een begeleidend rapport over online uitlenen van ebooks door bibliotheken waarin die vraag (definitief) werd beantwoord.

Geen wettelijke grondslag voor uitlenen van ebooks door openbare bibliotheken
In het onderzoeksrapport van SEO economisch onderzoek en IViR wordt ingegaan op de geschiedenis van de leenrechtregeling. Hier komt men al snel en duidelijk tot de conclusie dat de leenrechtexceptie zich niet uitstrekt tot het wettelijk mogen uitlenen van ebooks, het e-lending. Zowel in de Nederlandse Auteurswet, de Richtlijn uitleenrecht en verhuurrecht (die het leenrecht geharmoniseerd heeft tussen Europese landen) als de Auteursrechtrichtlijn beperkt die uitzondering zich tot fysieke exemplaren die overgedragen/uitgeleend mogen worden door bibliotheken.

Uit de conclusie van hoofdstuk 3 van het rapport:

Het bestaande Nederlandse auteursrechtkader lijkt geen wettelijke grondslag te bieden waaronder het uitlenen van ebooks door bibliotheken mogelijk is. Uit het bovenstaande moet worden geconcludeerd dat uitlening in Nederland zich van oudsher voornamelijk richt op fysieke exemplaren. Van de eerste leenvergoedingsregeling tot de huidige auteursrechtelijke regeling is het object van het leenrecht steeds toegespitst op ‘exemplaren’ van werken. Voor de huidige regeling in de Auteurswet wordt aangenomen dat het om stoffelijke exemplaren gaat.

En nu?
Het is zaak te beseffen waar het hier precies over gaat. Sombere commentaren op twitter en sommige sites lijken de conclusie te trekken dat bibliotheken nu geen ebooks meer mogen uitlenen en zelfs dat dit consequenties zou krijgen voor bestaande diensten als Lees Meer.

Niets is minder waar.

Openbare bibliotheken kunnen nu hoogstwaarschijnlijk – het is nog steeds mogelijk dat op Europees niveau bij de evaluatie van de beperkingen in de Auteursrechtrichtlijn een uitgebreidere leenrechtexceptie wordt toegevoegd – niet het *recht* claimen om ebooks te mogen uitlenen zoals ze dat wel kunnen bij het uitlenen van fysieke boekexemplaren. Oftewel, daar waar uitgevers en andere rechthebbenden geen bezwaren konden maken om boeken uitleenbaar in bibliotheken te hebben staan, kunnen ze dat wel doen met hun ebooks.

Nu was het aanzienlijk eenvoudiger geweest voor openbare bibliotheken om ook een wettelijke grondslag te hebben bij het (verder) ontwikkelen van deze dienstverlening maar de bibliotheken rekenden daar sowieso al niet op. Voor onderwijs- en onderzoeksbibliotheken gold deze leenrechtexceptie sowieso al niet in dezelfde mate en al deze bibliotheeksoorten waren al bezig om op basis van afspraken met de uitgevers en rechthebbenden ebookdiensten te ontwikkelen.

Extended collective licensing (ECL)
De minister stelt in haar brief dat:

Dit betekent dat het uitlenen van e-content door openbare bibliotheken zal moeten plaatsvinden op basis van contractuele afspraken tussen betrokken partijen zoals auteurs, uitgevers, rechtenorganisaties, distributeurs en bibliotheken. Met deze bevindingen en conclusies houd ik rekening bij de aangekondigde bibliotheekwetgeving, die u na de zomer krijgt toegezonden.

Precies waar de bibliotheken al mee bezig waren dus.

Afspraken maken met rechthebbenden voor gebruik van beschermde werken is zoals het auteursrecht behoort te werken natuurlijk. In het rapport wordt in hoofdstuk 3 de mogelijkheid verkend van extended collective licensing (ECL) waarbij er vrijwillig collectief beheer plaats vindt op een brede – collectieve- gebruikslicentie middels een collectieve beheerorganisatie (CBO). Het bijzondere van deze constructie is dat de voorwaarden en vergoedingen van zo’n collectieve licentie ook gelden voor rechthebbenden die niet zelf zijn aangesloten bij die CBO.

Op grond van een ECL krijgt de gebruiker (in casu: de openbare bibliotheek) het recht om alle werken en rechten van een bepaalde categorie voor een bepaald doel (in casu: e-lending) te gebruiken, ongeacht of de rechthebbende(n) bij de CBO is aangesloten. Niet-aangesloten rechthebbenden hebben tegenover de CBO recht op een vergoeding op gelijke voet als welaangeslotenen.

Een stelsel van ECL hoeft niet aan het beperkingenregime van de Auteursrechtrichtlijn te voldoen maar kan bijvoorbeeld wel opgenomen worden in (de nieuwe Bibliotheek) wet.

Het is nu wel belangrijk dat er haast gemaakt wordt met deze ontwikkelingen. Ook al zijn uitgevers en auteurs bezorgd over hun business modellen als bibliotheken ebooks gaan uitlenen – in het rapport is hoofdstuk 4 dan ook gereserveerd voor de economische effecten van het e-lending door bibliotheken – en worden bibliotheken waarschijnlijk niet aangemoedigd met hoog tempo verder te gaan, verder uitstel van een werkbare oplossing leidt alleen maar tot meer en meer illegale verspreiding van ebooks. Het wordt steeds meer sociaal acceptabel om via mail, dvd’tjes en usb sticks illegale ebooks te verspreiden en te verkrijgen.

Bibliotheken zouden een legaal en goedkoper alternatief kunnen en moeten bieden voor het kopen van ebooks door ze uit te lenen. Maar als er gewacht wordt tot ieder bibliotheeklid tienduizenden ebooks gratis via vrienden of familie heeft gekregen dan komt de mosterd wederom na de maaltijd.

Daar zijn noch de rechthebbenden noch de bibliotheken blij mee.

#

pirate_bay_archive

Download een volledige backup van The Pirate Bay

pirate_bay

In augustus 2012 verscheen er ook al een torrent op The Pirate Bay met daarin een – toenmalige- volledige backup van alle torrents magnetlinks maar sinds vorige week is er een bijgewerkte versie te downloaden. Eén bestand met daarin alle magnetlinks in van ca. 90MB en een andere versie van meer dan 600MB waarin ook alle beschrijvingen en reacties zijn opgenomen.

Dit zijn ironischerwijs geen ‘illegale’ versies van alle Pirate Bay bestanden want ze zijn met toestemming van de staf op de Pirate Bay zelf neergezet door een hacker, Karel Bilek, die niet alleen de bestanden verzamelde maar ook nog analyseerde. Hij kwam er dus ook achter dat, ondanks het aantal van meer dan 5 miljoen dat op de voorpagina genoemd wordt, er feitelijk “slechts” 2 miljoen links te vinden zijn. Wat echter niet wil zeggen dat de groei er uit is bij The Pirate Bay.

torrents-up

Het aantal links stijgt zeer gestaag de laatste jaren en alleen in 2012 kwamen daar al een half miljoen bij. Ondanks de rechtszaken. Ondanks de blokkades die er in diverse landen zijn doorgevoerd om de toegang tot The Pirate Bay te beperken.

Twee miljoen torrents betekent echter niet dat er ook twee miljoen (setjes met) bestanden gedeeld worden. Bilek constateerde dat een derde van alle torrents geen seeders (meer) had en dat maar liefst driekwart van alle torrents 4 of minder seeders had. Seeders zijn mensen (computers) die daadwerkelijk bestanden delen op dat moment en als je die niet hebt, valt er dus ook niets te downloaden.

Slechts een kwart is goed beschikbaar en zelfs daarbinnen is het enorm onevenwichtig verdeeld. Actuele en populaire links hebben bijna alle seeders en zodra iets uit die actualiteit verdwijnt, verdwijnen de seeders ook.

Mocht The Pirate Bay zelf ooit uit de actualiteit – en van het internet – verdwijnen, dan zijn er nu tientallen of zelfs honderden kopieën in omloop. Als een goed voorbeeld en bewijs dat als iets eenmaal op internet gezet is, je het bijna nooit meer kunt verwijderen. Zeker als de site en de gebruikers ervan dat niet willen.

(Getipt door Torrentfreak)

#

tweetbirdonthewall

Analyseren en visualiseren van je twitter archief

Met zo’n twitter archief kun je nog meer doen dan alleen maar downloaden, in Excel importeren en publiceren via je Google Drive account. Terugbladeren of zoeken naar oude tweets is leuk maar als je een analyse wilt maken van al je verstuurde tweets, dan kun je dat beter overlaten aan @JorisL.

Hij heeft een tool gemaakt waarbij je het twitter archief, zoals je dat hebt gedownload, weer kunt uploaden en laten analyseren. Enkele minuten later krijg je de resultaten terug op een eigen webpagina en kun je snel zien waaraan je zoveel tijd gespendeerd hebt de laatste jaren.

twitter archief

Zo zie je bij mij in één oogopslag dat ik in 2007 en 2008 nauwelijks getwitterd heb en dat ik het pas vanaf 2011 veel ben gaan gebruiken.

In de Wordcloud zie je de woorden die je het meest gebruikt hebt in tweets. Ik dacht dat het ‘goedemorgen’ zou zijn aangezien ik daar de dag bijna altijd mee begin maar het blijkt een strijd te zijn tussen ‘goed’ en ‘google’. Jammer dat ik geen AdSense van Google krijg op mijn tweets.

De @Cloud laat zien welke namen je het meest gebruikt hebt in je tweets, de mentions. Daar twijfel ik toch wel een beetje aan de juistheid want ik zie er ook namen tussen staan van tweeps waar ik volgens mij echt toch niet zo vaak tegen praat op twitter. Dat @Dymphie en @Elja1op1 zeer hoog scoren, dat verrast dan weer niet. Net als de onbetwiste nummer 1: @asinnema.

twitterarchief_tags

Je (meest?) gebruikte hashtags staan in het # Cloud deel van die analyse. Dat #blogpraat daar met koeienletters staat lag ook voor de hand maar ook hier zie ik hashtags tussen staan die ik slechts enkele keren gebruikt heb, zoals #getgluehd en #elinea. Ik denk dat het toch meer een willekeurige selectie is.

In grafiekjes staat vervolgens uitgesplitst welk deel van je tweets replies of retweets waren. Welke smileys je gebruikte (ik heb in bijna 7000 tweets de :) gezet) en hoeveel tweets wel en niet een hashtag bevatten.

Een grote grafiek is – bij mij tenminste- gereserveerd voor de gebruikte twitter cliënt. Ik heb er vele tientallen gebruikt de laatste jaren en dat komt hier duidelijk terug. Wederom zie ik hier wel wat raars terug want ook al is Twidroyd van naam veranderd en gebruik ik het inmiddels niet meer, ik heb er zeker weten wel meer dan 6 tweets mee verstuurd. Nou ja.

De laatste, grootste en ook meest zinloze grafiek is een uitsplitsing van al je tweets naar het aantal gebruikte karakters. Ik heb 122 tweets verstuurd met slechts 3 karakters erin (LOL vermoed ik)  terwijl ik 2324 tweets tot het uiterste gevuld heb met 140 tekens. Geen idee wat een mens met deze informatie moet ;)

Wat valt er op aan de analyse van jouw twitter archief?

(Getipt door Bright)

#

Actueel houden en publiceren van je twitter archief met Google Drive

twitterarchief_googledrive

Natuurlijk is het handig dat je eindelijk je eigen twitter archief kunt downloaden. In het stappenplan ging ik ook uitgebreid in op hoe je deze tweets netjes in Excel kunt zetten met alleen maar een korte verwijzing naar de mogelijkheid om je ‘twitter archief website’ te uploaden naar je eigen server.

Beschik je echter niet over een stukje ruimte bij een webhost omdat je bijvoorbeeld blogt bij Blogger of WordPress.com, dan kun je heel gemakkelijk je twitter archief laten hosten / publiceren bij Google Drive. Iedereen met een Google account – en wie heeft die tegenwoordig niet – heeft 5 GB ruimte voor zijn documenten maar het is ook mogelijk om daar een kleine en eenvoudige website neer te zetten.

Uploaden en publiceren van je twitter archief bij Google Drive

  1. Allereerst pak je het tweets.zip bestand uit naar een nieuwe map ergens op je harde schijf. Noem het tweets of twitterarchief, het maakt niet veel uit;
  2. Ga naar Google Drive (log in indien nodig) en klik links bovenaan op de upload knop die naast de Create knop staat. Kies daar voor Folder om zometeen de hele map te gaan uploaden die je net aangemaakt hebt op je harde schijf;
  3. Blader naar die map waarin je uitgepakte twitter archief zit en klik op OK. Je krijgt nu een schermpje met Upload settings die de gelegenheid geeft om bestanden te converteren naar een formaat van Google Drive zelf. Maak hier geen gebruik van want anders gaat het fout! Zorg dat tenminste de eerste twee vakjes NIET aangevinkt staan;
  4. Klik op Start upload en wacht tot alle bestanden geupload zijn in je Google Drive. Klik vervolgens in het uploadvenster op het linkje Share om de instellingen te veranderen van de map met je twitter archief;
  5. In de Sharing Settings zie je dat, zoals Google Drive dat standaard doet, de map op Private staat. Wil je dat het twitter archief als website te bekijken is dan moet de map gedeeld worden. Klik op Change en kies vervolgens voor Public on the web om de map en inhoud te delen met de hele wereld. Standaard kunnen mensen alleen de bestanden bekijken en niet bewerken. Precies wat je hier wilt;
  6. Omdat het om een website gaat die gepubliceerd wordt moet je de URL die je wilt gebruiken en delen aanpassen. In de URL moet je het begin (https://docs.google.com/folder/d) vervangen door https://googledrive.com/host/. Bij mij werd https://docs.google.com/folder/d/0B3DGELKQg4PeSjNmSWxYWTZrXzQ daarmee https://googledrive.com/host/0B3DGELKQg4PeSjNmSWxYWTZrXzQ

En dat was het. Nu staat je gedownloade twitter archief online bij Google Drive en kun je overal ter wereld je tweets terugzoeken.

Tenminste, tot de datum en het tijdstip dat je het twitter archief hebt aangevraagd. Alle tweets die je daarna hebt verstuurd zitten natuurlijk niet in dat archief. Gelukkig heeft dezelfde persoon die eerder al een handige Google Spreadsheet maakte om tweets te archiveren, nu een Spreadsheet gemaakt om je twitter archief bij Google Drive bij te werken met je recente tweets.

Bijwerken van je twitter archief op Google Drive

  1. Allereerst open je de Google Spreadsheet Update/Host Twitter Archive on Google Drive en maak je een kopie naar je eigen Google Drive account door onder File te kiezen voor Make a copy;
  2. Volg de instructies die in de Spreadsheet staan. Als je al het bovenstaande gedaan hebt, dan kun je de eerste twee overslaan. Klik op de Click Authorize/Add Sync Menu knop om te autoriseren dat de Spreadsheet scripts mag uitvoeren en dan nog een keer om een nieuwe menu item te krijgen: Sync Twitter Setup;
  3. In dat nieuwe menu Sync Twitter Setup ga je vervolgens de menu items in volgorde af. In de eerste, Set Archive Path, moet het ID ingevuld worden van de map waarin je twitter archief staat. Dat zijn de 28 cijfers en letters die je in de URL hebt staan uit het stappenplan hierboven;
  4. De tweede in dat menu is API Authentication en hier wordt het ingewikkelder. Hier moet je je twitter archief registreren als applicatie bij Twitter zodat de spreadsheet nieuwe tweets mag ophalen. Je krijgt specifieke instructies als je API Authentication aanklikt en lees deze goed! Na de registratie bij Twitter krijg je een aantal codes (keys) waarvan je de eerste twee moet invullen in het schermpje in de Spreadsheet.
  5. Na deze stap moet het script authorize gedraaid worden in de spreadsheet (je wordt er naar verwezen in de instructies) om de nieuwe ‘applicatie’ toegang te geven tot je Twitter account. Ga hierbij naar het menu Scripts, kies voor authorize en klik dan op Run. Je weet dat het goed gegaan is als je het bekende scherm op twitter.com krijgt waarin je gevraagd wordt of je de applicatie toegang wilt geven tot je account;
  6. Alles gelukt? Dan kun je de derde optie in het Sync Twitter Setup gebruiken, Update Archive Now, om alle tweets die nieuw zijn in je twitter archief te downloaden en te integreren in je archief! Met de laatste optie Turn Auto-Refresh On kun je dit zelfs automatisch laten doen in de toekomst zonder dat je de Spreadsheet hoeft te openen. Eén keer per dag worden dan alle nieuwe tweets opgehaald.

De maker van de Google Spreadsheet, Martin Hawksey, heeft ook nog een korte video op YouTube gezet waarin de bovenstaande stappen (grotendeels) voorbij komen.

Nu staat je twitter archief netjes bijgewerkt online, gehost door Google Drive. Zonder dat je er verder naar hoeft om te kijken. Het enige dat je nog rest is om de link naar je twitter archief met de wereld te delen. Of niet natuurlijk.

#

srie13

Onderzoek alles en behoud het goede tijdens het SURF Research and Innovation Event 2013

Waarom alle evenementen en grote gebeurtenissen altijd op dezelfde dag lijken te vallen weet ik niet maar volgende week donderdag 28 februari is kennelijk zo’n knooppunt. Niet alleen kun je er voor kiezen om – ademloos ongetwijfeld – toe te kijken op tv hoe de Paus terugtreedt maar er zijn voor informatieprofessionals twee gelijktijdige evenementen die als zaligmakend alternatief kunnen dienen: het SURF Research and Innovation Event 2013 en de Vogin-IP-lezing.

De Vogin-IP-lezing, bestaande uit workshops en lezingen over zoeken op internet, ligt misschien net iets meer in mijn straatje maar nieuwe dingen leren kun je volgens mij beter doen als het over onderwerpen gaat waar je maar nauwelijks iets van af weet. Het SURF Research and Innovation Event 2013 past met het programma definitief binnen die doelstelling. Omgaan met onderzoeksdata en andere grote dataverzamelingen is een terugkerend thema in het programma en hoewel onderzoek binnen het HBO nog geen hele grote rol speelt, groeit deze wel. Ook voor informatiespecialisten wordt het dan tijd om zich er verder in te verdiepen.

Programma
Het programma voor de #srie13 is opgebouwd uit meerdere tracks en twee keynotes. Ik moet mijn eigen programma nog samenstellen maar het zullen vooral onderdelen uit track 1 en track 4 worden die wat algemener over onderzoeksdata en social media data gaan. De onderwerpen uit de beide overige tracks spreken me minder aan.

Bloggen
Het is al helemaal lastig om nee te zeggen als ze ook nog specifiek bloggers zoeken om verslag te doen van het SURF Research and Innovation Event 2013. Kennis delen door te bloggen blijft eigenlijk toch ook een innovatie vind ik. Hopelijk wordt er ook veel geblogd over de Vogin-IP-lezing want dan heeft iedereen het beste uit twee werelden.

Zelfs diegenen die naar het aftreden van de paus willen kijken.

#

Pagina 68 of 207« Eerste...153045...676869...7590105...Laatste »
  • © 2006- 2015 Vakblog – werken met informatie
    Aangedreven door WordPress en liters koffie // Theme: Tatami van Elmastudio
Top