Geleidelijk en haast onmerkbaar is de toegang tot technologie en (online) informatie verworden tot een basisbehoefte van de mens. De afhankelijkheid van informatietechnologie intensiveert zo sterk, dat wij inmiddels zelflerende algoritmen beslissingen voor ons laten nemen en dat wij zelfs onze meningen en denkbeelden ongemerkt door algoritmen laten beïnvloeden (“Misschien vind je deze … ook interessant!”). Wat moeten we daarvan vinden, nu we nog in staat zijn om daar iets van te vinden?
Geleidelijk en haast onmerkbaar is de toegang tot technologie en (online) informatie verworden tot een basisbehoefte van de mens. De afhankelijkheid van informatietechnologie intensiveert zo sterk, dat wij inmiddels zelflerende algoritmen beslissingen voor ons laten nemen en dat wij zelfs onze meningen en denkbeelden ongemerkt door algoritmen laten beïnvloeden (“Misschien vind je deze … ook interessant!”). Wat moeten we daarvan vinden, nu we nog in staat zijn om daar iets van te vinden?
Omgaan met onvoorspelbaarheid
Technologische ontwikkelingen en maatschappelijke ontwikkelingen gaan hand in hand en razendsnel. Niemand weet hoe de wereld er morgen uit gaat zien. In haar presentatie ‘Smart Humanity: de mens centraal’ noemt Anna Snel dit een VUCA-wereld (Anna Snel heeft hierover al eerder geschreven in Od #7 2018 in het artikel ‘Design Thinking: een andere logica’). VUCA staat voor volatility, uncertainty, complexity en ambiguity. De wereld is dus voortdurend in beweging, onzeker, complex en ambigu oftewel onduidelijk. Het klassieke designproces waarbij aanpassingen van de organisatie, processen en systemen worden gepland, ontworpen, getest en geïmplementeerd volstaat al lang niet meer. Er zal voortdurend en stapsgewijs veranderd moeten worden. Anna Snel benadrukt dat je complexiteit niet kunt aanpakken door er afstand van te nemen, in de hoop dat je dan een beter overzicht krijgt, maar juist door er in te duiken en er in op te gaan. Veranderingen moeten volgens haar niet uitgerold worden, maar ‘ingerold’. Daarmee bedoelt zij dat veranderingen niet op een afstand ontwikkeld moeten worden om vervolgens deze naar de mensen te brengen, maar dat er juist eerst naar de mensen gegaan moet worden en dat vanuit die praktijk iedere volgende stap gezet moet worden.
Haar betoog vindt gehoor bij de paneldiscussie ‘Future jobs and skills in the digital era’ die later op de dag plaats vindt met Evert-Jan Mulder (RedPlume), Marieke van Benten (Waternet) en Jos Arets (Tulser). Jos Arets verzet zich tegen de traditionele wijze waarop medewerkers worden geacht te leren. Trainingen waarbij medewerkers uit hun dagelijkse werkomgeving worden getrokken en in een opleidingslokaal uitgelegd krijgen hoe het nieuwe systeem werkt, zorgen slechts voor een onthechting tussen de beoogde verandering en de dagelijkse praktijk. Zorg er liever voor dat medewerkers tijdens en in hun werk kennis kunnen maken met het nieuwe systeem. Zorg voor voldoende ondersteuners op de werkvloer, die medewerkers helpen bij het verkrijgen van de nodige kennis en vaardigheden.
Na een korte uitleg van de digitale transformatie bij het Waternet door Marieke van Benten wordt de vraag gesteld wat de andere consequenties zijn voor medewerkers. Zal er nog wel genoeg werk zijn voor iedereen? Zal iedereen mee kunnen veranderen? Zullen bestaande functies veranderen en/of komen er nieuwe functies bij? De antwoorden blijven hangen in onzekerheid en twijfel. Veel zal nog moeten blijken.
Consequenties van AI
De digitale transformatie vindt echter niet alleen plaats binnen organisaties, maar raakt ook de samenleving als geheel. Veel bedrijven – en ook de overheid – zijn bezig om data over ons te verzamelen, uit te wisselen en te gebruiken met ongetwijfeld vaak goede bedoelingen. In zijn presentatie ‘Data bestaan niet’ beschouwt Maxim Februari, schrijver en filosoof, de relatie tussen data en werkelijkheid, de mismatch daartussen en de consequenties van beslissingen die genomen worden op grond van data in plaats van op de werkelijkheid.
Data geven namelijk nooit de werkelijkheid volledig en accuraat weer, zij zijn een vereenvoudigde weergave van de werkelijkheid. Ergens heeft iemand een keuze gemaakt welke data er verzameld worden en hoe deze worden vastgelegd. Daarmee zijn data nooit objectief, maar hebben ze altijd een subjectief karakter en is er dus sprake van een ‘moraal’: een set aan basisregels of een afwegingskader over wat goed is en wat niet.
Nu is er niks mis met een moraal, maar er is op z’n tijd wel (ethische) reflectie nodig: werkt deze moraal wel? Bereiken we wat we willen? Zijn er onbedoelde bijwerkingen? Mensen kunnen wel ethisch reflecteren, maar machines (nog?) niet.
Er dreigen nu drie gevaren de digitale samenleving in te sluipen:
- We vertrouwen steeds vaker – haast blind – op besluiten van algoritmen, ook al zijn deze gebaseerd op data en algoritmen die niet objectief (kunnen) zijn. Uitzonderlijke gevallen worden niet als zodanig herkend en worden – ten onrechte – als gemiddelde gevallen behandeld.
- We laten de dataverzameling en algoritme-ontwikkeling meestal over aan commerciële partijen en daarmee ook de ethische reflectie (voor zover deze al gebeurt). Hierdoor komt winstgevendheid hoog in de gemeenschappelijke moraal te staan.
- We passen ons gedrag aan zodat algoritmen voor ons passende besluiten kunnen geven. Individualiteit, het vermogen om jezelf te onderscheiden van anderen, komt daarmee onder druk te staan.
De ethiek van de informatieprofessional
Als informatieprofessionals staan we in de voorhoede van de digitale ontwikkelingen. De vraag is dan ook welke morele verantwoordelijkheid wij moeten nemen in de ontwikkeling van datagedreven oplossingen. In de paneldiscussie ‘Ethische dilemma’s van informatieprofessionals’ wordt Maxim Februari vergezeld door Nicole Wolters Ruckert (advocaat) en Hans Strikwerda (hoogleraar organisatieleer en organisatieverandering, UvA). Onder leiding van P.P. Verroen (ethisch denker en adviseur) wordt een drietal casussen besproken, die vooraf door congresdeelnemers waren ingestuurd.
In alle drie de casussen is er sprake van een datagedreven innovatie, waar de informatieprofessional ethische vraagtekens bij plaatst. Op academische toon wordt afgewogen of de voorgenomen innovatie wel door de beugel kan. Wanneer blijkt dat er aan een innovatie de nodige haken en ogen zitten, bijvoorbeeld omdat er op grond van onbetrouwbare data conclusies worden getrokken of omdat menselijk contact een beter alternatief zou zijn (“Vraag gewoon even hoe het met iemand gaat!”), dan volgt de vraag hoe de informatieprofessional moreel verantwoord dient te handelen. Voldoen aan de wet, zo luidt het oordeel van de experts, is niet altijd voldoende om te kunnen spreken van ethisch verantwoord gedrag. De wet is echter wel de enige bescherming die je als medewerker hebt tegen de nadelige consequenties voor jou als je besluit niet mee te werken aan de innovatie. Helaas wordt dit dilemma niet tijdens de paneldiscussie beslecht.
Linked data
Laat op de dag geeft Piek Vossen, professor Computational Lexicology aan de Vrije Universiteit Amsterdam, zijn presentatie ‘Van SMART naar Wise: het meten van impact door het analyseren van perspectieven van stakeholders’. Met groot enthousiasme vertelt hij hoe zijn team erin geslaagd is om grote hoeveelheden teksten uit de LexisNexis-bibliotheek te ontleden en te vangen in linked data. Journalisten en geschiedschrijvers hoeven de massa’s teksten dan niet meer massaal door te spitten om te analyseren en te reconstrueren hoe gebeurtenissen op elkaar ingrijpen en elkaar opvolgen. Door slimme zoekvragen te stellen worden de relevante gebeurtenissen geautomatiseerd bijeengeraapt. Wat is wanneer gebeurd en wie was daarbij betrokken? De immer schaarse tijd en energie kan dan gestoken worden in het analyseren van deze gebeurtenissen en het herkennen van patronen. Aan het eind van de presentatie is er tijd voor vragen. “Hoe zit het met het recht om vergeten te worden?” Piek Vossen kijkt verbouwereerd de donkere zaal in en stamelt: “Waarom zou je? De data komt uit oude kranten en tijdschriften. Oké, we kunnen iemand wel uit onze database halen, als daarom gevraagd wordt, maar dat is alleen ónze database.”
Conclusie
Informatie – ook de historische – raakt steeds meer gestructureerd. Onze methoden voor innovatie en verandering worden alsmaar effectiever. Door dit alles zijn we in staat om informatietechnologie alsmaar te verbeteren en in te bedden in ons werk en ons leven. Maar moeten we dat als samenleving ook wel allemaal willen? De vraag is interessant, maar zolang niet duidelijk is waar de ontwikkelingen heen gaan is het ook niet mogelijk om er een eenduidig antwoord op te geven. Ondertussen kunnen overheden en bedrijfsleven wel werken aan het ethische besef dat hun digitale ambities onbedoelde consequenties hebben voor de samenleving als geheel en mensen als individu. Nu het nog kan.
Smart Humanity 2018
Gaan robots en algoritmes de wereld overnemen? Of ontstaat er juist een prachtige samensmelting van mens en cybernetica? Die vragen stonden centraal tijdens het KNVI-event Smart Humanity 2018 op 13 december. Bezoekers konden zich 24 uur lang laten inspireren en informeren over de laatste trends, strategieën en ontwikkelingen op het gebied van informatieverwerking.
Het event
Smart Humanity 2018 is de opvolger van het jaarcongres van de KNVI. Tijdens het event werden vijf thema’s uitgelicht: Smart GLAM (Galleries, Libraries, Archives, Musea), Smart Me & Ethiek, Smart Mobility, Smart Industries en Smart Cities. Deelnemers konden 24 uur lang deelnemen aan lezingen, clinics, discussies, round tables, rondleidingen, films en een hackathon.
KNVI
De Koninklijke Nederlandse Vereniging van Informatieprofessionals (KNVI) is een onafhankelijk platform voor het ontwikkelen en uitwisselen van vakkennis en het verbreden van het professionele netwerk van de leden. Od is een van de vakbladen die zij haar leden aanbiedt.
Recordmanager bij de gemeente Rotterdam en redacteur van Od