Catelijne Muller spreekt bij Belgisch Parlement over AI & Sociale Media

Op 23 juni jl. sprak ALLAI’s voorzitter Catelijne Muller bij het Belgisch Parlement over AI & social media.

De zitting is hier terug te zien:

Tekst van de presentatie van Catelijne:

Mijne dames en heren, voorzitter,

Hartelijk dank voor de uitnodiging.

In de afgelopen maanden heeft u al veel mensen ontvangen die u hebben verteld over de impact van AI. U heeft mij gevraagd om te komen praten over AI & Sociale Media. De rol van AI in sociale media is enorm. En het gaat verder dan alleen gepersonaliseerde advertenties.

Aan de ene kant gebruiken social media platforms AI inderdaad om ons gepersonaliseerde advertenties voor te schotelen, maar ook bijvoorbeeld om nieuws te aggregeren of video’s aan te bevelen, of om fake news te bestrijden.

Aan de andere kant profiteren andere partijen met behulp van AI weer van de enorme hoeveelheid informatie over ons die wij aan die sociale mediakanalen toevertrouwen, of die deze kanalen over ons ‘samenstellen’.

Met al die informatie kunnen deze partijen ons profileren, scoren, beoordelen en categoriseren om bijvoorbeeld ons kredietrisico in te schatten, ons stemgedrag te beinvloeden, of zelfs het maatschappelijk discours te sturen.

Dit kan leiden tot allerlei ongewenste effecten, die moeilijk zijn te duiden en addresseren. Ik wil u daarom hiervoor een aantal handvatten proberen te bieden.

In de eerste plaats is er de ethische impact van AI. Ik ben zelf lid van de High Level Expert Group on AI voor de Europese Commissie, die de Ethische Richtlijnen voor Trustworthy AI heeft opgesteld. Trustworthy AI heeft 3 pijlers: het moet rechtmatig zijn, ethisch verantwoord en socio-technisch robuust.

Ik wil vandaag vooral ingaan op het element dat AI ontwikkeling, inzet en gebruik rechtmatig moet zijn. Want AI opereert niet in een wetteloze wereld. Ondanks dat er mensen zijn, mensen met invloed, die beweren dat dat wel zo is. Elon Musk bijvoorbeeld, noemt AI een unregulated technology. En het Europees Parlement heeft zelfs eerder voorgesteld om te onderzoeken of de slimste AI-toepassingen rechtspersoonlijkheid zouden moeten krijgen. En als ik mensen vraag: ‘Waarom zou je dat willen, rechtspersoonlijkheid voor een tool?’ dan krijg ik als antwoord: ‘Wat als ik een AI toepassing maak en die de markt op wil sturen…maar hij is nog niet helemaal goed ontwikkeld. Maar ja, ik sta onder druk, vanwege de AI-race, dus ik doe het toch maar. En de toepassing doet iets wat ik niet had voorzien, en veroorzaakt schade. Wie is er dan aansprakelijk?’ Mijn reactie is dan steevast: ‘Wat als een hond een kind bijt? Dan houden wij de hond niet aansprakelijk, maar de eigenaar. En wat als een kind een bal door de ruit schiet bij de buurman, dan houden we het kind niet aansprakelijk, maar de ouders. Het baasje is aansprakelijk, ook voor slimme machines.’ Wat ik hiermee wil zeggen is dat er al heel veel wet- en regelgeving is, op het gebied van aansprakelijkheid, maar ook op andere terreinen, die gewoon van toepassing is op AI.

En als we het hebben over AI en social media, dan zijn het met name de grondrechten die van belang zijn.

Vaak denkt men dat AI alleen impact heeft op ons fundamentele recht op privacy en dan zelfs alleen de privacy gerelateerd aan onze data, en grijpt men naar de GDPR. Dit is inderdaad belangrijk, maar AI heeft een veel bredere impact op onze fundamentele rechten en bovendien ook op onze democratie en de ‘rule of law’. Zeker waar het de combinatie AI en social media betreft.

Privacy

Allereerst het recht op privacy. Dit recht is veel breder dan data bescherming. Het behelst ook het recht op een priveleven, het recht om niet continue bekeken en gevolgd te worden, het recht op fysieke en morele integriteit.

Met name het gebruik van data over ons om ons continue te profileren, scoren, beoordelen en categoriseren is een impact op onze morele integriteit.

Vrijheid van meningsuiting

De vrijheid van meningsuiting en informatie omvat ook de vrijheid om meningen te hebben en om informatie en ideeën te ontvangen.

Met betrekking tot het recht om informatie en ideeën te ontvangen roept AI die wordt gebruikt op social media zeker vragen op. Social media biedt ons gepersonaliseerde content. Zoekmachines, video-aanbevelingssystemen en nieuwsaggregators zijn vaak ondoorzichtig, zowel als het gaat om de gegevens die ze gebruiken om de inhoud te selecteren of prioriteren, maar ook waar het gaat om het doel van de specifieke selectie. De meeste social media bedrijfsmodellen zijn gebaseerd op online advertentie-inkomsten. En die inkomsten zijn afhankelijk van de tijd die mensen op het platform doorbrengen. Om ervoor te zorgen dat mensen zoveel mogelijk tijd op een platform of website doorbrengen, selecteren en prioriteren ze mogelijk inhoud die alleen dat doet: mensen op hun platform houden, ongeacht of deze inhoud objectief, feitelijk waar of divers is.

Dit alles kan leiden tot filterbubbels en de verspreiding van nepnieuws, desinformatie en propaganda, en beïnvloedt het vermogen van individuen om vrijelijk meningen te vormen en te ontwikkelen, informatie en ideeën te ontvangen.

Voor de vrijheid van meningsuiting ga ik terug naar de partijen die social media informatie over ons gebruiken. AIs die informatie wordt gebruikt voor het profileren, surveilleren, volgen en identificeren van mensen, en het screenen, definiëren, sorteren en beïnvloeden of aansturen van gedrag heeft dat een effect hebben op onze vrijheid van meningsuiting.

In een wereld waarin al onze data worden gebruikt voor scoren, beoordelen en presteren op basis van AI (bijv. om krediet te ontvangen, een hypotheek, een lening, een baan, een promotie, enz.) kunnen mensen bovendien gaan aarzelen om openlijk een bepaalde mening te uiten, bepaalde boeken of kranten online te lezen of bepaalde online media te bekijken.

Vrijheid van vergadering en vereniging

Internet en sociale media zijn nuttige instrumenten gebleken om hun recht op vreedzame vergadering en vereniging uit te oefenen. Tegelijkertijd kan het gebruik van AI deze rechten echter in gevaar brengen, wanneer mensen of groepen mensen automatisch worden opgespoord en geïdentificeerd en misschien zelfs ‘uitgesloten’ van demonstraties of protesten.

AI, sociale media en democratie

AI kan (en heeft waarschijnlijk al) een negatieve invloed op de democratie, met name als het gaat om:

  1. sociaal en politiek discours
  2. toegang tot informatie
  3. vrije verkiezingen

Goed functionerende democratieën vereisen een goed geïnformeerde burgerij, een open sociaal en politiek discours. Dit vereist een goed geïnformeerde burgerij. In de huideige nformatiemaatschappij, waar we een overload aan informatie tot onze beschikking kunnen burgers er slechts een ​​kleine hoeveelheid van alle beschikbare informatie te consumeren.

Zoals ik eerder al zei, gebruiken zoekmachines, feeds voor sociale media, aanbevelingssystemen voor video’s en veel nieuwssites AI om te bepalen welke inhoud wordt gemaakt en aan welke gebruiker wordt getoond (personalisatie). Als dat goed wordt gedaan, kan het burgers helpen om beter door de stroom van beschikbare informatie te navigeren en hun democratische bevoegdheden te verbeteren, bijvoorbeeld door hen toegang te geven tot bronnen in andere talen via vertaaltools.

Als AI echter bepaalt welke informatie wordt getoond en geconsumeerd, welke wordt onderdrukt en welke viraal gaat, brengt dit ook het risico met zich mee van vooringenomenheid en ongelijke weergave van meningen en stemmen.

AI-gestuurde personalisatie van informatie is daarmee een ongekend krachtig instrument voor geïndividualiseerde invloed. Als gevolg hiervan kan het het gedeelde begrip, het wederzijds respect en de sociale cohesie worden ondermijnd, die nodig zijn om de democratie te laten gedijen.

Als persoonlijke AI-voorspellingen zeer krachtig en effectief worden, kunnen ze zelfs dreigen de menselijke keuzevrijheid en autonomie ondermijnen (autonomie valt weer onder het recht op privacy).

We hebben dit al zien gebeuren ‘verkiezingscampagnes’. Brexit en Trump. En dit zijn niet de enige campagnes waar AI een belangrijke rol heeft gespeeld. Cambridge Analytica wist met gebruikmaking van social media data profielen op te stellen van kiezers en deze zo gericht te beinvloeden en heeft niet alleen gewerkt voor de Brexit campagne, maar ook voor campagnes in diverse Afrikaanse landen. Landen waar de democratie als minder stevig is dan in veel Westerse landen.

AI kan ook worden gebruikt om fake news en deep fakes te creëren en te verspreiden, wat dan weer vaak op social media gebeurt. Deep fakes bestaan in de vorm van tekst, afbeeldingen, audio of video. Aangezien deze moeilijk te identificeren zijn door burgers, journalisten of openbare instellingen, wordt het misleiden en manipuleren van het publiek gemakkelijker. Daarmee kan geloofwaardigheid van media onder druk komen te staan en het democratisch discours verslechteren.

AI, social media & the ‘rule of law’

Wat nog lastiger is, is de invloed van AI op wat wij  de rule of law noemen, en op het gezag en vertrouwen in onze democratische instituties. Maar ook hier spelen social media platforms in combinatie met AI een opvallende rol.

Terwijl voorheen rechtbanken de enigen waren die bepaalden wat als illegale of haatzaaiende uitlating werd gezien, bepalen tegenwoordig vooral social media platforms met behulp van AI zelf wanneer iets geacht wordt fake news of hate speech te zijn. Deze AI-systemen concurreren dus feitelijk met rechters om juridische autoriteit, wat kan leiden tot ontwikkeling van ‘rechtssystemen’ die buiten de grenzen en de bescherming van de rechtsstaat opereren.

Conclusie

U heeft de tools in handen om de uitdagingen die de combinatie AI en social media met zich meebrengt te addresseren. En deze tools liggen niet alleen op het ethische vlak, maar met name ook op het vlak dat wellicht dichter bij u staat, de grondrechten, onze democratie en de rule of law.

En ik roep u ook op om uzelf de mogelijkheid te geven om bij iedere invasieve AI toepassing de zogenaamde 0-vraag te stellen: willen we deze technologie, met deze impact op onze grondrechten en democratie wel accepteren?

Technologie overkomt ons niet, ook AI niet. Het is aan ons en u om te bepalen of we AI willen toelaten en zo ja, onder welke condities. Ik noem dat ook wel de human-in-command benadering.

Ik hoop dat ik u hiermee enige richting heb kunnen geven en hartelijk dank voor uw aandacht.