Onderzoekers willen meer transparantie van socialemediabedrijven
Dit artikel stond oorspronkelijk op Undark.
BINNEN DAGEN na Ruslands recente invasie van Oekraïne hebben verschillende socialemediabedrijven stappen ondernomen om de verspreiding van door de Russische staat gesteunde media en anti-Oekraïense propaganda te verminderen. Meta (voorheen Facebook) zei bijvoorbeeld dat het ongeveer 40 accounts heeft verwijderd, onderdeel van een groter netwerk dat zich al had verspreid over Facebook, Instagram, Twitter, YouTube, Telegram en Russische sociale media. De accounts gebruikten valse persona's, vol met profielfoto's die waarschijnlijk zijn gegenereerd met kunstmatige intelligentie, die zich voordeden als nieuwsredacteuren, ingenieurs en wetenschappers in Kiev. De mensen achter het netwerk maakten ook nepnieuwswebsites die Oekraïne afschilderden als een mislukte staat die door het Westen was verraden.
Desinformatiecampagnes zijn alomtegenwoordig geworden in het uitgestrekte domein van sociale media. Zullen de recente inspanningen van technologiebedrijven om propaganda te bestrijden effectief zijn? Omdat buitenstaanders niet op de hoogte zijn van de meeste interne werking van het handjevol bedrijven dat de digitale wereld bestuurt – de details van waar informatie vandaan komt, hoe het zich verspreidt en hoe het de echte wereld beïnvloedt – is het moeilijk te weten.
Joshua Tucker leidt het Jordan Center for the Advanced Study of Russia van de New York University en is mededirecteur van het Center for Social Media and Politics van de school. Toen we elkaar half maart spraken, kwam hij net van een ontmoeting met collega's die een strategie bespraken om de verspreiding van Russische staatsverhalen in de westerse media op te sporen. Maar dat onderzoek – het grootste deel van zijn onderzoek eigenlijk – wordt belemmerd omdat socialemediabedrijven, in naam van de bescherming van de privacy van gebruikers en intellectueel eigendom, niet alle details delen van de algoritmen die ze gebruiken om te manipuleren wat je ziet wanneer je hun gegevens invoert. wereld, noch de meeste gegevens die ze verzamelen terwijl u daar bent.
De inzet om te begrijpen hoe die gemanipuleerde wereld individuen en de samenleving beïnvloedt, is nog nooit zo hoog geweest. In de afgelopen jaren hebben journalisten, onderzoekers en zelfs insiders van bedrijven de platformen ervan beschuldigd haatzaaiende uitlatingen en extremisme te laten floreren, met name extreemrechts. Afgelopen oktober getuigde Frances Haugen, een voormalig productmanager bij Facebook, voor een Amerikaanse Senaatscommissie dat het bedrijf winst boven veiligheid stelt. "Het resultaat is een systeem dat verdeeldheid, extremisme en polarisatie versterkt – en samenlevingen over de hele wereld ondermijnt", zei ze in haar openingsopmerkingen. "In sommige gevallen heeft dit gevaarlijke online gesprek geleid tot daadwerkelijk geweld dat mensen schaadt en zelfs doodt."
In de Verenigde Staten kunnen antwoorden over de vraag of Facebook en Instagram de verkiezingen van 2020 en de opstand van 6 januari hebben beïnvloed, afkomstig zijn van een project dat Tucker co-regisseert met een samenwerking tussen Meta en 16 extra externe onderzoekers. Het is onderzoek dat voorlopig niet anders kan, zegt projectlid Deen Freelon, universitair hoofddocent aan de Hussman School of Journalism and Media aan de Universiteit van North Carolina. "Maar het is absoluut geen onafhankelijk onderzoek, want de Facebook-onderzoekers houden onze handen metaforisch vast in termen van wat we wel en niet kunnen doen."
Tucker en Freelon behoren tot de tientallen onderzoekers en journalisten die pleiten voor meer toegang tot gegevens van sociale media, zelfs als daarvoor nieuwe wetten nodig zijn die bedrijven ertoe aanzetten of dwingen om informatie te delen. Vragen over bijvoorbeeld of Instagram de problemen met het lichaamsbeeld van tienermeisjes verergert of YouTube mensen meezuigt in samenzweringen, kunnen alleen bevredigend worden beantwoord door buitenstaanders. "Door meer onafhankelijk onderzoek te vergemakkelijken, kan het onderzoek naar de plaatsen gaan waar het naartoe moet, zelfs als dat er in sommige gevallen uiteindelijk toe leidt dat het bedrijf er slecht uitziet", zegt Freelon, die ook een hoofdonderzoeker is aan het University of North Carolina's Center voor informatie, technologie en het openbare leven.
Voorlopig bepalen een handvol gigantische bedrijven met winstoogmerk hoeveel het publiek weet over wat er in de digitale wereld gebeurt, zei Tucker. Hoewel de bedrijven coole onderzoekssamenwerkingen kunnen starten, zei hij, kunnen ze die samenwerkingen ook op elk moment stopzetten. "Altijd, altijd, altijd ben je in de gril van de platforms," zei hij. Als het gaat om toegang tot gegevens, voegde hij eraan toe: "Dit is niet waar we als samenleving willen zijn."
T UCKER HERINNERDE AAN DE vroege dagen van onderzoek op sociale media, ongeveer tien jaar geleden, als boordevol belofte. Het nieuwe type communicatie genereerde een schat aan informatie om te zoeken naar antwoorden over menselijke gedachten en gedrag. Maar die aanvankelijke opwinding is een beetje vervaagd toen Twitter het enige bedrijf bleek te zijn dat consequent openstond voor het delen van gegevens. Als gevolg hiervan domineren onderzoeken over het platform het onderzoek, ook al heeft Twitter veel minder gebruikers dan de meeste andere netwerken. En zelfs dit onderzoek heeft beperkingen, zei Tucker. Hij kan bijvoorbeeld niet achterhalen hoeveel mensen een tweet zien, informatie die hij nodig heeft om de impact nauwkeuriger te meten.
Hij rammelde van een lijst met de andere informatie waar hij niet bij kan. "We weten niet wat YouTube mensen aanbeveelt", zei hij. TikTok, eigendom van het Chinese technologiebedrijf ByteDance, is notoir gesloten voor onderzoek, hoewel het volgens een recente analyse door het mobiele marketingbedrijf URL Genius meer gebruikersinformatie deelt met externe bedrijven dan enig ander groot platform. 'S Werelds populairste sociale netwerk, Facebook, maakt heel weinig gegevens openbaar, zei Tucker. Met de gratis tool CrowdTangle van het bedrijf kun je bijvoorbeeld openbare berichten volgen. Maar je kunt nog steeds niet het aantal mensen achterhalen dat een bericht ziet of reacties leest, en ook geen precieze demografische informatie.
In een telefoongesprek en e-mail met Undark betwistte Meta-woordvoerder Mavis Jones die karakterisering van het bedrijf en stelde dat Meta eigenlijk meer onderzoeksgegevens levert dan de meeste van zijn concurrenten. Als bewijs van de toewijding aan transparantie, wees ze erop dat Meta onlangs de inspanningen voor het delen van gegevens heeft geconsolideerd in één groep die zich richt op de onafhankelijke studie van sociale kwesties.
"Het is absoluut geen onafhankelijk onderzoek, want de Facebook-onderzoekers houden onze handen metaforisch vast in termen van wat we wel en niet kunnen doen", zegt Freelon.
Om toegang te krijgen tot gegevens van sociale media, zijn onderzoekers en journalisten creatief geworden. Emily Chen, een afgestudeerde informaticastudent aan de Universiteit van Zuid-Californië, zei dat onderzoekers hun toevlucht kunnen nemen tot het gebruik van een computerprogramma om grote hoeveelheden openbaar beschikbare informatie van een website of app te verzamelen, een proces dat scraping wordt genoemd. Het schrappen van gegevens zonder toestemming is meestal in strijd met de servicevoorwaarden van bedrijven en de wettigheid van deze aanpak is nog steeds in de rechtbanken vastgebonden. "Als onderzoekers zijn we gedwongen om een beetje rekening te houden met de vraag of onze onderzoeksvragen belangrijk genoeg zijn om dit grijze gebied te betreden", zegt Chen.
Onderzoekers komen vaak weg met schrapen, maar platforms kunnen ze op elk moment mogelijk buitensluiten. Meta vertelde me echter dat schrapen zonder toestemming strikt in strijd is met het bedrijfsbeleid. En inderdaad, afgelopen zomer ging Meta zelfs zo ver dat ze de accounts van onderzoekers in het Ad Observatory-project van de New York University, die Facebook-gegevens verzamelden om politieke advertenties te bestuderen, uitschakelde.
Een andere benadering is om over de schouder van gebruikers van sociale media mee te kijken. In 2020 kondigde The Markup, een non-profit redactiekamer over technologie, de lancering aan van haar Citizen Browser Project. De nieuwszender betaalde een landelijk representatieve steekproef van 1.200 volwassenen om een op maat gemaakte browser op hun desktopcomputers te installeren. De browser verzamelt periodiek informatie uit de Facebook-feeds van mensen, waarbij persoonlijk identificeerbare gegevens worden verwijderd.
"We zijn als fotojournalisten in de straat van de algoritmestad", grapte Surya Mattu, de onderzoeksjournalist die de browser ontwikkelde. "We proberen gewoon vast te leggen wat er werkelijk gebeurt en proberen een manier te vinden om erover te praten." De snapshots van de browser onthullen een digitale wereld waar nieuws en aanbevelingen er totaal anders uitzien, afhankelijk van je politieke voorkeur en waar – in tegenstelling tot wat Facebook beweert – veel mensen extremistische en sensationele inhoud vaker zien dan wanneer ze reguliere bronnen bekijken. (Ga naar @citizenbrowser op Twitter om te zien wat er momenteel trending is op Facebook volgens de gegevens van The Markup.)
WAT KUNNEN JOURNALISTEN en sociale wetenschappers belichten als ze een betere kijk op de digitale wereld hadden? In een commentaar dat in december 2020 in het tijdschrift Harvard Kennedy School Misinformation Review werd gepubliceerd, dienden 43 onderzoekers 15 hypothetische projecten in om desinformatie aan te pakken die ze zouden kunnen nastreven "als sociale-mediagegevens gemakkelijker beschikbaar zouden zijn". De groep van Freelon legde uit hoe ze de oorsprong van misleidende verhalen (momenteel bijna onmogelijk) konden bepalen, welke platforms de grootste rol spelen bij het verspreiden van verkeerde informatie en bepalen welke correctiestrategieën werken bij welk publiek.
Mattu van The Markup, een ingenieur van opleiding, zou graag zien dat sociale-mediagegevens meer werken als open-sourcesoftware, waarmee gebruikers de code kunnen bekijken, functies kunnen toevoegen en problemen kunnen oplossen. Voor iets dat op de schaal van Facebook werkt, kan geen enkele groep mensen erachter komen hoe het zal werken in alle ecosystemen, contexten en culturen, zei hij. Social-mediabedrijven moeten transparant zijn over zaken zoals algoritmen die ervoor kunnen zorgen dat extreme inhoud prioriteit krijgt of adverteerders die manieren vinden om mensen op ras te targeten. "We moeten accepteren dat dit soort problemen een kenmerk zijn, geen bug van sociale netwerken die bestaan op een schaal van 2 miljard mensen", zei hij. "En we zouden er op een meer eerlijke manier over moeten kunnen praten."
Chen ziet samenwerking ook als de weg vooruit. Ze stelt zich een wereld voor waarin onderzoekers eenvoudig om gegevens kunnen vragen in plaats van hun toevlucht te nemen tot grijze gebieden zoals scraping. "Een van de beste manieren om de huidige informatieoorlog die we zien aan te pakken, is dat instellingen, of ze nu zakelijk of academisch zijn, echt samenwerken", zei ze.
"We zijn als fotojournalisten in de straat van de algoritmestad", grapte Mattu.
Een van de belangrijkste belemmeringen voor een betere toegang is de bescherming van de privacy van gebruikers. Gebruikers van sociale media zijn redelijk bezorgd dat buitenstaanders gevoelige informatie in handen kunnen krijgen en deze kunnen gebruiken voor diefstal of fraude. En om vele redenen verwachten mensen dat informatie die in privé-accounts wordt gedeeld, privé blijft. Freelon werkt aan een onderzoek naar racisme, onbeleefdheid, onderdrukking van kiezers en andere 'anti-normatieve' inhoud die iemands reputatie kan schaden als deze openbaar wordt gemaakt. Om de privacy van gebruikers te beschermen, heeft hij geen toegang tot de algoritmen die die mensen zouden kunnen identificeren. "Wat kan het mij persoonlijk schelen of racistische mensen gewond raken?" hij zei. "Nee. Maar ik kan zeker zien hoe Facebook zich zorgen zou kunnen maken over zoiets.”
De huidige wetten zijn opgesteld om de privacy van de gegevens van mensen te beschermen, niet met het idee om onderzoek te faciliteren dat de samenleving informeert over de impact van sociale media. Het Amerikaanse Congres overweegt momenteel tweeledige wetgeving, zoals de Kids Online Safety Act, de Social Media DATA Act en de Platform Accountability and Transparency Act, die sociale-mediabedrijven verplichten meer gegevens te verstrekken voor onderzoek, terwijl de bepalingen ter bescherming van de privacy van gebruikers gehandhaafd blijven. PATA schrijft bijvoorbeeld het opstellen van privacy- en cyberbeveiligingsnormen voor en beschermt deelnemende academici, journalisten en bedrijven tegen juridische stappen vanwege privacyschendingen.
In het boek “Social Media and Democracy” schrijven mederedacteuren Tucker en Stanford Law Professor Nathaniel Persily: “De noodzaak voor real-time productie van rigoureus, beleidsrelevant wetenschappelijk onderzoek naar de effecten van nieuwe technologie op politieke communicatie is nooit dringender.”
Het is een paar bewogen jaren geleden sinds het boek in 2020 werd gepubliceerd. Is de behoefte aan gedegen onderzoek nog dringender? Ik vroeg Tucker.
Ja, antwoordde hij, maar die urgentie komt niet alleen voort uit de noodzaak om te begrijpen hoe sociale media ons beïnvloeden, maar ook om ervoor te zorgen dat beschermende maatregelen die we nemen meer goed dan kwaad doen. Bij gebrek aan uitgebreide gegevens maken wij allemaal – burgers, journalisten, experts en beleidsmakers – verhalen over de impact van sociale media die gebaseerd kunnen zijn op onvolledige, soms foutieve informatie, zei Tucker.
Terwijl sociale media een stem hebben gegeven aan haatdragende taal, extremisme en nepnieuws over de hele wereld, onthult Tuckers onderzoek dat onze veronderstellingen over hoe en waar dat gebeurt niet altijd correct zijn. Zijn team observeert momenteel bijvoorbeeld de YouTube-zoekopdrachten van mensen en komt tot de ontdekking dat, in tegenstelling tot wat vaak wordt gedacht, het platform gebruikers niet altijd naar de konijnenholen van extremisme leidt. Zijn onderzoek heeft ook aangetoond dat echokamers en het delen van nepnieuws niet zo wijdverbreid zijn als vaak wordt gedacht. En in een studie die in januari 2021 werd gepubliceerd, vonden Tucker en collega's pieken van haatzaaiende uitlatingen en blanke nationalistische retoriek op Twitter tijdens de presidentiële campagne van 2016 van Donald Trump en de onmiddellijke nasleep ervan, maar geen aanhoudende toename van haatdragend taalgebruik of die specifieke streep van extremisme.
"Als we beleid gaan maken op basis van dit soort ontvangen wijsheden, moeten we echt, echt weten of deze ontvangen wijsheden correct zijn of niet," zei Tucker.
Meer en beter onderzoek hangt af van de vraag of sociale-mediabedrijven een venster creëren voor buitenstaanders om naar binnen te kijken. "We bedenken manieren om het te doen met waar we toegang toe hebben, en dat is de creativiteit van een geleerde op dit gebied," zei Tucker. “De samenleving zou er beter aan doen als we konden werken aan wat volgens ons de meest interessante onderzoeksvragen waren.”
Het bericht Onderzoekers willen meer transparantie van socialemediabedrijven verscheen eerst op Popular Science.