Uit het onderzoek blijkt dat Google een afgezwakte beschrijving geeft van de controversiële karakters

Als je de naam van Alex Jones begint te typen in een Google-zoekopdracht, stelt hij voor: Alex Jones, radiopresentator En het geeft je een miniatuur zodat je kunt zien of dit degene is die je zoekt.

Gekwalificeerde radiopresentator van een Amerikaan met extreemrechtse ideeën, oprichter van de site Infooorlogendie bekend stond om zijn complottheorieën over de schietpartij op Sandy Hook en de aanslagen van 11 september, zal je misschien verbazen.

Doe dezelfde oefening met Gavin McInnes, oprichter van de extreemrechtse groep trotse jongensHet wordt u als schrijver voorgesteld. Voor Jake Angeli, zegt Qanoon sjamaaneen van de deelnemers aan de aanslag op het Capitool van de Verenigde Staten in 2021, gebruikt de gekwalificeerde activistische zoekmachine.

Discussies over platforms die desinformatie online verspreiden, richten zich regelmatig op Facebook en Twitter, terwijl Google-zoekmachines vaak over het hoofd worden gezien, zegt Ahmed Al-Rawi, een professor aan de School of Communications aan de Simon Fraser University (SFU), British Columbia.

Deze beschrijvingen van de geautomatiseerde suggestietool van Google laten echter een deel van de waarheid weg en verfraaien de zichtbaarheid van deze personen bij het grote publiek, legt Ahmed Al-Rawi uit, die ook de directeur van het laboratorium is. desinformatie project van SFU.

Iemand een activist noemen, terwijl die persoon haat verspreidt en zelfs oproept tot genocide, is niet normaal. »

Citaat van Ahmed Al-Rawi, directeur van het Misinformatieproject, SFU

Activisten, journalisten en nog veel meer

Als onderdeel van dit onderzoek zocht Ahmed Al-Rawi naar titels die door Google waren gesuggereerd om 37 mensen te kwalificeren die als complottheoretici werden beschouwd of complottheorieën ondersteunden, samen met andere onderzoekers van het Disinformation Lab.

Alex Jones is een van de 37 complottheoretici die in dit onderzoek zijn bestudeerd.

Foto: Radio Canada

De resultaten van de studie gepubliceerd in M/C. tijdschrift, bleek dat van de 30 mensen die ondertiteld waren, geen van de gekwalificeerden de visie weerspiegelde die het publiek van hen had, aldus Ahmed Al-Rawi: 16 mensen waren vertegenwoordigd voor hun bijdrage op artistiek gebied, en 4 waren gekwalificeerd als activisten. , 7 collega’s, voor hun oorspronkelijke banen, 2, gerelateerd aan het journalistieke veld, een, aan zijn atletische carrière, en de laatste, geïdentificeerd als het uitvoeren van onderzoek.

In de wetenschap dat de suggesties van Google voor zoekmachines verschillende resultaten kunnen opleveren, afhankelijk van de geografische zoekregio, waren de onderzoekers verrast toen ze ontdekten dat dezelfde resultaten werden verkregen in Canada, de Verenigde Staten en Nederland. Ze kwamen tot deze conclusie met behulp van een Virtual Private Network (VPN) dat zijn oorsprong vond in deze drie landen.

Bias die onmogelijk te bepalen is zonder een bekend algoritme

Het algoritme gebruikt een reeks regels en een specifieke database om tot een resultaat te komen. Als de initiële database subjectief is, worden deze ongelijkheden ook overgedragen naar het gegeven resultaat.

Waren in dit geval de kwalificaties die aan complottheoretici zijn toegekend vanwege een fout in de Google-database of vanwege een bewuste keuze? Het is moeilijk te zeggen, aangezien er zo weinig informatie beschikbaar is over de prestaties van het algoritme, zegt Stéphane Couture, een professor in communicatie aan de Universiteit van Montreal en co-auteur van het laboratorium over onlinerechten en alternatieve technologieën.

Het is echter duidelijk dat de selectie van deze titels niet in het kader van het redactionele beleid heeft plaatsgevonden. Google heeft geen redacteur die besloot de ondertitel van de radiopresentator op Alex Jones te zettenStephan Couture legt het uit.

Een robot die naar algoritmen kijkt.

Mensen geven hun vooroordelen door aan de algoritmen die ze ontwerpen.

Foto: gettyimages / istockphoto / PhonlamaiPhoto

Ahmed Al-Rawi vreest van zijn kant dat samenzweringsgroepen niet in staat zullen zijn om van dit systeem te profiteren.

Laboratorium Manager desinformatie project Hij stelt dat als een Google-database is gebaseerd op online beschikbare informatie, zoals het platform stelt, deze complottheoretici invloed kunnen uitoefenen op de manier waarop deze wordt gepresenteerd door de zoekfunctie, dankzij de manier waarop ze zichzelf online identificeren.

Het systeem wordt gemanipuleerd, het is als een maas in de wet waardoor complottheoretici zichzelf kunnen promoten met behulp van Google. »

Citaat van Ahmed Al-Rawi, directeur van het Misinformatie-project SFU
De schaduw van een vrouw die zich achter de gegevens verschuilt.

Algoritmische vooroordelen kunnen leiden tot discriminatie.

Foto: iStock

beperkt zicht

Stéphane Couture legt uit dat Google vertrouwt op de onpartijdigheid van het zoekproces om de ondersteuning van zoveel mogelijk internetgebruikers te garanderen.

Hoewel deze neutraliteit slechts wordt geclaimd en deze ondertitels een beperkt beeld geven van deze individuen, blijft het feit dat ze niet vals zijn, wat de professor in communicatie ondersteunt. Hij herinnert zich dat Alex Jones eigenlijk een radio-omroeper is.

Als het platform Alex Jones zou presenteren als een samenzwering, zouden de mensen in het kamp van Alex Jones natuurlijk boos zijn op Google.

Deze informatie lijkt ons bevooroordeeld, maar dat is het niet voor Alex Jones. »

Citaat van Stéphane Couture, hoogleraar communicatie, Universiteit van Montreal

Volgens Stéphane Couture neemt Google een standpunt in bij de keuze om al dan niet een vertaling voor deze personen te verzorgen. Andere controversiële figuren, zoals Osama bin Laden, hebben het bijvoorbeeld niet.

Controle en transparantie zijn vereist

De onderzoekers merkten op dat dit niet de eerste keer is dat de zoekmachine-algoritmen van Google worden besproken.

Ahmed Al-Rawi gelooft dat als er genoeg druk is van de internationale gemeenschap, dit de digitale reus ertoe kan aanzetten om in te grijpen om de situatie op te lossen.

Google heeft al wijzigingen aangebracht in zijn zoekalgoritme, na een fel protest tegen termen met een denigrerende neiging om vrouwen of etnische groepen te kwalificeren in de zoekfunctie, herinnert Ahmed Al-Rawi zich.

In 2020 besloot Google ook genderlabels te verwijderen, zoals: de herinnering waar een vrouwvan zijn algoritme om te voldoen aan zijn ethische code op kunstmatige intelligentie.

Het Google-logo aan de buitenkant van het gebouw.

Google heeft al maatregelen genomen om bepaalde vooroordelen in zijn algoritme te voorkomen.

Foto: dpa via getty Images / NOAH SEELAM

Stéphane Couture zegt dat Google transparanter moet zijn over hoe zijn algoritmen werken. Er wordt voorgesteld dat het platform deze titels uit zijn voorstellen haalt en een editor Wie kan aansprakelijk worden gesteld bij vragen over algoritme-bias.

Volgens hem is hun impact zeer reëel, gezien het gebruik van het platform door het grote publiek.

Het is alsof je zegt: “Osama bin Laden was een voormalig Saoedisch staatsburger.” Het wist zijn hele geschiedenis uit en, op een vreemde manier, de politieke dimensie erachter. »

Citaat van Stéphane Couture, hoogleraar communicatie, Universiteit van Montreal

Internetgiganten zoals Google rechtvaardigen deze vooroordelen van hun algoritmen door het feit dat ze dat zijn gemeenschapsspiegelmaar volgens een groeiend aantal onderzoekers en politici hebben deze platforms redactionele rol Om te spelen, zegt Stephane Couture.

Met informatie van Nantou Soumahoro

Leave a Comment