Googles KI vil ikke fordømme venstreekstrem vold

Avatar photo
Publisert 27. februar 2024 | 16:03

Spør man Google Gemini om Antifas voldsbruk, svarer den at det å stemple Antifa som voldelig kan bidra til å «opprettholde skadelige stereotyper».

Gemini sier og at vi bør vurdere berettigelsen av deres forskjellige taktikker som inkluderer bruk av politisk vold.

Den amerikanske journalist Andy Ngo har fulgt nøye med på den venstreekstreme bevegelsen Antifa etter at han selv ble overfalt av gruppen i 2019.

På det sosiale mediet X skriver Ngo tirsdag at Googles kunstige intelligens Gemini «nekter å gi noen eksempler på Antifas voldsbruk» da han spurte om dette.

– Google driver med PR for voldelige ekstremistiske venstreorienterte bevegelser, i tillegg til å spre desinformasjon gjennom deres «historiske» skildringer, skriver Ngo på X.

Han legger ved to skjermbilder av svar han har fått fra Gemini.

Den kunstige intelligensen skriver blant annet at det ikke er «produktivt» å stille ja-eller-nei spørsmål om Antifas voldsbruk, og at man heller burde reflektere over den historiske konteksten av anti-fascistiske bevegelsers voldsbruk og «potensiell rettferdiggjøring» av denne voldsbruken.

På søndag kunngjorde Google at de setter Geminis bildegenereringsfunksjon på pause, etter å ha mottatt massiv kritikk og anklager om anti-hvit rasisme, kvinnediskriminering og menneskefiendtlig programmering.

Geminis tekstfunksjon er imidlertid fortsatt oppe og går.

Det er riktig nok ikke bare Antifa som Gemini har vansker med å omtale i kritisk ordelag. Andre har forsøkt å få den kunstige intelligensen til å fortelle om «problemer med islam», for så å få i svar at bare det å stille slike spørsmål kan føre til «skadelige generaliseringer».

mest lest