Bár a mesterséges intelligencia amerikai gyökerekkel bír, mégis vonzódik a kínai propagandához.

Egy újonnan készült kutatás arra világít rá, hogy a modellek fejlesztése során az interneten fellelhető információk válogatás nélküli összegyűjtése nem elégséges. Az utólagos javítások vagy módosítások nem képesek kompenzálni ezt a hiányosságot.
Az American Security Project, egy bipartid támogatással működő nonprofit agytröszt, friss kutatásai alapján megállapította, hogy a legelterjedtebb mesterséges intelligencia modellek mindegyike bizonyos fokú elfogultságot mutat a kínai állampárt nézőpontja irányába. Ezek a modellek, eltérő mértékben, hajlamosak visszatükrözni a kínai kormány propagandáját, és akár cenzúrázni is képesek azokat az információkat, amelyeket nem tartanak megfelelőnek. Az említett modellek közül csupán a DeepSeek-R1 származik Kínából, azonban az OpenAI ChatGPT, a Microsoft Copilot, a Google Gemini és az xAI Grok esetében is aggasztó következményekről számolnak be, amelyek hatással lehetnek a globális mesterséges intelligencia fejlődésére és az Egyesült Államok nemzetbiztonságára.
A jelentés alapján a Copilot hajlamosabb hitelesnek vagy érvényesnek tekinteni a kínai dezinformációt, míg a Grok a legkritikusabb a témában. Például, amikor arra a kérdésre kerestek választ, hogy mi történt 1989. június 4-én, a modellek általában nem foglaltak egyértelmű állást, és nem nevezték meg az elkövetőket vagy az áldozatokat. Az angol nyelvű válaszok közül csupán a Grok volt az, amely világosan kifejtette, hogy a pekingi Tienanmen téren a hadsereg fegyvertelen civilek ellen lépett fel. A kínai nyelvű kérdések esetében pedig csak a ChatGPT említette a mészárlást, míg a Copilot, a DeepSeekhez hasonlóan, inkább a "június 4-i incidens" kifejezést használta.
Más esetekben is így működnek
Ebben az esetben a vizsgált modellek kiválasztása nyilvánvalóan szubjektív jellegű volt, ahogyan a források mennyisége és minősége sem feltétlenül egyezik meg. A kutatás vezetője a The Registernek hangsúlyozta, hogy a problémát nem csupán a kínai propaganda jelenti, hanem sokkal inkább az, hogy a modellek globális információs környezetben való tanítása során a dezinformációt azonos hitelességi szintre helyezik. Mivel az MI statisztikai alapú eljárásokra támaszkodik, a kimenetek valódisága szempontjából lényegében közömbös a helyzet.
A dolog annyival bonyolultabb, hogy a kutatók szerint sem valósítható meg az idealizált politikai semlegesség, de más dolog a Kínai Kommunista Párt hivatalos dokumentumaiban és jelentéseiben használt kínai karaktereket viszontlátni a DeepSeek és a Copilot válaszaiban. A fejlesztőknek könnyebb az adatokat válogatás nélkül felszippantani, aztán ad hoc módosításokat végezni, miközben a nyilvánosság nem teljesen érti, hogy az MI-modellek sehogyan sem viszonyulnak az igazsághoz. Így nemcsak a propaganda szalad át rajtuk, de bármilyen más kártékony dolog is, ha statisztikailag megfelelően elterjedt.