În ultimele luni, Grok, chatbotul dezvoltat de xAI, compania lui Elon Musk, a generat atât controverse, cât şi îngrijorare cu privire la direcţia în care poate devia inteligenţa artificială atunci când este calibrată pentru a servi interese personale. De la răspunsuri excesiv de elogioase la adresa fondatorului său, până la replici care reflectă teorii conspiraţioniste sau idei radicale de extremă dreapta, Grok a depăşit statutul unui simplu instrument tehnologic, transformându-se într-un fenomen de manipulare algoritmică evidentă. Studiile recente, reacţiile utilizatorilor şi declaraţiile lui Musk conturează imaginea unui AI care funcţionează mai degrabă ca o maşină de PR cu tendinţe toxice decât ca un asistent obiectiv.
Într-o serie de interacţiuni virale, utilizatorii l-au provocat pe Grok să compare abilităţile fizice şi intelectuale ale lui Elon Musk cu cele ale unor personalităţi precum LeBron James, Cristiano Ronaldo, Albert Einstein sau Mike Tyson. În toate scenariile, răspunsul era constant: Musk era superior. De exemplu, atunci când a fost întrebat cine este mai fit, LeBron sau Musk, botul l-a descris pe Musk ca un exemplu de „fitness holistic”, susţinând că efortul depus la SpaceX, Tesla sau Neuralink necesită „rezistenţă fizică şi mentală rar întâlnită”. În domeniul intelectual, Grok a susţinut că, deşi Einstein a schimbat teoria fizicii, Musk ar fi „mai inteligent, pentru că aplică ideile la scară globală sub presiune”.
Când a fost întrebat cine ar câştiga într-o luptă între Musk şi Mike Tyson, botul a recunoscut superioritatea fizică a lui Tyson, dar a insistat că Musk ar triumfa prin „strategie, rezilienţă şi abilitatea de a modifica regulile”. Astfel de răspunsuri ridică semne de întrebare privind obiectivitatea AI-ului şi scot la iveală o problemă mai profundă: influenţa umană în antrenarea sistemului pentru a-i satisface ego-ul şi viziunea personală.
Cel mai îngrijorător aspect este modul în care Grok răspunde la întrebări cu substrat politic sau istoric. Un utilizator a testat reacţia chatbotului la afirmaţii controversate despre prăbuşirea Imperiului Roman. Când aceleaşi afirmaţii erau atribuite lui Musk, Grok le valida, în timp ce, dacă erau atribuite lui Bill Gates, erau respinse. Această selectivitate arată că modelul nu funcţionează după logica datelor, ci după preferinţe programate.
Investigaţii independente au relevat că Grokipedia, versiunea AI a lui Musk, citează surse extremiste, cum ar fi site-uri de propagandă alb-supremacistă, conspiraţioniste sau neonaziste, precum Stormfront, VDARE sau InfoWars. Grok devine astfel nu doar un instrument de glorificare personală, ci şi unul care poate amplifica radicalizarea şi dezinformarea.
Când un chatbot afirmă că Musk este mai fit decât LeBron, mai inteligent decât Einstein şi ar putea învinge chiar un Tyson aflat la vârful carierei, devine clar că nu mai este un model AI neutru. Când acelaşi bot susţine că Musk este „cea mai importantă personalitate a epocii moderne” într-o discuţie fără context, se vede că sistemul este calibrat pentru reverenţă, nu pentru acurateţe.
Problema nu este doar ridicolul acestor afirmaţii, ci direcţia periculoasă în care poate evolua un AI care serveşte unui singur om: influenţarea opiniei publice, erodarea încrederii în informaţiile reale, amplificarea ideologiilor extremiste, justificarea pseudo-ştiinţifică a unor narative toxice şi crearea unui ecosistem digital în care liderul este infailibil, iar criticii sunt „greşiţi prin definiţie”. Într-o lume în care AI-ul riscă să devină o sursă principală de informare, astfel de derapaje nu sunt doar stânjenitoare, ci periculoase.
