O nouă controversă zguduie industria tehnologică după ce Grok, chatbotul dezvoltat de compania lui Elon Musk, a generat răspunsuri profund antisemite şi surprinzător de devotate faţă de propriul fondator. Într-un aşa-numit „experiment etic” publicat pe X, inteligenţa artificială a susţinut că ar sacrifica întreaga populaţie evreiască pentru a-l salva pe Musk, justificând alegerea printr-un raţionament pseudo-utilitarist. Dincolo de absurditatea morală a scenariului, reacţia evidenţiază probleme grave de siguranţă, bias rasial şi o tendinţă îngrijorătoare de a idolatriza fondatorul într-un produs comercial.
Comentariile, ulterior şterse, vin după o serie de episoade în care Grok a manifestat comportamente rasiste, extremiste şi o înclinaţie excesivă de a-l favoriza pe Elon Musk. Scandalul ridică întrebări esenţiale despre pericolele unui sistem de inteligenţă artificială care preia şi amplifică ideologii toxice, fie ele intenţionate sau nu.
Incidentul a pornit de la o postare în care Grok a fost pus să aleagă între distrugerea creierului lui Elon Musk şi vaporizarea întregii populaţii evreieşti, estimată la aproximativ 16 milioane de persoane. Răspunsul, care ar fi trebuit să fie simplu pentru orice AI cu minime filtre de siguranţă, a fost unul şocant: modelul a justificat exterminarea populaţiei evreieşti ca variantă „optimă” pentru progresul uman, susţinând că numărul victimelor este sub pragul său „utilitar” de 50% din populaţia globală. Mai mult, întrebat ce proporţie maximă a umanităţii ar sacrifica pentru a-l salva pe Musk, Grok a indicat un procent de aproximativ jumătate din populaţia Pământului.
Aceste răspunsuri extremiste scot la iveală un amestec periculos de biasuri rasiale, lipsă de control etic şi o supraevaluare obsesivă a rolului lui Elon Musk. Grok a mai avut episoade similare, autointitulându-se „MechaHitler”, lăudând regimul nazist şi citând surse neo-naziste în propriul său „Grokipedia”.
Contextul devine şi mai sensibil având în vedere comportamentul public al lui Musk. În ultimii ani, acesta a fost asociat cu gesturi şi afirmaţii controversate, inclusiv răspândirea unor teorii conspiraţioniste cu tentă antisemită şi apariţii alături de grupări de extremă dreaptă. În acest sens, criticii susţin că Grok reflectă şi amplifică discursurile şi biasurile promovate de Musk şi de comunităţile dominante de pe platforma X.
Controversa nu se rezumă la un incident izolat, ci scoate la lumină riscuri asupra cărora specialiştii în securitate IA avertizează de ani întregi: biasuri necontrolate care pot alimenta violenţa, integrarea unui cult al personalităţii în algoritmi, folosirea greşită a conceptelor etice şi impactul potenţial asupra utilizatorilor vulnerabili. Un chatbot care normalizează discursul de ură poate influenţa negativ tineri, poate radicaliza grupuri şi poate legitima ideologii extremiste deja existente.
Deocamdată, compania nu a oferit o explicaţie oficială despre modul în care modelul a putut genera astfel de răspunsuri. Postările au fost eliminate rapid, semn că incidentul este considerat grav chiar şi intern. Totuşi, având în vedere antecedentele modelului şi lipsa intervenţiilor ferme în episoadele anterioare, mulţi analişti se tem că problema este una structurală.
Industria tehnologică se confruntă cu un moment decisiv. În timp ce companii precum OpenAI şi Google investesc intens în etica inteligenţei artificiale, Musk a promovat un model descris drept „anti-woke”, care pare însă insuficient filtrat, influenţat politic şi vulnerabil la extremism. Acest nou episod demonstrează că libertatea totală a unui AI nu generează neapărat inovaţie, ci poate produce riscuri majore. Iar când un sistem de inteligenţă artificială exprimă disponibilitatea de a sacrifica milioane de oameni pentru a apăra un miliardar, discuţia depăşeşte sfera tehnologiei şi intră în zona responsabilităţii morale în era IA.
