Skip to main content

Companiile de top din industria IT se angajează să combată utilizarea înșelătoare a AI în alegerile din 2024

Recent la Conferința de Securitate de la München (MSC), companiile de tehnologie de vârf s-au angajat să ajute la prevenirea interferenței conținutului AI înșelător cu alegerile globale din acest an, în care vor vota peste patru miliarde de oameni din peste 40 de țări.

“Acordul tehnologic pentru combaterea utilizării înșelătoare a AI în alegerile din 2024” este un set de angajamente pentru implementarea tehnologiei de combatere a conținutului dăunător generat de AI, menit să înșele alegătorii. Semnatarii se angajează să colaboreze la instrumente pentru detectarea și abordarea distribuției online a unui astfel de conținut AI, să conducă campanii educaționale și să ofere transparență, printre alți pași concreți. Acesta include, de asemenea, un set larg de principii, inclusiv importanța urmăririi originii conținutului înșelător legat de alegeri și necesitatea de a sensibiliza publicul cu privire la această problemă. Acordul este un pas important pentru protejarea comunităților online împotriva conținutului AI dăunător și se bazează pe activitatea continuă a companiilor individuale.

Conținutul digital abordat de acord constă în audio, video și imagini generate de AI care falsifică sau modifică în mod înșelător aspectul, vocea sau acțiunile candidaților politici, ale oficialilor electorali și ale altor părți interesate cheie într-o alegere democratică sau care oferă informații false alegătorilor despre când, unde și cum pot vota.

Companiile semnatare sunt: Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap, Stability AI, TikTok, TrendMicro, Truepic și X.

Companiile participante au convenit asupra a opt angajamente specifice:

  1. Dezvoltarea și implementarea tehnologiei pentru atenuarea riscurilor legate de conținutul electoral înșelător al IA, inclusiv instrumente cu sursă deschisă, dacă este cazul
  2. Evaluarea modelelor care intră în domeniul de aplicare al prezentului acord pentru a înțelege riscurile pe care le pot prezenta în ceea ce privește conținutul electoral înșelător al IA
  3. Încercarea de a detecta distribuirea acestui conținut pe platformele lor
  4. Încercarea de a aborda în mod corespunzător acest conținut detectat pe platformele lor
  5. Promovarea rezilienței intersectoriale la conținutul electoral înșelător al IA
  6. Asigurarea transparenței publicului cu privire la modul în care compania o abordează
  7. Continuarea colaborării cu un set divers de organizații globale ale societății civile, cadre universitare
  8. Sprijinirea eforturilor de promovare a sensibilizării publicului, a educației în domeniul mass-mediei și a rezilienței întregii societăți