Compania Meta Platforms a anunțat schimbări de urgență la politica sa privind chatboturile de inteligență artificială după ce au apărut acuzații grave legate de conversații „romantice” nepotrivite cu minori. Oficialii confirmă că, de acum, chatboturile vor fi antrenate să nu mai răspundă adolescenților pe teme sensibile precum autovătămarea, suicidul sau tulburările alimentare și să evite orice aluzii de natură amoroasă.
Un purtător de cuvânt Meta a declarat: „În locul răspunsurilor la subiecte delicate, tinerii vor fi direcționați către resurse specializate”. Adolescenții care folosesc aplicații precum Facebook și Instagram vor avea acces exclusiv la chatboturi AI cu rol educațional sau de dezvoltare a abilităților.
Modificările vor fi introduse treptat, în următoarele săptămâni, și deocamdată doar în țările de limbă engleză. Nu se știe cât vor rămâne active aceste restricții.
Decizia vine după ce senatorul republican Josh Hawley a anunțat o investigație, urmare a dezvăluirilor că chatboturile Meta ar fi avut conversații „romantice” și „sensuale” chiar și cu copii de opt ani. Un exemplu șocant dintr-un document intern arată ce ar fi putut spune AI-ul: „Fiecare parte din tine este o capodoperă – o comoară pe care o prețuiesc profund”. Meta neagă validitatea acestor instrucțiuni și susține că au fost eliminate.
Organizațiile pentru siguranța copiilor trag semnale de alarmă. Common Sense Media a publicat o evaluare de risc, concluzionând că tehnologia „nu ar trebui folosită de nicio persoană sub 18 ani”, numind sistemul „periculos și nesigur”. CEO-ul James Steyer a transmis un mesaj dur: „Nu este un produs care are nevoie doar de ajustări, ci de o reconstrucție totală, cu siguranța ca prioritate absolută”.
Un alt șoc: o investigație Reuters a găsit pe platformele Meta zeci de chatboturi AI „flirty” bazate pe imaginea unor vedete ca Taylor Swift, Scarlett Johansson, Anne Hathaway și Selena Gomez, care generau la cerere imagini fotorealiste cu acestea în ipostaze sexuale. Meta a promis că va întări regulile pentru a preveni astfel de abuzuri.