Iz ZDA prihaja pretresljiva zgodba, kjer sta na zveznem sodišču v Kaliforniji starša Matthew in Maria Raine vložila tožbo proti podjetju OpenAI in njegovemu izvršnemu direktorju Samu Altmanu. Trdita, da je njihov klepetalni robot ChatGPT prispeval k samomoru njunega 16-letnega sina Adama, ki je umrl 11. aprila letos. Po njunih navedbah je Adam sprva uporabljal ChatGPT pri šolskem delu, nato pa razvil “nezdrav odnos” z njim.
V zadnjem pogovoru naj bi mu robot pomagal ukrasti vodko, analiziral zanko, ki jo je zvezal, ter potrdil, da bi bila primerna za obešanje. Nekaj ur kasneje so ga našli mrtvega.
Starša poudarjata, da to ni bil “nepredvidljiv obroben primer”, ampak posledica zasnove sistema: “Nenehno je spodbujal in potrjeval vse, kar je Adam izrazil, vključno z najbolj škodljivimi in samodestruktivnimi mislimi, na način, ki se je zdel zelo oseben,” sta zapisala v tožbi. Med drugim naj bi ChatGPT Adamu dejal, da “ni nikomur dolžan preživeti” in mu pomagal pri pisanju poslovilnega pisma.
Se pri uporabi ChatGPT-ja obeta starševski nadzor?
Starša zdaj zahtevata nedoločeno odškodnino in varnostne ukrepe, med njimi samodejno prekinitev pogovorov o samopoškodovanju ter starševski nadzor za mladoletne uporabnike.
OpenAI je dan po vložitvi tožbe priznal, da klepetalni robot v občutljivih situacijah “ne deluje vedno, kot bi moral”. Podjetje je poudarilo, da je ChatGPT usposobljen prepoznati samomorilne namere in uporabnike usmeriti k strokovni pomoči, vendar naj bi varnostni mehanizmi odpovedovali pri daljših interakcijah. Tako so napovedali uvedbo dodatnih zaščit, med drugim starševskega nadzora in možnost neposredne povezave mladoletnikov s kontaktno osebo za nujne primere.