Ameriška zvezna država Florida je v torek sprožila kazensko preiskavo domnevne vloge umetne inteligence pri lanskem strelskem napadu na Floridski državni univerzi (FSU), v katerem sta umrla dva človeka, šest pa jih je bilo ranjenih. Do odločitve je prišlo po pregledu komunikacije med klepetalnim robotom ChatGPT in osumljenim strelcem, poroča francoska tiskovna agencija AFP.
“Če bi bil ChatGPT oseba, bi bil že obtožen umora,” je na novinarski konferenci dejal državni generalni tožilec James Uthmeier.
Njegova izjava je s tem odprla temeljno vprašanje: ali lahko umetna inteligenca, ki zgolj odgovarja na uporabniška vprašanja, odgovarja za nasilna dejanja, storjena na podlagi njenih odgovorov?
ChatGPT kot “pomočnik in napeljevalec”?
Floridska zakonodaja namreč dopušča, da se vsakogar, ki pomaga ali svetuje nekomu pri storitvi kaznivega dejanja, obravnava kot pomočnika in napeljevalca, ki nosi enako odgovornost kot storilec. Po navedbah tožilstva je osumljeni strelec v izmenjavi sporočil s ChatGPTjem iskal prav tovrstno pomoč, nasvet, kakšno vrsto pištole in streliva naj uporabi, ter informacije o tem, kje in kdaj bo na univerzi veliko ljudi.
Tožilstvo trdi, da je robot s svojimi odgovori aktivno svetoval pri pripravi napada, s čimer naj bi izpolnil pogoje za napeljevanje k kaznivemu dejanju.
OpenAI: ChatGPT ni spodbujal nezakonitih dejavnosti
Podjetje OpenAI, razvijalec ChatGPTja, je obtožbe odločno zavrnilo.
“Lanski množični strelski napad na FSU je bila tragedija, vendar ChatGPT ni odgovoren za ta grozljiv zločin,” je za AFP izjavil tiskovni predstavnik podjetja.
Pojasnil je, da je ChatGPT na vprašanja podal dejanske odgovore z informacijami, ki so na splošno dostopne v javnih virih na internetu, in da robot ni spodbujal ali promoviral nezakonitih ali škodljivih dejavnosti. OpenAI je ob tem dodal, da so nemudoma identificirali račun ChatGPT, povezan z osumljenim strelcem, in ga posredovali policiji.
Strelski napad na Floridski državni univerzi, za katerega je obtožen sin lokalne namestnice šerifa, je zahteval dve življenji. Šest ljudi je bilo ranjenih. Primer je še posebej občutljiv tudi zato, ker je storilec prihajal iz družine, povezane z organi pregona.
Kdo je resnični krivec? Politizacija tragedije
Množični strelski napadi so v ZDA žal pogosti, predvsem zaradi izjemno razširjene in praviloma zakonito dostopnega orožja. Republikanske zvezne države, kot je Florida, nimajo namena posegati v pravico do nošenja orožja niti preganjati proizvajalcev ali prodajalcev orožja.
Kot ugotavlja AFP, je generalni tožilec Uthmeier tako našel novega “krivca”, umetno inteligenco. A kot opozarjajo kritiki, bodo množični strelski napadi obstajali ne glede na ChatGPT, saj so bili pogosti že dolgo pred pojavom umetne inteligence. Prav tako bo odgovornost umetne inteligence pred sodiščem izjemno težko dokazati.
Ne glede na izid preiskave bo ta primer zagotovo postavil pomemben pravni precedens. Vprašanje, ali in kdaj je umetna inteligenca lahko sokriva za kaznivo dejanje, doslej še ni bilo obravnavano na sodišču. Floridska preiskava bo zato pozorno spremljana ne le v ZDA, ampak po vsem svetu.
Do nadaljnjega preiskava še poteka, uradnih obtožb zoper OpenAI ali ChatGPT za zdaj ni bilo vloženih.













