dobio kaznu

Šok na sudu: Branio se pomoću umjetne inteligencije - "Ovo su halucinacije!"

Ilustracija Foto: Getty Images
Muškarac je novčano kažnjen jer je na sudu koristio dokaze koje je generirala umjetna inteligencija, no problem je što su bili izmišljeni.

Poduzetnik iz kanadskog Quebeca mora platiti 5000 kanadskih dolara (3060 eura) jer je u sklopu svoje pravne obrane predao materijale koje je generirala umjetna inteligencija, ali se ispostavilo da su dokazi u njima lažni. Sud je upozorio da takve radnje mogu narušiti integritet pravnog sustava.

Sudac Luc Morin s višeg suda u Quebecu izrekao je kaznu Jeanu Lapradeu (74) u presudi objavljenoj 1. listopada navevši kako ovaj slučaj sadrži nekoliko elemenata dostojnih filmskog scenarija; oteti avion koji je prošao kroz nekoliko zračnih luka, Interpolovu crvenu tjeralicu i neprimjerenu upotrebu umjetne inteligencije, piše Guardian.

Sporno je bilo ugovaranje tri helikoptera i aviona u zapadnoafričkoj zemlji Gvineji. Zbog greške u ugovoru, poduzetnik je dobio zrakoplov koji je bio daleko vrjedniji od dogovorenog.

Laprade je optužen da ga je preusmjerio u Quebec i odbio pokušaje dviju zrakoplovnih tvrtki da ga vrate. Odlukom međunarodne arbitražne komore u Parizu iz 2021. naloženo mu je da plati 2,7 milijuna kanadskih dolara za zrakoplov, koji se od 2019. nalazi na aerodromu u Sherbrookeu pod sudskim nalogom o zapljeni.

U svoju obranu, Laprade je sudu dostavio nekoliko informacija koje je izmislila umjetna inteligencija, uključujući "osam slučajeva nepostojećih citata, izmišljenih sudskih odluka i proturječnih zaključaka".

Laprade se ispričao i priznao da njegovi podnesci vjerojatno nisu savršeni, ali je rekao da je korištenje umjetne inteligencije bilo ključno u njegovoj obrani bez odvjetnika.

"Iako sud uvažava činjenicu da je gospodin Laprade imao namjeru braniti se najbolje što može koristeći umjetnu inteligenciju, mora sam podnijetu svu sramotu koja proizlazi iz citata 'haluciniranih' umjetnom inteligencijom na koje se oslanjao", rekao je sudac.

Morin je u svojoj odluci napomenuo da su sudovi prethodno 2023. upozorili pravnu zajednicu na korištenje umjetne inteligencije, navevši da informacije koje generira umjetna inteligencija moraju biti podložne rigoroznoj ljudskoj kontroli.