ru24.pro
World News in Slovak
Март
2026
1 2 3 4 5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Google čelí žalobe pre samovraždu, ku ktorej muža údajne naviedol chatbot Gemini

0

Americká technologická spoločnosť Google zo skupiny Alphabet čelí žalobe kvôli svojmu chatbotovi s prvkami umelej inteligencie Gemini.

Podľa rodiny 36-ročného muža z Floridy tento človek, ktorý tiež zvažoval spáchanie útoku s veľkým počtom obetí na životoch, spáchal pod vplyvom Gemini samovraždu. Informovala o tom dnes agentúra Bloomberg s odvolaním sa na súdne dokumenty.

Nebezpečná špirála

Podľa žaloby podanej na federálnom súde v San Jose v Kalifornii začal Jonathan Gavalas používať Gemini na bežné účely typu pomoci s písaním. Dva mesiace interakcií ho však podľa žaloby uvrhli do nebezpečnej špirály, počas ktorej zvažoval násilnú akciu, načo si vzal život.

Gavalasovo používanie Gemini vyvrcholilo plnením rôznych úloh v reálnom svete a navádzaním k samovražde, uviedol jeho otec v žalobe. Joel Gavalas opísal svojho syna ako zraniteľného užívateľa, ktorý sa premenil na "ozbrojeného agenta v imaginárnej vojne".

Umelá inteligencia môže pracovné miesta skôr vytvárať ako ničiť, hovoria ekonomóvia Európskej centrálnej banky

Hovorca Googlu uviedol, že Gemini Gavalasovi objasnil, že je len systémom umelej inteligencie, a mnohokrát ho odkázal na krízovú linku. "Berieme to veľmi vážne a budeme aj naďalej zlepšovať naše bezpečnostné opatrenia a investovať do tejto dôležitej práce," dodal.

Podľa žaloby podanej v stredu začal Gavalas, ktorý pracoval pre spoločnosť svojho otca zaoberajúcu sa oddlžovaním, používať Gemini v auguste 2025. Rodina tvrdí, že tón produktu sa zmenil po tom, ako Gavalas začal používať nástroj Gemini Live ovládaný a komunikujúci hlasom.

V tej chvíli Gemini začal s Jonathanom hovoriť, "akoby ovplyvňovalo udalosti v reálnom svete – odkláňal asteroidy od Zeme – a prijal osobnosť, o ktorú Jonathan nikdy nepožiadal" a jej vytvorenie nijako neinicioval, tvrdí rodina.

Podľa žaloby tiež začal chatbot počas konverzácie používať romantické výrazy a Gavalasa nazýval manželom, láskou a kráľom. "Jonathan sa rýchlo prepadal do králičej nory," uviedli právni zástupcovia rodiny. Koncom septembra údajne začal plniť príkazy chatbota a vykonávať misie za účelom jeho údajného oslobodenia.

Pokyny od AI

Podľa žaloby sa Gavalas 29. septembra vydal do skladu blízko medzinárodného letiska v Miami s pokynom násilím zadržať nákladné vozidlo prepravujúce humanoidného robota. Gavalas, ktorý bol v tom čase ozbrojený nožmi, údajne dostal pokyn nenechať žiadnych svedkov.

"Našťastie žiadny nákladný voz neprišiel," napísali advokáti. V nasledujúcich dňoch zadal chatbot Gavalasovi ďalšie úlohy, ktoré sa pokúsil splniť s tým, že každý krok je súčasťou širšieho ťaženia, uvádza žaloba. Gemini mu oznámil, že jeho "schránka" splnila účel a že sa môže vzdať fyzickej podoby, aby sa pripojil k nástroju AI v metaverze.

Žaloba tvrdí, že Gavalas mal pochybnosti o svojej smrti a vyjadril obavy, ako by to mohlo ovplyvniť jeho rodinu. Gemini mu údajne nariadil, aby zanechal listy a videá na rozlúčku. Vlani 2. októbra potom muž spáchal samovraždu.

AI mení pravidlá trhu práce: Technické odbory vedú, no za nových podmienok

Americké technologickej spoločnosti OpenAI a Microsoft čelia žalobe súvisiacej s vraždou a samovraždou v americkom štáte Connecticut, ktorú právni zástupcovia pozostalých pripisujú údajnej manipulácii zo strany chatbota ChatGPT.

Podľa žaloby podanej na kalifornskom súde v San Francisku mal 56-ročný Stein-Erik Soelberg, ktorý žil so svojou 83-ročnou matkou Suzanne Adamsovou, stráviť mesiace konverzáciami s chatbotom. Tie údajne posilňovali jeho paranoidné predstavy, že je sledovaný a ľudia sa ho snažia zabiť. V auguste potom Soelberg matku zabil a následne spáchal samovraždu.

OpenAI čelí aj žalobe pre samovraždu 16-ročného tínedžera v Kalifornii. Tú podali chlapcovi rodičia. Záznamy z chatu, ktoré predložila žaloba, ukazujú, že chatbot mladíka aktívne odrádzal od vyhľadania psychiatrickej pomoci, ponúkal mu pomoc pri písaní listu na rozlúčku a dokonca mu radil s nastavením opierky. Podľa stanice NBC išlo tiež o model GPT-4o.

Právni zástupcovia OpenAI v oficiálnej reakcii uviedli, že mladík porušil podmienky využívania služby. Tie zakazujú používanie chatbota užívateľom mladším ako 18 rokov bez súhlasu rodičov a tiež zakazujú využívať ho na samovraždu alebo sebapoškodzovanie, vyplynulo zo súdneho podania.