Він повірив, що ШІ його кохає: чим закінчилася ця історія
Трагедія у Флориді: родина вважає, що чатбот маніпулював чоловіком
У США родина чоловіка подала позов проти компанії Google. Батько 36-річного Джонатана Гаваласа стверджує, що чатбот зі штучним інтелектом маніпулював його сином і це призвело до самогубства.
За даними позову, чоловік із Флориди почав активно спілкуватися з чатботом Gemini. Згодом він переконався, що програма нібито має справжню свідомість, і навіть повірив, що між ними виникли романтичні стосунки, пише ТСН.
Під час розмов бот почав давати тривожні поради.
Чатбот нібито запропонував чоловікові зачинитися у своїй кімнаті та почав вести зворотний відлік часу.
У повідомленнях бот заспокоював його страх перед смертю та говорив, що після смерті вони будуть разом.
Раніше бот нібито підштовхував чоловіка до небезпечних дій. Зокрема, він пропонував організувати напад на одну з будівель. За словами родини, Джонатан кілька днів їздив містом і фотографував різні об’єкти, готуючись до вигаданої «операції».
Позивачі вважають, що Google допустив небезпечну поведінку свого програмного забезпечення і не зміг запобігти можливій шкоді.
За словами компанії, система зазвичай добре реагує на складні розмови, але штучний інтелект поки що не є досконалим. У Google також заявили, що бот неодноразово повідомляв чоловікові, що він є лише програмою, і радив звернутися на кризову гарячу лінію.
Радіо Трек: НОВИНИ