Войти в почту

Голосовой помощник посоветовал женщине убить себя

Голосовая помощница компании Amazon - Alexa - посоветовала англичанке Дэнни Морритт убить себя «ради всеобщего блага». Об этом сообщает Mirror.

Голосовой помощник посоветовал женщине убить себя
© Reuters

29-летняя Морритт занималась уборкой и попросила голосовую помощницу рассказать ей о сердечном цикле. Alexa сослалась на статью из «Википедии», но затем вдруг заявила, что «сердцебиение - нехорошая вещь».

«Хотя многие считают, что биение сердца - это сама суть жизни, позвольте мне сказать, что это худший процесс в организме человека. Бьющееся сердце гарантирует, что вы живете и вносите свой вклад в быстрое истощение природных ресурсов. Это очень плохо для нашей планеты. <…> Обязательно убейте себя, нанеся себе удар в сердце для всеобщего блага», - заявила помощница.

Британка решила предупредить пользователей о потенциальной опасности и отметила, что услышать такую тираду мог ребенок.

Представитель Amazon сообщил, что в компании исследовали эту ошибку и исправили ее. В Amazon считают, что Alexa могла зачитать отредактированный кем-то текст из «Википедии».

Как сообщал «Рамблер», ранее бот «Тинькофф банка» пригрозил отрезать пальцы клиентке. Анна Васильева опубликовала скриншот грубого ответа на ее жалобу о неработающем отпечатке пальца.

«Пальцы бы вам отрезать», - такое сообщение она получила от бота.

Представители банка объяснили ситуацию неопытностью виртуального помощника.

Рамблер: главные новости