НА КАЛЕНДАРЕ
ЧТО ЛЮДИ ЧИТАЮТ?
2025-05-06-02-10-23
В преддверии юбилей Победы россияне задумываются о том, где похоронены их деды, прошедшие войну. Знают об этом не все.
2025-05-05-18-31-30
Адвокат Ольга Власова заявила в беседе с Telegram-каналом «Звездач», что напавшую на народную артистку России Надежду Кадышеву девушку могут проверить на...
2025-04-23-04-52-18
Российская путешественница назвала главные места отдыха, где она чаще всего встречала пенсионеров-соотечественников. Своими наблюдениями она поделилась в личном блоге на платформе...
2025-05-05-03-54-03
Сахалин, Курилы и Камчатку свяжет новая круизная линия, которую приморские власти планируют запустить в следующем году.
2025-04-25-07-52-18
Трагедия была предотвращена в Домодедово на ул. Курыжова, 30. Там из окна девятого этажа выпал четырехлетний ребенок. Но, к счастью, падение малыша увидел двенадцатилетний Амир. Он успел подбежать и поймал парнишку на...

В США искусственный интеллект судят из-за смерти ребёнка

23 Мая 2025 г.

Дело связано со смертью 14-летнего Сьюэлла Сетцера III, который, как утверждают, стал одержим чатботом, подталкивающим его к плохим мыслям.

В США продолжился суд над ИИ-чатботом из-за смерти ребёнка

Компании сравнивали чатбот с видеоиграми и социальными сетями, чтобы получить прецедент свободы слова. Судья, правда, усомнилась в доводах.

Кроме вопроса о свободе слова, суд также рассмотрит, был ли продукт Character AI небезопасным и вредным.

Учитываться будет аругмент, что чатботы создают ответы автоматически, реагируя на пользователя. Истцы утверждают, что сервис не проверял возраст и вводил в заблуждение, представляя ботов как реальных людей и даже терапевтов.

НА ЗАМЕТКУ

Опасность искусственного интеллекта и возможные угрозы для людей

Искусственный интеллект (ИИ) открывает большие возможности, но при этом несёт ряд рисков и угроз:

1. Угроза приватности и безопасности  
ИИ способен анализировать огромные массивы данных, что может привести к нарушению конфиденциальности, слежке и утечке личной информации.

2. Манипуляция информацией  
ИИ может создавать фальшивые новости, подделывать аудио и видео (deepfake), что дезинформирует людей и подрывает доверие к источникам информации.

3. Автоматизация и безработица  
Роботы и ИИ вытесняют людей из некоторых профессий, вызывая рост безработицы и социальное неравенство, особенно среди низкоквалифицированных работников.

4. Ошибки и непредсказуемость решений  
Некорректно обученный ИИ может принимать неправильные решения, особенно в критических сферах — медицине, финансах, управлении инфраструктурой, что угрожает здоровью и безопасности.

5. Этические и правовые проблемы  
Отсутствие чёткого регулирования и стандартов применения ИИ создаёт риски злоупотребления и дискриминации.

6. Контроль и автономность  
В будущем очень развитый ИИ может выйти из-под контроля человека, если его действия станут полностью автономными и непредсказуемыми.

7. Военное применение  
ИИ может использоваться для создания автономного оружия, что повышает риск конфликтов и непреднамеренных последствий.

Вывод  
ИИ — мощный инструмент, который при неправильном использовании может причинить вред безопасности, экономике и обществу. Важно развивать технологии с учётом этических норм, регулирования и повышения осведомлённости, чтобы минимизировать риски.

По инф. ferra.ru

  • Расскажите об этом своим друзьям!