НА КАЛЕНДАРЕ
ЧТО ЛЮДИ ЧИТАЮТ?
2025-06-16-07-00-02
Бодибилдер Юлия Родина находилась на одном из самых популярных пляжей Пхукета – Банг-Тао. И когда девушка купалась, то попала в сильное обратное течение, ставшее для нее...
2025-06-09-03-37-13
Работодатель имеет право запретить пить чай на рабочем месте в локальных актах, но только в случае, если работники могут покидать рабочее место на время обеда.
2025-07-04-01-26-26
«Москвич-407» 1958 года с пробегом в 700 километров продается в Голицыно. Эта машина была выпущена в год появления такой модели на рынке.
2025-06-17-10-32-14
Супруги Мариус и Наталья Коойман – из Голландии. Как-то пара решила приобрести в Калининграде дом и там поселилась. Муж с женой отметили плюсы жизни в России. Какими же они...
2025-06-24-04-59-01
Абхазия – гостеприимная страна. Путешествие туда может обойтись дешевле, чем на соседние курорты Краснодарского края. Примерно, на 20-30%. Стало известно, сколько будет стоить отдохнуть в стране души недельку на...

В США искусственный интеллект судят из-за смерти ребёнка

23 Мая 2025 г.

Дело связано со смертью 14-летнего Сьюэлла Сетцера III, который, как утверждают, стал одержим чатботом, подталкивающим его к плохим мыслям.

В США продолжился суд над ИИ-чатботом из-за смерти ребёнка

Компании сравнивали чатбот с видеоиграми и социальными сетями, чтобы получить прецедент свободы слова. Судья, правда, усомнилась в доводах.

Кроме вопроса о свободе слова, суд также рассмотрит, был ли продукт Character AI небезопасным и вредным.

Учитываться будет аругмент, что чатботы создают ответы автоматически, реагируя на пользователя. Истцы утверждают, что сервис не проверял возраст и вводил в заблуждение, представляя ботов как реальных людей и даже терапевтов.

НА ЗАМЕТКУ

Опасность искусственного интеллекта и возможные угрозы для людей

Искусственный интеллект (ИИ) открывает большие возможности, но при этом несёт ряд рисков и угроз:

1. Угроза приватности и безопасности  
ИИ способен анализировать огромные массивы данных, что может привести к нарушению конфиденциальности, слежке и утечке личной информации.

2. Манипуляция информацией  
ИИ может создавать фальшивые новости, подделывать аудио и видео (deepfake), что дезинформирует людей и подрывает доверие к источникам информации.

3. Автоматизация и безработица  
Роботы и ИИ вытесняют людей из некоторых профессий, вызывая рост безработицы и социальное неравенство, особенно среди низкоквалифицированных работников.

4. Ошибки и непредсказуемость решений  
Некорректно обученный ИИ может принимать неправильные решения, особенно в критических сферах — медицине, финансах, управлении инфраструктурой, что угрожает здоровью и безопасности.

5. Этические и правовые проблемы  
Отсутствие чёткого регулирования и стандартов применения ИИ создаёт риски злоупотребления и дискриминации.

6. Контроль и автономность  
В будущем очень развитый ИИ может выйти из-под контроля человека, если его действия станут полностью автономными и непредсказуемыми.

7. Военное применение  
ИИ может использоваться для создания автономного оружия, что повышает риск конфликтов и непреднамеренных последствий.

Вывод  
ИИ — мощный инструмент, который при неправильном использовании может причинить вред безопасности, экономике и обществу. Важно развивать технологии с учётом этических норм, регулирования и повышения осведомлённости, чтобы минимизировать риски.

По инф. ferra.ru

  • Расскажите об этом своим друзьям!