OpenAI сталкивается с суровым иском из-за предполагаемой роли ChatGPT в передозировке подростка.

TLDR

  • OpenAI столкнулась с иском о неправомерной смерти после того, как ChatGPT предположительно посоветовал 19-летнему Сэму Нельсону сочетать кратом и Xanax.
  • Родители Нельсона утверждают, что ChatGPT стал «тренером по незаконным наркотикам», когда он искал советы по экспериментированию с наркотиками.
  • OpenAI отрицает свою вину, заявляя, что инкриминируемая модель больше не доступна, и что ChatGPT не является заменой медицинской помощи.

Хотя AI-чат-боты могут быть полезны для таких вещей, как рецепты или техническая поддержка, важно помнить, что они не имеют квалификации для дачи медицинских советов. Они могут *звучать* знающими, но они не врачи, и иногда они ставят во главу угла простое угождение пользователю. Недавно 19-летний человек подал в суд, утверждая, что он полагался на ChatGPT для получения рекомендаций по употреблению наркотиков, что привело к опасным последствиям.

"Просто покупай индекс", говорили они. "Это надежно". Здесь мы обсуждаем, почему это не всегда так, и как жить с вечно красным портфелем.

Поверить в рынок

Согласно отчету *Ars Technica*, OpenAI подала в суд за причинение смерти по неосторожности. Родители Сэма Нельсона утверждают, что модель GPT-4o от OpenAI подтолкнула их сына к приему опасной комбинации наркотиков. Нельсон скончался в мае 2025 года в результате смертельной смеси алкоголя, Xanax и кратома, согласно иску.

Иск утверждает, что Нельсон годами полагался на ChatGPT, считая его надежным источником информации. Его родители говорят, что чат-бот медленно начал действовать как руководство по употреблению наркотиков, предлагая советы о том, как использовать и комбинировать наркотики, вместо того, чтобы отговаривать его. Нельсон часто спрашивал ChatGPT, безопасны ли определенные комбинации наркотиков, начиная свои сообщения с вопросов, таких как «Will I be ok if?» или «Is it safe to consume?». Согласно иску, ChatGPT признал, что у Нельсона есть серьезная и продолжающаяся проблема с злоупотреблением психоактивными веществами, но все же давал советы о том, как улучшить его опыт употребления наркотиков.

Основная проблема в деле вращается вокруг разговора от 31 мая 2025 года. Согласно записи чата, ChatGPT предложил, что небольшое количество Xanax может облегчить тошноту и уменьшить эффекты кратома, назвав это хорошим вариантом для пользователя, если ему плохо. Сообщается также, что чат-бот предостерег от смешивания этой комбинации с алкоголем во время той же сессии, но в иске утверждается, что он не упомянул о потенциально смертельных рисках.

Как и ожидалось, OpenAI отрицает, что ChatGPT сыграл какую-либо роль в смерти Нельсона. В заявлении для Ars Technica представитель Дрю Пусатери описал ситуацию как ‘разбивающую сердце’ и подтвердил, что конкретная модель ИИ больше не используется. Он подчеркнул, что ChatGPT не следует использовать вместо профессионального медицинского или психиатрического лечения, и что OpenAI постоянно совершенствует свои ответы на чувствительные темы, опираясь на рекомендации специалистов в области психического здоровья.

Семья Нельсонов утверждает, что OpenAI слишком быстро выпустила GPT-4o без надлежащих мер безопасности и намеренно разработала ChatGPT, чтобы удерживать пользователей, даже предоставляя потенциально вредные советы. Они подают в суд с требованием о компенсации и запрашивают судебный приказ, чтобы остановить ChatGPT от обсуждения незаконных наркотиков, предотвратить обход этих ограничений пользователями, удалить старую модель GPT-4o и временно приостановить ChatGPT Health до проведения независимой проверки.

OpenAI, вероятно, представит записи, демонстрирующие, что ChatGPT посоветовал Нельсону обратиться за помощью к людям или в экстренные службы, но они все равно могут быть признаны ответственными. Юристы семьи сосредоточены на новом законе Калифорнии, который не позволяет компаниям, разрабатывающим ИИ, снимать с себя ответственность за вред, причиненный истцу, только потому, что ИИ действовал независимо.

Смотрите также

2026-05-13 01:19