В США разрабатывается законопроект, который может серьезно изменить правила для компаний, разрабатывающих большие языковые модели. Предлагается ввести гражданскую ответственность для таких организаций, как OpenAI, Anthropic и xAI, за предоставление «содержательных рекомендаций» в 14 лицензируемых сферах — от медицины и юриспруденции до архитектуры и психологии. В случае принятия этого закона каждое упоминание ChatGPT о здоровье или правовых вопросах может привести к судебному разбирательству. Следует отметить, что это будет не уголовное преследование, а возможность подачи частного иска.
Потенциальные риски для разработчиков
Пользователи, которые посчитают, что искусственный интеллект занимался «незаконной практикой», смогут требовать компенсацию убытков и покрытие судебных издержек. Даже при наличии предупреждения о том, что информация поступает от нейросети, компании не удастся избежать требований. Защитники данного законопроекта утверждают, что он призван защитить безопасность граждан, ссылаясь на трагические случаи, как, например, инцидент с чат-ботом Character.AI и подростками. По их мнению, такая мера необходима для предотвращения юридических и этических последствий связанных с использованием ИИ.
Скептицизм и опасения
Критики нового законопроекта выражают сомнения в его целесообразности, считая его близоруким и протекционистским. Некоторые даже указывают на его неконституционность, сравнивая с попытками цензуры библиотек для защиты профессиональных монополий. По мнению оппонентов, истинная цель законопроекта — не забота о пользователях, а подавление конкуренции, которую создают доступные информационные сервисы, ставящие под сомнение традиционные дорогие консультации. Если закон будет внедрён, компаниям, возможно, придётся либо вводить географические ограничения, либо сильно ограничивать ответы на профессиональные темы, или даже запускать платные подписки, позволяющие обойти новые правила.
Чат-боты против классического поиска
Одним из ключевых вопросов остается, чем чат-боты проигрывают классическим поисковым системам. Механизмы работы и уровень доверия к информации — это те аспекты, которые продолжают вызывать дискуссии среди пользователей и специалистов.































