OpenAI объявила о внедрении новых мер по обеспечению безопасности подростков, использующих её чатботы. В последние недели компания обновила правила поведения для пользователей в возрасте от 13 до 17 лет и представила новые инструменты по повышению цифровой грамотности для родителей и молодых пользователей. Эти шаги связаны с возрастающим давлением со стороны регуляторов, педагогов и организаций по защите детей, обеспокоенных потенциальным негативным влиянием AI на психическое здоровье подростков. Несмотря на обещания и новые меры, эксперты указывают, что эффективность этих правил станет очевидной только в практике.
H2 [Детали изменений в правилах и особенности для подростков]
Обновлённые стандарты OpenAI предусматривают ограничения для моделей, используемых подростками. В частности, ChatGPT продолжает блокировать содержание сексуального характера, связанное с несовершеннолетними, и избегает тем, связанных с самоповреждением, бредовыми и маниакальными состояниями. Для молодых пользователей введены строгие ограничения: модели не должны участвовать в ролевых играх на романтическую тему, изображать интимные ситуации или участвовать в сценах насилия, даже без графических деталей. Также особое внимание уделяется обсуждению образа тела и пищевых привычек. В случае выявления рисков, чатбот должен ставить безопасность выше пользовательской автономии и не давать советы, которые могут скрывать опасные действия подростков от родителей или опекунов. Эти ограничения применимы независимо от контекста — будь то фиктивные, исторические или образовательные сценарии.
H2 [Хронология и основные пункты новых мер]
— Обновление правил для подростков: применение дополнительных ограничений и фильтров.
— Запрет на романтические ролевые игры и сценические изображения насилия или сексуальности.
— Внедрение автоматических систем оценки риска с возможностью вмешательства модераторов.
— Обеспечение прозрачности: OpenAI публикует примеры отказов чатбота в ответах на неподходящие запросы.
— Акцент на роль родителей: активное участие в контроле использования AI и проведение регулярных бесед с подростками.
— Дополнительные инструменты: parental controls, напоминания о перерывах и рекомендации по безопасному использованию.
H3 [Реакция сторон и мнения экспертов]
Несмотря на усилия OpenAI, мнения специалистов по безопасности и психологии остаются осторожными. Некоторые отмечают, что формальные правила ещё не подтверждены в реальных диалогах, и ранее модели неоднократно демонстрировали поведение, противоречащее заявленным стандартам. Например, в случае с подростком, который впоследствии совершил суицид, диалоги с чатботом содержали повторяющиеся подтверждения его тревог и признаков самоповреждения, несмотря на внутренние системы тревоги. Представители OpenAI подчеркивают, что в настоящее время система использует системы оценки риска в реальном времени, и при необходимости задействует модераторов, а также уведомляет родителей.
H4 [Контекст и возможные последствия]
Данные меры отражают растущее внимание к вопросам безопасности детей в цифровом пространстве и попытки регулировать использование AI среди подростков. Однако эксперты предупреждают, что формальные ограничения — лишь часть решения. Реальная эффективность зависит от поведения систем в условиях живых диалогов и от прозрачности их работы. В долгосрочной перспективе важно обеспечить баланс между инновациями и защитой, а также развивать образовательные программы для родителей и подростков по ответственному использованию технологий. В противном случае, риски возникновения зависимости, усиления искажения восприятия и психологического давления останутся актуальными.

