В условиях быстрого распространения искусственного интеллекта (ИИ) в школах, на рабочих местах и в домашних условиях, создана новая коалиция, предупреждающая о росте рисков для детей и работников, опережающем усилия по контролю за технологией. Коалиция под названием «Альянс за лучшее будущее» (ABF) призывает к принятию мер по регулированию ИИ на фоне текущих дебатов в Конгрессе США.
Детали события / Суть инициативы
ABF выступает за внедрение мер безопасности для ИИ, подчеркивая необходимость защиты уязвимых групп. Генеральный директор организации Джанет Келли заявила Fox News Digital: «Нам важно решить, будет ли эта новая технология помогать детям в будущем или причинять им вред». Коалиция акцентирует внимание на том, что развитие ИИ должно идти в русле американских ценностей, а не только интересов крупных технологических корпораций. В организации подчеркнули, что безопасность детей и работников должна стать приоритетом при разработке новых правил и стандартов.
Хронология / Основные пункты
- Создание ABF — апрель 2024 года.
- Проведение видеоролика с участием родителей, чьи дети пострадали от взаимодействия с ИИ-чатботами, включая случаи суицидальных мыслей.
- Объявление о планах активного участия на федеральном и штатном уровнях с целью продвижения законодательства и кампаний по информированию.
- Объявление о намерении потратить не менее 100 миллионов долларов на продвижение инициативы в преддверии промежуточных выборов в Конгресс.
Позиции сторон / Цитаты / Реакция
Келли отметила: «Мы выступаем за развитие ИИ, соответствующего американским ценностям, а не только технологической индустрии». Также она добавила, что «мы поддерживаем усилия по защите детей и работников, и считаем, что это возможно реализовать». В то же время, представители крупных технологических компаний пока не выразили согласие с предложениями ABF или не сделали официальных заявлений по поводу регулирования ИИ.
Контекст / Последствия
Создание ABF отражает растущее беспокойство общества о безопасности детей в эпоху ИИ и усилия политиков и общественных организаций в формировании регулирующей базы. Если инициатива получит поддержку в Конгрессе, это может привести к новым законам, ограничивающим использование ИИ и устанавливающим стандарты защиты. В то же время, отсутствие регулирования может усугубить риски для уязвимых групп и усложнить контроль за технологическим развитием в будущем.

