Site icon Новости UA.radio.fm

Внутренние механизмы Microsoft для проверки подлинности контента в эпоху AI

В современном информационном пространстве AI-технологии активно используются для создания гиперреалистичных изображений, клонирования голосов и генерации глубинных фейков, что усложняет отличие подлинных материалов от подделок. Microsoft разработала техническую схему для проверки происхождения и изменений онлайн-контента, которая поможет бороться с распространением фальсификаций.

Детали системы проверки подлинности контента Microsoft

Microsoft сравнивает процесс аутентификации цифровых материалов с проверкой историй известных картин: документированием истории владения, добавлением невидимых водяных знаков и созданием криптографических подпечатков на основе особенностей изображения. Компания протестировала 60 различных комбинаций технологий, включая метаданные, водяные знаки и криптографические подписи, в условиях реальных сценариев, таких как удаление метаданных, тонкие изменения пикселей или преднамеренное вмешательство.

Основная цель системы — определить исходный источник контента и любые изменения, внесённые после его создания. В отличие от систем, которые пытаются оценить правдивость информации, эта технология сосредоточена на происхождении и целостности материалов. Однако, она не способна оценить контекст или смысл публикации, например, не объяснит, является ли видео вводящим в заблуждение или нет.

Хронология и основные компоненты системы

Позиции сторон, цитаты и реакции

Представители Microsoft подчёркивают: «Наша цель — предоставить инструменты для определения источника и изменений контента, а не судить о его правдивости». Несмотря на это, критики отмечают, что такие системы могут столкнуться с трудностями при обнаружении тонких подделок и при использовании «социальных тактик» для обхода защиты. Некоторые эксперты указывают, что злоумышленники могут применять методы, позволяющие обмануть распознающие системы, например, изменяя только часть оригинального изображения или видео.

Несмотря на усилия по стандартизации, компании и регуляторы предупреждают о необходимости аккуратного внедрения технологий, чтобы не подорвать доверие к информации. В частности, законопроекты, такие как Закон о прозрачности AI в Калифорнии, требуют более ясных раскрытий о создании AI-контента, что должно повысить уровень ответственности.

Контекст и возможные последствия

Внедрение таких систем может значительно снизить распространение фальсифицированных материалов в интернете, однако полностью устранить проблему не удастся. Технологии требуют постоянного совершенствования, а злоумышленники — поиска новых способов обхода. В результате, в будущем может произойти переориентация доверия: пользователи всё чаще будут ориентироваться на источники и проверять информацию через репутацию и дополнительные инструменты.

Эксперты подчеркивают, что технические стандарты и системы проверки — важный шаг, но доверие также строится на психологическом восприятии и критическом мышлении аудитории. Вопрос остается открытым: если каждый пост будет сопровождаться цифровым отпечатком и AI-меткой, это действительно изменит уровень доверия к информации?

Дарья Тимошенко

Автор. Технологический обозреватель. Пишет о цифровых трендах, инновациях и гаджетах. Разбирает сложное просто, следит за будущим уже сегодня. Все посты

Exit mobile version