Логотип РГГУ


Новости от ADINDEX: Как спасти правду: экономике цифровых медиа объявляют войну

Существующая система онлайн-медиа глубоко порочна — к этому выводу приходят все больше экспертов. В рубрике «Смыслы» пытаемся понять, почему так происходит, и есть ли выход


Фейковые новости, комментарии и публикации от поддельных аккаунтов в соцсетях и изменяющие реальность приложения заставляют нас жить в недостоверной информационной среде. Мы все меньше понимаем, чему стоит верить, и это постепенно меняет само наше отношение к действительности. И, возможно, скоро эти перемены станут критичными.

Нас ждет инфокалипсис?

Авив Овадья, главный технолог Центра социальной ответственности социальных медиа Университета Мичигана и исследователь Knight News в Центре компьютерной журналистики в Колумбии, предупреждал об опасности бесконтрольного развития технологий еще в 2016 году. Позднее результаты президентских выборов в США подтвердили его опасения. Недавно в интервью Buzzfeed он опять произнес пугающее слово «инфокалипсис» (информационный апокалипсис) и предрек, что наступить он может очень скоро.

Как он уверен, интернет и сложившаяся вокруг него информационная экосистема сейчас больны. Настройки Facebook, Twitter и Google сосредоточены на кликах, акциях, рекламе и деньгах и допускают приоритет публикаций на основе непроверенных фактов или представляющих только одну точку зрения. Кроме того, благодаря системе перепостов эти платформы ускоряют распространение таких публикаций. Люди привыкают к обилию ложных сообщений, и это начинает считаться нормой.

Постоянно появляются новые технологии, с успехом размывающие грань между реальностью и вымыслом. Скорость возникновения новых решений намного выше, чем способность общества осознать их влияние и их регулировать. Изменения уже стали бесконтрольными — например, в сети распространяется приложение, позволяющее создавать порновидео, подставляя лицо любого человека.

Группы специалистов Стэндфордского и Вашингтонского университетов разработали программы, позволяющие монтировать видео так, что зритель уверен, что человек в кадре произносит какие-то слова, хотя он этого не делал. В доказательство своих достижений обе команды демонстрировали ролики, где мировые лидеры говорили то, чего они никогда не говорили.

Еще недавно фото, видео и аудио считались одними из документальных подтверждений какого-либо события. Теперь это в прошлом — Nvidia разработала программу, способную генерировать правдоподобные фото на основе разрозненных данных многочисленных фотобанков. Adobe создала инструменты Voco и Cloak — первый позволяет редактировать аудио, второй — удалять объекты и людей из видео.

Овадья предостерегает, что однажды может появиться видео, где глава одной из стран сообщит об объявлении войны или о ядерном ударе, и уже не важно, что это сообщение будет ложным — мировая реакция будет мгновенной и может оказаться необратимой. Управляемые искусственным интеллектом боты смогут создавать нужную атмосферу в соцсетях, манипулировать общественным мнением, инициировать ложные обращения в правительства. Фишинговые атаки перейдут от массовых к точечным воздействиям, с помощью ИИ можно будет имитировать голос друга в телефоне, встроить вредоносный код в письмо от близкого человека. Для снижения доверия к информации не обязательно массовое распространение злоупотреблений — достаточно того, что все будут знать, что такое возможно. Все это приведет к «информационной апатии» — люди перестанут обращать внимание на любую информацию, реакция их станет вялой, и ими будет легко манипулировать. Наступит инфокалипсис.

Есть ли выход?

В публикации на сайте проекта MisinfoCon по борьбе с ложной информацией Овадья приводит описание существующей онлайн-экосистемы, объясняя, что фейки питаются сочетанием способа распространения и способа монетизации публикаций. И принципы, на которых построен весь сегодняшний интернет-бизнес, потворствуют массовому появлению дезинформации.

Но Овадья надеется, что ужасного сценария удастся избежать. Вот какие действия он предлагает:

1. Мониторинг информационной экосистемы. Постоянный контроль поможет выявить слабые места и исправить нарушения, исключив распространение недостоверной информации.

2. Ответственность при исследованиях и разработках. Каждый исследователь или разработчик должен представлять себе, к чему может привести его изобретение. Для этого необходимо создание экспертного совета, которого пока не существует.

3. Внедрение инфраструктуры аутентификации для подтверждения реальности видео и других материалов. Платформы должны будут встраивать эту систему для проверки всех публикаций…

 

Подробнее...