Вирусный, созданный ИИ Изображения ареста Дональда Трампа, которые вы можете видеть в социальных сетях, определенно фальшивые. Но некоторые из этих фотореалистичных творений довольно убедительны. Другие больше похожи на кадры из видеоигры или осознанного сна. А Тема в Твиттере Элиота Хиггинса, основателя Bellingcat, который показывает, как Трампа окружают синтетические копыбегать в бегахи выбираем тюремный комбинезон был просмотрен более 3 миллионов раз в социальных сетях.
Что, по мнению Хиггинса, могут сделать зрители, чтобы отличить поддельные изображения, созданные искусственным интеллектом, вроде тех, что в его посте, от реальных фотографий, которые могут быть сделаны после возможного ареста бывшего президента?
«Создав много изображений для треда, становится очевидным, что он часто фокусируется на первом объекте описал — в данном случае, различных членов семьи Трампа — все вокруг часто имеет больше недостатков», — сказал Хиггинс по электронной почте. Посмотрите за пределы фокуса изображения. Остальная часть изображения кажется запоздалой мыслью?
Несмотря на то, что новейшие версии инструментов AI-изображений, такие как Midjourney (версия 5, которая использовалась для вышеупомянутого потока) и Stable Diffusion, делают значительный прогресс, ошибки в более мелких деталях остаются распространенным признаком поддельных изображений. По мере того, как искусство ИИ становится все более популярным, многие художники отмечают, что алгоритмы все еще пытаются воспроизвести человеческое тело последовательным, естественным образом.
Глядя на изображения Трампа, сделанные искусственным интеллектом из ветки Твиттера, можно заметить, что лицо во многих постах выглядит довольно убедительно, как и руки, но его пропорции тела могут выглядеть искаженными или слился с ближайшим полицейским. Несмотря на то, что сейчас это очевидно, возможно, что алгоритм сможет избежать странно выглядящих частей тела с большей тренировкой и усовершенствованием.
Нужен еще один рассказ? Ищите странные надписи на стенах, одежде или других видимых предметах. Хиггинс указывает на беспорядочный текст как способ отличить поддельные изображения от реальных фотографий. Например, полицейские носят значки, кепки и другие документы, на которых, на первый взгляд, есть надписи на поддельных изображениях офицеров, арестовавших Трампа. При ближайшем рассмотрении слова бессмысленны.
Дополнительный способ, которым вы иногда можете определить, что изображение создано искусственным интеллектом, — это заметить чрезмерная мимика. «Я также заметил, что если вы просите выражения, Midjourney имеет тенденцию отображать их преувеличенно, с очень выраженными морщинами на коже от таких вещей, как улыбка», — сказал Хиггинс. Выражение боли на лице Мелании Трамп больше похоже на воссоздание лица Эдварда Мунка. Крик или кадр из какого-нибудь неизданного фильма ужасов формата A24, чем снимок, сделанный человеком-фотографом.
Имейте в виду, что мировые лидеры, знаменитости, влиятельные лица в социальных сетях и все, у кого есть большое количество фотографий, циркулирующих в Интернете, могут выглядеть более убедительно на дипфальсифицированных фотографиях, чем на изображениях людей с менее заметным присутствием в Интернете, созданных искусственным интеллектом. «Понятно, что чем известнее человек, тем на большем количестве изображений ИИ приходится учиться, — сказал Хиггинс. «Так очень известные люди изображены очень хорошо, в то время как менее известные люди обычно немного шатаются». Для большего спокойствия в отношении способности алгоритма воссоздать ваше лицо, возможно, стоит дважды подумать, прежде чем публиковать фотографии селфи после веселой ночи с друзьями. (Хотя вполне вероятно, что генераторы ИИ уже извлекли данные вашего изображения из Интернета.)
В преддверии следующих президентских выборов в США, какова политика Twitter в отношении изображений, созданных ИИ? Платформа социальных сетей текущая политика в частности, говорится: «Вы не можете делиться синтетическими, сфабрикованными или вырванными из контекста медиафайлами, которые могут обмануть или ввести людей в заблуждение и причинить вред («вводящие в заблуждение медиа»)». Twitter делает несколько исключений для мемов, комментариев и постов, созданных не с целью ввести зрителей в заблуждение.
Всего несколько лет назад было почти непостижимо, что средний человек скоро сможет создавать фотореалистичные дипфейки мировых лидеров дома. Поскольку изображения ИИ становится все труднее отличить от реальных, платформам социальных сетей, возможно, придется пересмотреть свой подход к синтетическому контенту и попытаться найти способы провести пользователей через сложный и часто тревожный мир генеративного ИИ.