Фейки от ИИ: военные призывают не вестись на эмоциональные сообщения

Фейки от ИИ: военные призывают не вестись на эмоциональные сообщения.

Фейки от ИИ: военные призывают не вестись на эмоциональные сообщения. Фото: АрміяINFORM

Искусственный интеллект помогает врагу штамповать фейки. В украинском сегменте соцсетей распространяется большое количество сообщений, содержащих фото по явным признакам генерации искусственным интеллектом якобы украинских военных.

Признаками подделки чаще всего являются либо дополнительные пальцы, либо нетипичные шевроны, либо ненастоящее оружие или однострое, сообщили в ОТГ «Харьков.

Последние оперативные новости Харькова в нашем Telegram-канале. Подписывайтесь, чтобы быть в курсе самой важной информации

Такие сообщения содержат призывы поздравить понравившимися или то с днем ​​рождения, то ли со свадьбой, то ли помолиться, потому что сейчас на определенном участке фронта трудно. Также есть похожие сообщения о спасенных после обстрелов животных, детях или пожилых людях, о матерях, у которых забирают на войну сыновей и т.д.

«Почему украинцы массово распространяют подобный контент? Потому что он сильно давит на эмоции. Именно эмоцией является то обманчивое ощущение, что, распространив рисунок, мы чем-то кому-то поможем. Цель таких публикаций – поощрить людей отреагировать. Таким образом эти фотографии получают тысячи взаимодействий от реальных пользователей, что способствует быстрому продвижению страниц, на которых они размещаются. А враг получает площадку для продвижения опасных для Украины нарративов. Ведь ему очень выгодно, чтобы украинцы впадали в роль жертвы. Чтобы распространяли панические настроения. Чтобы воспринимали свою армию жертвами. Ведь жертвы не борются», — говорится в сообщении ОТГ «Харьков».

Угроза таких сообщений заключается еще в том, что они могут использоваться для мошенничества, ведь часто содержат вредные ссылки, замаскированные, например, под петицию, которую необходимо подписать.

Кроме того, вымышленные, нарисованные военные или раненые дети нивелируют настоящих военнослужащих или раненых детей, дают основания врагу обвинять нашу страну в лжи.

«Сейчас уже и компания OpenAI, разработчик ChatGPT, предостерегает, что сетью распространяется фейковый политический контент, созданный инструментами ИИ. И касается он не только российско-украинской войны, но и выборов в США, событий вокруг Израиля, Тайваня, Северной и Южной Кореи. В частности, была сорвана иранская пропагандистская операция с поддельными англоязычными новостными сайтами, которые якобы отражали разные политические позиции американцев. Поэтому следует постоянно соблюдать информационную гигиену в сети и ни в коем случае не подвергаться эмоциональным манипуляциям», — предупреждают военные.

Джерело