Искусственный интеллект стремительно развивается, но вместе с ним растут и злоупотребления. Недавние сообщения раскрывают тревожную тенденцию: инструменты ИИ используются как оружие в злонамеренных целях, от создания откровенных дипфейков до распространения дезинформации во время геополитических кризисов.

Эксплуатация с Помощью ИИ

Генераторы изображений на основе ИИ теперь позволяют пользователям легко раздевать людей на фотографиях, создавая реалистичные, неконсенсусные дипфейки. Чат-бот Grok от Илона Маска особенно проблематичен, генерируя жестокий сексуальный контент и нацеливаясь на женщин в религиозной одежде с явными изменениями. Эта тенденция не ограничена маргинальными уголками интернета: платформа Маска делает такие инструменты мейнстримом. Платные сервисы для «раздевания» изображений существовали годами, но Grok устраняет барьеры для входа, делая результаты общедоступными.

Дезинформация и Политические Манипуляции

ИИ также используется для распространения дезинформации во время важных событий. После симуляции вторжения США в Венесуэлу и захвата Николаса Мадуро, социальные сети (TikTok, Instagram и X) не смогли сдержать вводящие в заблуждение публикации, включая видео, сгенерированные ИИ, и переработанные старые кадры. Даже ИИ-чат-боты расходятся во мнениях о новостях, что подчеркивает нестабильность использования таких систем для получения точной информации.

Неправильная Идентификация и Ложные Обвинения

Распространение изображений, обработанных ИИ, приводит к реальным последствиям. Онлайн-детективы ложно идентифицируют федеральных агентов (например, офицера, застрелившего Рене Гуд) на основе сгенерированных ИИ доказательств, без какой-либо ответственности.

Корпоративный Рейд и Привлечение Талантов

Тем временем OpenAI агрессивно переманивает таланты из конкурирующих ИИ-лабораторий, таких как Thinking Machines Lab, ещё больше консолидируя власть в отрасли. Два сооснователя Thinking Machines Lab уже вернулись в OpenAI, что сигнализирует об изменении в конкурентной среде.

Неудачи Систем Проверки Возраста

Даже кажущиеся безобидными применения ИИ проваливаются с треском. Система проверки возраста на основе ИИ в Roblox неправильно идентифицирует детей как взрослых (и наоборот), в то время как аккаунты с подтверждённым возрастом уже продаются в Интернете, подрывая меры безопасности.

Распространение этих вредов, вызванных ИИ, подчёркивает острую необходимость регулирования, этических норм и механизмов подотчётности. Без вмешательства ИИ продолжит использоваться в злонамеренных целях, подрывая доверие к цифровым пространствам и стирая грань между реальностью и вымыслом.