Selecione o idioma

Portuguese

Down Icon

Selecione o país

America

Down Icon

OpenAI encerra 10 operações maliciosas de IA vinculadas à China, Rússia, Irã e Coreia do Norte

OpenAI encerra 10 operações maliciosas de IA vinculadas à China, Rússia, Irã e Coreia do Norte

A OpenAI , empresa líder em inteligência artificial, revelou que está combatendo ativamente o uso indevido generalizado de suas ferramentas de IA por grupos maliciosos de países como China, Rússia, Coreia do Norte e Irã.

Em um novo relatório divulgado no início desta semana, a OpenAI anunciou que desativou com sucesso dez grandes redes em apenas três meses, demonstrando seu comprometimento em combater ameaças online.

O relatório destaca como criminosos estão usando IA para criar mentiras online convincentes. Por exemplo, grupos ligados à China usaram IA para publicar comentários e artigos falsos em massa em plataformas como TikTok e X, fingindo ser usuários reais em uma campanha chamada Sneer Review.

Isso incluiu um vídeo falso acusando o ativista paquistanês Mahrang Baloch de aparecer em um filme pornográfico. Eles também usaram IA para gerar conteúdo para discussões polarizadas dentro dos EUA, incluindo a criação de perfis falsos de veteranos americanos para influenciar debates sobre temas como tarifas, em uma operação chamada Uncle Spam.

Atores norte-coreanos, por outro lado, criaram currículos e candidaturas falsas usando IA. Eles buscavam empregos remotos em TI em todo o mundo, provavelmente para roubar dados. Enquanto isso, grupos russos empregaram IA para desenvolver softwares perigosos e planejar ataques cibernéticos, com uma operação, a ScopeCreep, focada na criação de malware projetado para roubar informações e se esconder da detecção.

Um grupo iraniano, STORM-2035 (também conhecido como APT42, Imperial Kitten e TA456 ), utilizou repetidamente IA para gerar tweets em espanhol e inglês sobre imigração nos EUA, independência da Escócia e outras questões políticas delicadas. Eles criaram contas falsas em redes sociais, muitas vezes com fotos de perfil ocultas, para se passarem por moradores locais.

A IA também está sendo usada em golpes generalizados. Em um caso notável, uma operação provavelmente sediada no Camboja, chamada Wrong Number, usou IA para traduzir mensagens para um golpe de tarefa. Esse esquema prometia altos pagamentos por atividades online simples, como curtir postagens em redes sociais.

O golpe seguia um padrão claro: um "ping" (contato frio) oferecendo altos salários, um "zing" (construindo confiança e entusiasmo com ganhos falsos) e, finalmente, uma "sting" (exigindo dinheiro das vítimas em troca de supostas recompensas maiores). Esses golpes operavam em vários idiomas, incluindo inglês, espanhol e alemão, direcionando as vítimas para aplicativos como WhatsApp e Telegram .

A OpenAI detecta e bane ativamente contas envolvidas nessas atividades, usando a IA como um "multiplicador de força" para suas equipes investigativas, afirma a empresa. Essa abordagem proativa frequentemente significa que muitas dessas campanhas maliciosas alcançaram pouco engajamento autêntico ou impacto limitado no mundo real antes de serem encerradas.

Para reforçar sua luta contra o uso indevido da IA , a OpenAI também enfrenta um desafio legal significativo em relação à privacidade do usuário. Em 13 de maio, um tribunal dos EUA, liderado pela juíza Ona T. Wang, ordenou que a OpenAI preservasse as conversas do ChatGPT.

Esta ordem decorre de uma ação judicial por violação de direitos autorais movida pelo The New York Times e outras editoras, que alegam que a OpenAI utilizou ilegalmente milhões de seus artigos protegidos por direitos autorais para treinar seus modelos de IA. Eles argumentam que a capacidade do ChatGPT de reproduzir, resumir ou imitar seu conteúdo sem permissão ou compensação ameaça seu modelo de negócios.

A OpenAI contestou a ordem, afirmando que ela a obriga a violar seu compromisso com a privacidade e o controle dos usuários. A empresa destacou que os usuários frequentemente compartilham informações pessoais sensíveis em chats, esperando que elas sejam excluídas ou permaneçam privadas. Essa demanda judicial cria um desafio complexo para a OpenAI.

HackRead

HackRead

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow