top of page
Foto do escritorDramaland Brasil

Os perigos da Inteligência Artificial: A propagação da “DeepFake” na Coreia do Sul!

As autoridades sul-coreanas relataram em investigações recentes que plataformas como Telegram e outras de mídia sociais estão sendo usadas para propagar “deepfakes”.



As medidas investigatórias foram tomadas em meio à indignação de mulheres sul-coreanas em vários meios de comunicação nacionais, nos quais relataram que imagens e vídeos sexualmente explícitos, que não eram reais, foram propagados no Telegram. Conforme dados da BBC, foram identificados cerca de 220 mil membros, principalmente jovens estudantes, que criavam e compartilhavam imagens sexualmente explícitas de pessoas que conheciam, como colegas ou professores.


Mas, você sabe o que é “deepfake”? 


Com certeza você já deve ter visto alguma manipulação feita por Inteligência Artificial (IA) de algum artista favorito, ou mesmo já deve ter utilizado algum aplicativo para criar a sua própria versão de imagem.


A “deepfake” segue a mesma lógica: uso de Inteligência Artificial para criação de imagens ou até vídeos. No caso da deepfake com o propósito totalmente ilícito, a técnica é usada pela maioria para gerar conteúdo sexual.


Na Coreia do Sul, a situação ganhou repercussão internacional recentemente, devido ao crescimento preocupante nos crimes digitais cometidos por adolescentes. De acordo com as investigações das autoridades policiais, os grupos de chat no aplicativo de mensagens Telegram, eram compostos por adolescentes, principalmente estudantes, que faziam upload de fotos de colegas e professoras para criar imagens deepfake sexualmente explícitas.



Realizando a tradução livre da conversa acima de um dos grupos de telegram expostos que utilizam deepfakes, os participantes faziam uma espécie de jogo com o contéudo manipulado que criavam e compartilhavam no grupo. No print da conversa, um participante pergunta: “Existe um nível de dificuldade ou nível mais alto?”, o restante responde “Qualquer coisa que você possa imaginar pode ser feita” / “foi bem feito” / “muito bom, obrigado a todos por fazer tão bem." Para receber elogios dos demais participantes, o outro participante escreveu: "Por favor, conte-me uma crítica do que fiz com uma conhecida minha", os usuários consideraram a exploração como uma conquista, como "Eu usei todas as pessoas, exceto três."


Nos primeiros sete meses deste ano já foram notificados um total de 297 casos, o que contrasta com os 180 que se registaram no ano passado na Coreia do Sul e com os 161 de 2021. Segundo indicaram as autoridades policiais, os adolescentes foram responsáveis por mais de dois terços deste tipo de crime nos últimos três anos.


A situação ficou tão incontrolável com o compartilhamento de vídeos e imagens, que o presidente sul-coreano, Yoon Suk Yeol, pediu medidas urgentes para “erradicar” essa epidemia, com um foco específico no deepfake.


E no Brasil, não é diferente!


A repercussão do deepfake já foi utilizado para criação de vídeos com conteúdos que não era verdadeiros para campanha eleitorais, no qual o Tribunal Superior Eleitoral (TSE) aprovou 12 propostas de resolução estabelecendo regras para o uso da Inteligência Artificial (IA) e até mesmo a proibição do uso de deepfakes no Brasil.


Segundo “a Pública”, agência de jornalismo investigativo, os brasileiros já são a segunda maior nacionalidade que utilizam plataformas de técnica de deepfakes. Com o avanço da tecnologia, as deepfakes vêm tornando-se uma ferramenta cada vez mais utilizada, e as principais vítimas são mulheres que possuem a imagem que postam em redes sociais distorcida e ficam a mercê de uma situação constrangedora.


Infelizmente estamos expostos na internet, devemos tomar cuidado com quem conversamos e com as informações que compartilhamos, caso seja vítima de algum crime, DENUNCIE! Salve cópias do contéudo divulgado sem autorização e os links de onde ele foi publicado, reúna todas as informações necessárias e comunique a Delegacia de Polícia ou ao Ministério Público. Se possível, divulgue para mais pessoas as notícias, apoie o movimento e as pessoas afetadas!



bottom of page