O uso indevido da inteligência artificial na manipulação de imagens e vídeos tem causado crescente preocupação no meio jurídico. O advogado especialista em crimes digitais, o Dr. Jonatas Lucena, alerta que a criação e disseminação de vídeos adulterados por IA — especialmente aqueles que envolvem a imagem de pessoas públicas ou privadas sem consentimento — configura violação grave de direitos fundamentais, podendo acarretar consequências civis e penais.
Nos últimos meses, casos de vazamentos de vídeos falsos criados por ferramentas de deepfake se multiplicaram, afetando a honra, a privacidade e a reputação das vítimas. Muitas dessas montagens simulam situações íntimas, comprometedoras ou ofensivas, com alto potencial de danos psicológicos e sociais. Mesmo sendo conteúdos falsos, o impacto causado é real e profundo, o que tem levado o Judiciário a adotar medidas mais firmes contra os responsáveis.
Deepfake e responsabilidade legal: o que diz a lei
Embora a legislação brasileira ainda não possua um artigo específico sobre o uso de deepfake, o ordenamento jurídico já oferece instrumentos eficazes para combater esse tipo de crime. O advogado o Dr. Jonatas Lucena destaca que a prática pode ser enquadrada em diversas infrações, como calúnia, difamação, injúria, uso indevido de imagem e violação à intimidade.
Além disso, quando há intenção de prejudicar a vítima, obter vantagem ou espalhar desinformação, também é possível aplicar a Lei Carolina Dieckmann, que trata de crimes cibernéticos, e a Lei Geral de Proteção de Dados Pessoais (LGPD), especialmente em situações em que dados sensíveis são manipulados ou divulgados sem autorização.
A responsabilização pode alcançar tanto quem criou o conteúdo quanto quem compartilha, armazena ou monetiza esse tipo de material, inclusive nas plataformas digitais.

Como agir diante de vídeos falsos ou adulterados
Ao perceber que sua imagem foi utilizada indevidamente em vídeos manipulados, a vítima deve agir com rapidez. O primeiro passo é coletar provas: salvar os links, capturas de tela, identificar datas, horários e plataformas onde o material circula. Em seguida, deve-se registrar boletim de ocorrência e procurar assessoria jurídica especializada para adoção das medidas cabíveis.
O advogado o Dr. Jonatas Lucena atua na linha de frente desses casos, ingressando com ações judiciais que visam à remoção imediata dos conteúdos, à identificação dos responsáveis (por meio de quebra de sigilo de IPs e logs de acesso) e ao pedido de indenização por danos morais.
Decisões judiciais recentes têm concedido liminares em caráter de urgência para a retirada de vídeos adulterados por IA e responsabilizado os criadores por danos financeiros, além de impor multas e obrigações de não repetição.
Plataformas digitais também podem ser responsabilizadas
O avanço das tecnologias de IA exige que as plataformas de conteúdo estejam preparadas para combater esse tipo de abuso. O advogado o Dr. Jonatas Lucena explica que, quando uma plataforma é notificada sobre um vídeo falso e não adota medidas rápidas para removê-lo, ela pode ser responsabilizada subsidiariamente por omissão.
O Marco Civil da Internet prevê que, uma vez cientificada judicialmente ou extrajudicialmente da existência de conteúdo ilícito, a empresa que hospeda ou distribui o material deve agir para cessar a violação. Caso contrário, responde solidariamente pelos danos causados à vítima.
A tendência é que as grandes plataformas invistam cada vez mais em ferramentas de detecção automática de deepfakes e aprimorem suas políticas de uso para prevenir o compartilhamento de material manipulado.
O direito à imagem e a dignidade digital
Em tempos de inteligência artificial, proteger a imagem e a honra no ambiente virtual se tornou um dos grandes desafios do direito. Os vídeos adulterados por IA não apenas iludem o público, mas afetam diretamente a dignidade das vítimas, sendo muitas vezes irreparáveis em sua repercussão.
O advogado o Dr. Jonatas Lucena reforça que nenhuma tecnologia pode se sobrepor aos direitos fundamentais da pessoa humana. E, ainda que a velocidade da desinformação seja um obstáculo, a Justiça está cada vez mais preparada para agir com firmeza, exigindo a reparação dos danos, a remoção dos conteúdos e a responsabilização dos culpados.