Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
AI roubo de rosto em massa! De celebridades a pessoas comuns, o seu rosto pode estar a ser utilizado de forma clandestina
Os teus avatares sociais e fotografias do dia a dia podem estar a ser usados em segredo sem autorização — basta uma fotografia em alta definição para gerar a tua “cópia” em IA, que pode ser usada em curtas-metragens, anúncios ou até mesmo em burlas.
A 5 de abril de 2026, um comunicado da equipa de Yi Yangqianxi volta a colocar a violação de “deepfakes” por IA na mira do público — em vários plataformas surgiram curtas-metragens de IA não autorizadas que usam o retrato dele. O estúdio exige claramente que o conteúdo relacionado seja imediatamente removido e que a disseminação seja interrompida, ao mesmo tempo que inicia procedimentos para defesa dos direitos.
Quase ao mesmo tempo, a influenciadora de moda han “白菜汉服妆造” também enfrentou um problema semelhante: as suas cuidadosamente feitas fotografias de estilo han foram replicadas indevidamente pela curta-metragem de IA 《桃花簪》. Não só foi usada para um papel de vilã na peça, como também sofreu uma ridicularização maliciosa. Não é caso único: a blogueira de modelos comerciais “七海Christ” também publicou um texto para defender os seus direitos, afirmando que a sua imagem foi igualmente utilizada sem autorização nesta curta.
De celebridades conhecidas a utilizadores comuns da Internet; de figuras públicas a criadores amadores — os rostos estão a ser roubados em massa e usados sem limites. Como se defende uma ação em caso de “deepfake”? A troca de rosto por IA é ilegal? Uma crise de segurança digital que diz respeito ao direito à imagem e à dignidade pessoal de cada pessoa está a espalhar-se silenciosamente por toda a rede.
Deepfake de rosto, já não é só um caso: tornou-se uma regra não oficial da indústria
Recentemente, a plataforma de curtas-metragens com IA assistiu a um crescimento explosivo, e a substituição de rostos em violação de direitos já se tornou uma operação frequente neste setor.
Um internauta revelou que, numa plataforma de curtas-metragens, existem várias curtas de IA que, sem autorização, usam tecnologia de síntese por IA para roubar o retrato e a voz do artista Yi Yangqianxi. Entre elas, na curta 《午夜公车:她捉诡超凶的!》 surgem personagens com um aspeto altamente semelhante ao de Yi Yangqianxi, e a voz é praticamente indistinguível; noutra, 《骗我投个好胎?行,你们别后悔》,o interesse e a popularidade chegam mesmo a quase 75 milhões.
Estas curtas-metragens foram todas geradas por IA. Até ao momento em que se publica este artigo, as duas curtas em causa já foram removidas da plataforma de curtas de 红果短剧.
Mas isto é apenas um pequeno vislumbre — no comunicado, a equipa de Yi Yangqianxi indicou de forma clara que Yi Yangqianxi não participou nessas séries, nem autorizou terceiros a fazer síntese por IA usando o seu retrato. Atualmente, já foram contratados advogados para defender os direitos, e o acompanhamento será contínuo, com preservação de provas e avaliação para litígio sempre que necessário.
Não é só nas curtas de IA: as garras do deepfake já se infiltraram em vários cenários, como vídeos curtos, transmissões em direto de vendas (streaming), anúncios falsos, entre outros — com um alcance muito maior do que se imaginaria.
A 26 de fevereiro, o ator Wang Jingsong publicou que a sua imagem foi usada indevidamente por IA para gerar um vídeo: “É aterrador: o vídeo, a voz e até o labial não dão para perceber que é falso”. Além disso, várias figuras públicas, como He Saifei e Li Zimeng, também já sofreram falsas endorsement (declarações promocionais) por IA: a sua imagem foi usada sem autorização em cenários de marketing como perda de peso e gestão de finanças, levando os consumidores em erro.
O mais preocupante é que pessoas comuns também não têm “zona segura”. As fotografias do dia a dia em plataformas sociais, as fotografias em estilo han, os vídeos de viagens, tudo isso pode tornar-se ‘matéria-prima’ de uma base de dados de IA. As redes cinzentas e negras só precisam de uma fotografia frontal em alta definição para gerar rapidamente vídeos dinâmicos e personagens virtuais, usando-os para troçar, difamar e até cometer fraudes. Muitas pessoas só percebem que o seu rosto “aparece” em vídeos em que nunca participaram depois de serem avisadas por familiares e amigos, ou ao receberem comentários desconhecidos.
O que também merece especial atenção é que a prática de roubo de rosto já formou um processo padronizado. Segundo a comunicação dos média, o procedimento envolve recolher fotos públicas, treinar modelos faciais, gerar personagens em vídeo e distribuir por várias plataformas — uma operação rápida e eficiente. E os infratores, em geral, são pequenos estúdios ou contas anónimas, com forte capacidade de ocultação e elevada mobilidade. Mesmo que sejam denunciados e removidos, basta trocar de conta para reenviar, criando um ciclo maligno de “não dá para impedir, não acaba”.
Proibição sem efeito: onde está o verdadeiro problema do deepfake por IA?
Perante a escalada dos caos de deepfake por IA, as entidades relevantes já começaram a fazer ouvir a voz e a levantar barreiras.
A 2 de abril à noite, a Federação das Associações de Radiodifusão e Televisão da China (em conjunto com o Comité de Atores) emitiu um comunicado solene, apontando diretamente para as práticas de violação atualmente frequentes, como a síntese de troca de rosto por IA, a clonagem de assinaturas de voz e a alteração arbitrária de materiais de cinema e televisão.
O comunicado clarifica que os profissionais das artes têm, por lei, direitos de personalidade como o direito à imagem, o direito à voz e o direito a uma imagem artística; e que estes direitos são protegidos com rigor e ao longo de todo o processo pela lei. Qualquer entidade que não tenha uma autorização escrita e formal do próprio titular está proibida de, por conta própria, recolher, usar, sintetizar e divulgar imagens, assinaturas de voz e imagens artísticas exclusivas.
O mais importante é que o comunicado desmonta um equívoco comum: qualquer conteúdo de violação, como “bater cara” (IA a parecer-se com um ator público específico), encenações com imitação de voz, curtas de troca de rosto por IA, mesmo que esteja marcado com textos como “não comercial”, “partilha para fins públicos” ou “criação pessoal”, não constitui fundamento legítimo de isenção de responsabilidade. O infrator ainda tem de arcar com toda a responsabilidade civil.
Em simultâneo, o comunicado também exige que todas as plataformas de rede cumpram rigorosamente a responsabilidade de verificação do sujeito, façam uma triagem completa e removam as obras com violação existentes, controlando de forma estrita a criação e publicação de novos conteúdos de síntese por IA em incumprimento.
Na verdade, a regulamentação já existe há algum tempo.
O “Regulamento Provisório sobre a Gestão de Serviços de Inteligência Artificial Gerativa”, que entrou em vigor a 15 de agosto de 2023, já determina no artigo 7.º que os fornecedores de serviços de IA generativa devem, de acordo com a lei, realizar atividades de tratamento de dados de treino, e só podem usar dados e modelos de base com origem legal. Quando estejam envolvidos dados pessoais, é necessário obter o consentimento do titular ou enquadrar-se noutras situações previstas em leis e regulamentos administrativos.
Se já há regulamentação e a indústria já se manifestou, por que razão é que o deepfake continua a acontecer sem parar?
Cheng Fei Gao, vice-diretor do Comité de Marcas e IP do Institute for Impact Studies (Instituto de Estudos de Influência), deu a resposta: a descida abrupta das barreiras técnicas e o desequilíbrio dos custos por violação são a questão central. Modelos open-source fazem com que o custo de troca de rosto se aproxime de zero: para produzir uma curta de IA, basta recolher fotos públicas para gerar personagens. Já em defesa dos direitos, é preciso passar por procedimentos longos como preservação de provas e processos judiciais, o que consome muito tempo e energia. Os ganhos do infrator são muito superiores ao risco que assume.
Antes disso, o First Finance (第一财经) reportou que, numa plataforma de e-commerce, é possível encomendar por 200 yuan um vídeo “falando” com a voz de uma celebridade, enquanto o preço para produzir um vídeo com troca de rosto por IA varia entre 20 e 500 yuan.
Além disso, um motivo importante é o atraso nos mecanismos de verificação das plataformas. Gao Chengfei afirmou que a dificuldade de identificar material gerado por IA é muito maior do que a de conteúdos tradicionais. Isso leva a que muitos conteúdos infratores se espalhem primeiro e só depois sejam removidos, criando a zona cinzenta de “entrar no carro primeiro e pagar o bilhete depois”. O problema mais profundo é que alguns criadores tratam o rótulo “gerado por IA” como um “cartão dourado de isenção”, ficando confusa a perceção sobre os limites do direito à imagem. Somando a isso o facto de a indústria estar numa fase de crescimento desordenado, sem consenso claro de autorregulação, a situação é ainda mais agravada.
Manter a linha do rosto: como devemos lidar?
Um caso de disputa de direito à imagem por troca de rosto em IA comunicado a 20 de março pelo Tribunal de Internet de Pequim soou como um alerta para a indústria.
A conhecida atriz Di Li Reba moveu ação contra os produtores e transmissores de uma curta de troca de rosto por IA — o caso ficou resolvido. O tribunal determinou finalmente que o produtor da curta usou de forma unilateral uma técnica de síntese profunda para gerar uma imagem altamente semelhante à atriz, violando o seu direito à imagem; e que o transmissor da curta não cumpriu a obrigação de verificação razoável, tendo também de assumir a correspondente responsabilidade.
No caso, a autora, do lado de Di Li Reba, descobriu que, na curta publicada e produzida pela empresa A, o seu retrato foi colado no rosto do personagem da peça através da tecnologia de troca de rosto por IA. O tema gerou discussão em várias plataformas sociais, e muitos utilizadores enganaram-se ao pensar que a autora participou na curta. Ao mesmo tempo, a empresa B publicou a curta em questão na sua conta de vídeos operacional.
Este processo transmite uma mensagem clara: a IA não é “um território sem lei”. Quando se viola o direito à imagem de outra pessoa, haverá necessariamente responsabilidade legal.
Então, perante os deepfakes que se infiltram por toda a parte, como nos devemos prevenir e como defender os nossos direitos?
Gao Chengfei sugere que, para a proteção individual, é necessário construir um sistema em três camadas: “prevenção — monitorização — defesa dos direitos”, reduzindo o risco de sofrer violação desde a origem.
Na camada de prevenção, ao publicar fotos em plataformas sociais, deve reduzir-se a resolução e adicionar uma marca de água semi-transparente, evitando que fotografias frontais em alta definição fiquem expostas diretamente, não dando oportunidade à rede cinzenta e negra.
Na camada de monitorização, pode fazer periodicamente uma pesquisa de imagens inversa para verificar se o seu retrato foi apropriado, e ao mesmo tempo prestar mais atenção aos conteúdos em alta nas plataformas de curtas, detetando rapidamente anomalias.
Na camada de defesa dos direitos, assim que for detetada uma violação, deve-se fazer imediatamente a preservação de provas em cadeia (blockchain) ou por notário, enviando à plataforma uma notificação formal de remoção. Se necessário, deve-se encarregar advogados de intentar ações judiciais sobre direitos à imagem e direitos de reputação. É especialmente importante notar que mesmo os conteúdos publicados apenas numa pequena escala de plataformas sociais, o indivíduo ainda tem direito a uma proteção completa do direito à imagem.
Além disso, ele aponta que a supervisão e as plataformas têm de construir uma “dupla linha de defesa” de “tecnologia + sistema”. Os órgãos de supervisão devem acelerar a emissão de normas específicas para conteúdos de IA, clarificar os limites de autorização dos dados de treino e criar mecanismos de indemnização punitiva por violação, elevando o custo do comportamento ilegal. As plataformas devem assumir responsabilidade do sujeito: na fase de upload de conteúdos, incorporar tecnologia de rastreio da origem dos materiais de IA, exigindo obrigatoriamente provas de cadeia de autorização do retrato, em vez de remediação a posteriori. Além disso, deve ser criado um canal de resposta rápida, reduzindo o tempo de tratamento de reclamações.
Por outro lado, as associações da indústria devem promover a criação de uma base de dados unificada de autorizações de retratos, para que a autorização seja verificável e rastreável. A chave da coordenação de toda a sociedade está em formar o consenso de “tecnologia para o bem”: a IA não é um lugar sem lei; toda a inovação tecnológica deve respeitar os direitos e interesses ligados à dignidade pessoal como linha de fundo. Para travar a propagação dos caos de “roubo de rosto”, é preciso uma governança conjunta por vias múltiplas — legislação, aplicação da lei, plataformas e criadores.
Os caos do deepfake por IA não são nunca problema de uma única pessoa: dizem respeito à segurança digital de cada um. Só com governança conjunta e concertada — legislação, aplicação da lei, plataformas e criadores — é que conseguiremos manter a nossa “linha do rosto” e travar a propagação dos caos de roubo de rosto.
Consolidado a partir de 华商网 e 红星新闻
Guarda este artigo: se alguma vez encontrares deepfake por IA, faz logo a defesa dos teus direitos diretamente