Meta
© 2025 Meta
Brasil

Meta
FacebookThreadsInstagramXYouTubeLinkedIn
Outros sites
Central de TransparênciaCentral de Segurança da MetaCentral de Privacidade da MetaSobre a MetaCentral de Ajuda da Meta

Instagram
Supervisão do InstagramGuia para Pais do InstagramCentral de Ajuda do InstagramRecursos do InstagramAntibullying no Instagram

Facebook e Messenger
Supervisão do FacebookCentral de Ajuda do FacebookCentral de Ajuda do MessengerRecursos do MessengerCentral de Privacidade do FacebookIA generativa

Meta Horizon e Meta Quest
Supervisão do Meta Horizon e do Meta QuestGuia para Pais do Meta QuestCentral de Educação do Meta QuestCentral de Segurança do Meta QuestMeta HorizonCentral de Ajuda do Meta QuestDicas de segurança para metaverso e VRGuia para Pais sobre VR

Recursos
Central de RecursosCentral de Ajuda da Meta: Safety Advisory CouncilPrograma de design participativo

Termos e políticas do site
Padrões da ComunidadePolítica de PrivacidadeTermosPolítica de CookiesMapa do Site

Outros sites
Central de Transparência
Central de Segurança da Meta
Central de Privacidade da Meta
Sobre a Meta
Central de Ajuda da Meta
Instagram
Supervisão do Instagram
Guia para Pais do Instagram
Central de Ajuda do Instagram
Recursos do Instagram
Antibullying no Instagram
Recursos
Central de Recursos
Central de Ajuda da Meta: Safety Advisory Council
Programa de design participativo
Facebook e Messenger
Supervisão do Facebook
Central de Ajuda do Facebook
Central de Ajuda do Messenger
Recursos do Messenger
Central de Privacidade do Facebook
IA generativa
Meta Horizon e Meta Quest
Supervisão do Meta Horizon e do Meta Quest
Guia para Pais do Meta Quest
Central de Educação do Meta Quest
Central de Segurança do Meta Quest
Meta Horizon
Central de Ajuda do Meta Quest
Dicas de segurança para metaverso e VR
Guia para Pais sobre VR
Termos e políticas do site
Padrões da Comunidade
Política de Privacidade
Termos
Política de Cookies
Mapa do Site
Outros sites
Central de Transparência
Central de Segurança da Meta
Central de Privacidade da Meta
Sobre a Meta
Central de Ajuda da Meta
Instagram
Supervisão do Instagram
Guia para Pais do Instagram
Central de Ajuda do Instagram
Recursos do Instagram
Antibullying no Instagram
Recursos
Central de Recursos
Central de Ajuda da Meta: Safety Advisory Council
Programa de design participativo
Facebook e Messenger
Supervisão do Facebook
Central de Ajuda do Facebook
Central de Ajuda do Messenger
Recursos do Messenger
Central de Privacidade do Facebook
IA generativa
Meta Horizon e Meta Quest
Supervisão do Meta Horizon e do Meta Quest
Guia para Pais do Meta Quest
Central de Educação do Meta Quest
Central de Segurança do Meta Quest
Meta Horizon
Central de Ajuda do Meta Quest
Dicas de segurança para metaverso e VR
Guia para Pais sobre VR
Termos e políticas do site
Padrões da Comunidade
Política de Privacidade
Termos
Política de Cookies
Mapa do Site
Outros sites
Central de Transparência
Central de Segurança da Meta
Central de Privacidade da Meta
Sobre a Meta
Central de Ajuda da Meta
Instagram
Supervisão do Instagram
Guia para Pais do Instagram
Central de Ajuda do Instagram
Recursos do Instagram
Antibullying no Instagram
Facebook e Messenger
Supervisão do Facebook
Central de Ajuda do Facebook
Central de Ajuda do Messenger
Recursos do Messenger
Central de Privacidade do Facebook
IA generativa
Meta Horizon e Meta Quest
Supervisão do Meta Horizon e do Meta Quest
Guia para Pais do Meta Quest
Central de Educação do Meta Quest
Central de Segurança do Meta Quest
Meta Horizon
Central de Ajuda do Meta Quest
Dicas de segurança para metaverso e VR
Guia para Pais sobre VR
Recursos
Central de Recursos
Central de Ajuda da Meta: Safety Advisory Council
Programa de design participativo
Termos e políticas do site
Padrões da Comunidade
Política de Privacidade
Termos
Política de Cookies
Mapa do Site

Deepfakes como forma de assédio

Por Sameer Hinduja e Justin W. Patchin

14 de setembro de 2023

Ícone do Facebook
Social media platform X icon
Ícone de área de transferência
Duas pessoas colaborando enquanto olham para um computador desktop em um escritório iluminado.

O que é um deepfake?



O termo "deepfake" (combinação dos termos em inglês "deep" [aprendizado profundo] + "fake" [falso]) parece ter surgido quando comunidades online de usuários começaram a compartilhar pornografia falsa de celebridades. Para criá-los, é usado software de inteligência artificial para produzir conteúdo fabricado de aparência incrivelmente realista (por exemplo, fotos e vídeos) com a intenção de parecer verdadeiro. Os modelos de aprendizado são criados usando a capacidade de processamento computacional para analisar grandes quantidades de conteúdo (por exemplo, horas de vídeo de uma pessoa, milhares de fotos de uma pessoa) com atenção específica às principais características faciais e linguagem/posição corporal.

Em seguida, o que é aprendido é aplicado como algoritmos a imagens/quadros que alguém pode querer manipular ou criar (por exemplo, sobrepondo movimentos labiais ao conteúdo original (e dublagem de som) para fazer parecer que uma pessoa está dizendo algo que na verdade nunca disse). Outras técnicas, como adição de artefatos (como "falhas" que parecem normais ou acidentais) ou uso de mascaramento/edição para melhorar o realismo, também são empregadas, e o resultado é surpreendentemente convincente. Se você pesquisar exemplos de deepfake na web, provavelmente se surpreenderá com a autenticidade deles. Veja abaixo alguns pontos importantes para tentar proteger seus filhos contra deepfake e ajudá-los a separar fato e ficção.
Pessoa falando em frente a uma tela verde enquanto uma equipe filma com uma câmera e um microfone boom.

Como identificar deepfakes



Embora os deepfakes estejam se tornando cada vez mais realistas com o avanço da tecnologia, em geral é possível detectá-los observando cuidadosamente algumas informações na foto ou no vídeo (por exemplo, olhos que parecem não piscar naturalmente). Pode ser útil aumentar o zoom e procurar bordas não naturais ou desfocadas próximo a boca, pescoço/clavícula ou peito. Muitas vezes, essas regiões contêm desalinhamentos e incompatibilidades entre o conteúdo original e o sobreposto.

Em vídeos, é possível desacelerar o clipe e observar inconsistências visuais, como possível sincronização labial ou instabilidade. Além disso, preste atenção a momentos em que a pessoa demonstra falta de emoção quando deveria haver emoção com base no que está sendo dito, parece pronunciar uma palavra incorretamente ou quaisquer outras discrepâncias estranhas. Por fim, a pesquisa de imagem reversa em fotos (ou uma captura de tela de um vídeo) pode levar ao vídeo original antes de ser adulterado. Nesse caso, compare cuidadosamente as duas partes do conteúdo para determinar qual delas foi manipulada. O ponto principal é que você deve confiar em seus sentidos. Ao desacelerar para olhar e ouvir atentamente o conteúdo, geralmente podemos perceber quando algo está errado.
Pessoa em close com batom brilhante cobrindo parcialmente o rosto com o braço.
É importante lembrar seus filhos de que tudo o que eles postam online pode ser usado para criar um deepfake. Nas contas nas redes sociais, eles provavelmente criaram uma biblioteca de conteúdo que outras pessoas podem acessar e manipular sem consentimento. O rosto, os movimentos, a voz e outras características podem ser apropriados e sobrepostos à imagem de outra pessoa envolvida em um comportamento que pode causar grandes danos à reputação. Para facilitar o diálogo relacionado a esse assunto, veja algumas perguntas para fazer de maneira compreensiva e sem julgamentos:

  • É possível que você tenha aceitado algumas pessoas com quem pode ter conflito ou rivalidade ao longo do tempo?
  • Já sofreu prejuízo de alguém que você nunca imaginou? Pode acontecer de novo?
  • Quando recebe solicitações de novos seguidores ou amigos, você verifica o perfil deles para conferir se são legítimos? Você pode confiar neles?
  • Algum post de seus amigos já foi usado por outra pessoa de maneira não autorizada? Isso pode acontecer com você?


Os deepfakes podem comprometer o bem-estar dos adolescentes devido aos danos emocionais, psicológicos e de reputação que podem causar. Embora inconsistências auditivas, visuais e temporais possam passar despercebidas pelo olho humano, os softwares estão sendo refinados para identificar e sinalizar falta de uniformidade no conteúdo de imagem ou vídeo. Conforme essas tecnologias continuam a melhorar, pais, mães ou responsáveis, cuidadores e outros adultos que atendem os jovens devem aumentar a conscientização sobre a realidade dos deepfakes e evitar as consequências da criação e distribuição desse conteúdo. Ao mesmo tempo, lembre regularmente seus filhos de que você pode ajudar a encontrar uma saída em caso de deepfake (e qualquer outro dano sofrido online).

RECURSOS E FERRAMENTAS


                    Logotipo do Instagram
Como definir um limite de tempo diário

                    Logotipo do Instagram
Ferramentas de supervisão no Instagram

                    Logotipo do Instagram
Como fazer uma pausa

                    Logotipo do Facebook
Como definir limites de tempo

RECURSOS RELACIONADOS

Logotipo da The Jed Foundation, com a palavra "JED" em letras brancas em negrito dentro de um escudo azul.
The Jed Foundation
Ler mais
Adulta e adolescente sorrindo, sentados em um sofá, olhando juntos para um tablet.
Habilidades de engajamento digital
Ler mais
Três adolescentes em pé em frente a uma parede azul brilhante, sorrindo e se apoiando de modo casual.
Como desenvolver empatia
Ler mais
Duas pessoas usando hijabs sorrindo e segurando smartphones ao ar livre.
Dicas para pais, mães e responsáveis sobre redes sociais
Ler mais
Pessoa debruçada na janela do carro ao pôr do sol olhando para o horizonte.
Como lidar com bullying online
Ler mais
Pular para o conteúdo principal
Meta
Facebook e Messenger
Instagram
Meta Horizon e Meta Quest
Recursos