O deepfake, uma contração de «deep learning» e «fake», é um conteúdo falsificado que utiliza inteligência artificial eaprendizagem automática. Consiste em sobrepor um rosto ou uma voz a um conteúdo já existente. Muitas vezes, o deepfake permite criar vídeos ou imagens que mostram pessoas a fazer ou a dizer coisas que, na realidade, não fizeram nem disseram.
Para que serve o deepfake?
Podendo ser criados com pequenas quantidades de material de vídeo ou áudio, os deepfakes podem ser produzidos de forma automatizada em grande escala. Mas, infelizmente, são frequentemente utilizados para fins maliciosos, tais como difamação, desinformação ou manipulação da opinião pública.
No entanto, a sua utilização também é legítima. No domínio do entretenimento e da educação, permitem, nomeadamente, dar voz a figuras históricas ou facilitar a aprendizagem de línguas.
Hoje em dia, os deepfakes são difíceis de detectar, pois estão a tornar-se cada vez mais realistas. Por isso, é importante ter em conta a fonte da informação e verificar a autenticidade antes de acreditar ou partilhar qualquer conteúdo.
Como proteger-se dos deepfakes?
Existem várias formas de combater os deepfakes. Aqui estão algumas das principais abordagens:
Detecção automática
Os investigadores estão a desenvolver ferramentas para detetar automaticamente os deepfakes. Por exemplo, essas ferramentas podem detetar inconsistências nos movimentos da boca, dos olhos e das sobrancelhas, bem como outros sinais reveladores de manipulação.
Verificação da autenticidade
Antes de partilhar ou utilizar vídeos e imagens, é essencial verificar a fonte. Além disso, consultar versões alternativas destes conteúdos também pode ajudar a confirmar a autenticidade das informações.
Educação
É necessário sensibilizar os utilizadores para os riscos dos deepfakes e ensiná-los a identificá-los. Todos devem ter um olhar crítico sobre os conteúdos que consultam online e verificar a autenticidade das informações antes de as partilhar.
Normas e regulamentos
São necessárias para regulamentar a criação e a divulgação de deepfakes. Por isso, é útil aplicar leis que proíbam a criação de deepfakes para fins maliciosos e obriguem à transparência as empresas que utilizam a IA para criar conteúdos.
Tecnologias de proteção da privacidade
É possível proteger a privacidade e os dados pessoais dos indivíduos, uma vez que existem tecnologias que permitem ocultar rostos ou vozes em vídeos ou imagens. Além disso, outras tecnologias podem tornar os dados do utilizador anónimos.
Para concluir, é importante referir que estas abordagens estão em constante evolução. Os deepfakes estão a tornar-se cada vez mais difíceis de detetar, pelo que é importante continuar a desenvolver novas técnicas para os combater.
Diretores de Sistemas de Informação (DSI), Diretores de Segurança de Sistemas de Informação (RSSI) e Responsáveis pela Proteção de Dados (DPO), solicitem uma demonstração gratuita da solução totalmente automatizada de sensibilização para o phishing:















