
Depois de breve pausa, voltei e vou contar uma história para vocês.
Anos atrás, em meio a uma disputa eleitoral em Florianópolis, fui vítima de um crime virtual. Alguém, provavelmente incomodado com algum comentário meu no X (o antigo Twitter), criou um perfil fake usando a minha foto. Vale dizer: eu não era candidata, nem integrava campanha alguma. Como 99% dos tuiteiros da época, eu só falava para ninguém — um hábito quase terapêutico de compartilhar impressões sobre assuntos aleatórios com uma timeline.
Mesmo assim, quando vi minha imagem sendo usada fora de contexto, me assustei. E aquilo ainda era pré-IA: um fake tosco, de baixa qualidade, feito no braço. Hoje, o cenário é outro, bem mais perigoso.
Com a inteligência artificial generativa, vídeos, áudios e imagens podem ser fabricados com uma perfeição assustadora. Gente “aparece” dizendo o que nunca disse, defendendo ideias que nunca teve, anunciando promoções que nunca existiram. É a era das crises artificiais: aquelas que não nasceram de erros reais, mas de conteúdos forjados com técnica e má-fé, que se espalham antes mesmo que a gente consiga respirar.
Não são apenas boatos maldosos, mas uma nova forma de sabotagem. Nela, o dano é imediato e o impacto na reputação pode ser devastador, porque basta que algo “pareça verdade” para se tornar verossímil o bastante aos olhos do público. E o estrago, meus caros, não se desfaz com apenas um desmentido.
Esse tipo de crise exige uma resposta que vai além do improviso. É preciso combinar monitoramento, ação jurídica imediata, perícia técnica e, acima de tudo, o tal colchão reputacional sobre o qual falamos várias vezes aqui na coluna.
A mentira, agora, pode ter a sua voz, o seu rosto e até o seu jeito de piscar. A pergunta que fica é: estamos preparados para reagir a algo que nunca aconteceu — mas que, mesmo assim, compromete tudo o que somos? Na próxima coluna vou falar mais sobre isso e mostrar estratégias para proteger reputações nessa nova era digital.