ARACAJU/SE, 5 de outubro de 2025 , 19:53:37

Sora 2: aplicativo promete competir com TikTok na criação de vídeos curtos com recursos de deepfake

 

A OpenAI apresentou recentemente o Sora 2, um novo aplicativo que usa inteligência artificial para criar vídeos curtos com recursos de deepfake. A novidade promete trazer uma mudança significativa para o mercado de conteúdo digital, ao oferecer aos usuários ferramentas inéditas para produção e remixagem de vídeos. O lançamento da nova rede social da OpenAI pode indicar uma nova fase para as plataformas digitais, na qual a IA passa a desempenhar um papel central na criação de conteúdo.

O que é o Sora 2?

Sora 2 é um modelo avançado de inteligência artificial capaz de transformar descrições textuais em vídeos realistas de até 10 segundos. Entre seus recursos mais inovadores está a função “Cameo”, que permite aos usuários inserir avatares próprios em produções criadas por outras pessoas, sempre mediante autorização prévia. O processo exige verificação de identidade por vídeo e áudio, garantindo segurança e consentimento.

Como funciona o Sora 2?

Com uma interface semelhante a outras redes sociais de vídeo curto, o Sora 2 oferece feed personalizado, ferramentas de remixagem e possibilidade de criação a partir de prompts de texto ou imagens (desde que não contenham pessoas). A função “Remix” permite que o usuário interaja com vídeos já publicados, criando novas versões com suas próprias ideias.

Questões éticas e legais

O uso de deepfakes levanta desafios importantes relacionados à privacidade e ao consentimento, embora a plataforma adote mecanismos de autorização e controle. O advogado, Doutor em Direito pela USP e especialista em Direito Digital, Lucas Ruiz Balconi aponta riscos como criação de conteúdos sem permissão ou manipulação de informações. A moderação e ferramentas de denúncia são elementos centrais para prevenir abusos.

“Mais do que um novo competidor para o TikTok, o lançamento de uma ferramenta como o Sora 2 pela OpenAI inaugura um capítulo decisivo na nossa relação com a “realidade digital”. Estamos transitando de uma era em que a tecnologia editava a realidade para uma em que ela a gera de forma digital e cada vez mais indistinguível do real”, afirma.

Apesar da inovação, o especialista alerta para os riscos éticos do uso de deepfake em redes sociais, que podem ser potencializados com o uso de IA’s generativas. Para ele, esses fatores operam em diferentes níveis e em três eixos principais: violência simbólica e despersonalização, manipulação política e o fim da Esfera Pública e Crise da autenticidade e do consentimento.

– Violência simbólica e despersonalização: No plano individual, o risco mais imediato é o uso de deepfakes para fins maliciosos, como a criação de pornografia não consensual, campanhas de difamação, bullying ou fraudes. Em termos teóricos, isso pode representar uma forma de “assassinato simbólico”: apropria-se da imagem e da voz de uma pessoa – ativos que compõem sua identidade pública – para fazê-la dizer ou fazer algo que ela nunca fez. É uma violação radical do direito fundamental à própria imagem, transformando o indivíduo em uma marionete digital à mercê de terceiros.

– Manipulação política e o fim da esfera pública: Em uma escala social e coletiva, a ameaça se volta contra a saúde da democracia. A capacidade de criar vídeos falsos de políticos discursando, de fabricar evidências de eventos que nunca ocorreram ou de incitar pânico com simulações de catástrofes, pode destruir o terreno comum de fatos sobre o qual o debate público se assenta. A ética da comunicação é substituída pela estética da manipulação. O objetivo não é mais convencer com argumentos, mas fabricar uma “realidade” que mobilize afetos e confirme vieses, tornando o diálogo impossível.

– Crise da autenticidade e do consentimento: O risco mais profundo é “sócio-existencial”. Se qualquer pessoa pode ter sua imagem e voz perfeitamente simuladas, o que garante nossa unicidade? O consentimento, pilar das relações éticas e dos negócios jurídicos, perde seu valor. Como posso consentir com o uso da minha imagem se ela pode ser “clonada” e usada em contextos que eu jamais autorizaria? Isso afeta desde contratos de publicidade, que dependem da autenticidade de um porta-voz, até a nossa segurança mais básica nas interações digitais.

Outro ponto destacado por Lucas é a como a proliferação de deepfakes pode afetar a confiança dos usuários em conteúdos digitais. Para ele, o aumento dessas produções cria uma suspeita generalizada e, com isso, o problema não será fazer as pessoas acreditarem em uma mentira, mas criar um ambiente onde qualquer verdade pode ser desacreditada. Um áudio ou vídeo real e comprometedor de uma figura pública pode ser facilmente descartado como “é um deepfake”.

Esse fenômeno, conhecido já conhecido como “o dividendo do mentiroso”, inverte o ônus da prova: não é mais o mentiroso que precisa provar sua farsa, mas a verdade que terá dificuldades para provar sua autenticidade. Além disso, do ponto de vista ético, jurídico e jornalístico, os fatos e as imagens sempre foram ativos de alto valor probatório. Um vídeo era uma prova, um registro real e fidedigno de um fato.

Com a popularização dos deepfakes, qualquer imagem ou vídeo passa a existir sob um véu de dúvida. Isso cria um desafio para a justiça, para o jornalismo investigativo e para a memória histórica. Se tudo pode ser fabricado, nada mais é inquestionável, e a própria ideia de “evidência” entra em crise.

“A consequência é uma apatia epistêmica e o refúgio nas “bolhas”. Diante da dificuldade de discernir o real do falso, a tendência humana não será a de se tornar investigadores de mídia, mas sim desistir. Essa “apatia” leva as pessoas a abandonarem a busca por fontes confiáveis e a se refugiarem em suas “bolhas” ideológicas, consumindo apenas o conteúdo que confirma suas crenças preexistentes e que vêm de fontes que elas sentem como confiáveis, independentemente da veracidade”, afirma.

Assim, segundo o especialista, a verdadeira ameaça de tecnologias como o Sora 2 não é, portanto, a criação de uma mentira específica. Pode ser a diluição sistêmica da “realidade” que sustenta nossos contratos sociais e jurídicos. Do ponto de vista legal, o desafio é considerado complexo, visto que a legislação brasileira foi pensada para o mundo “físico” e em um momento em que a cópia era distinguível do original. Ele ainda acrescenta que hoje, o “original” pode sequer existir.

Quando o Sora 2 chega ao Brasil?

Atualmente, o Sora 2 está disponível somente para iOS, nos Estados Unidos e Canadá, funcionando por meio de convite. Ainda não há uma data oficial para o lançamento no Brasil, mas especialistas indicam que o aplicativo pode chegar ao país nos próximos meses. Considerado um mercado estratégico para redes sociais, o Brasil pode se tornar um dos próximos alvos da expansão global da OpenAI.

Fonte: TecMundo

 

 

Você pode querer ler também