Facebook e Instagram vão rotular conteúdos duvidosos feitos com inteligência artificial, como vídeos manipulados ou imagens geradas por IA.
Os deepfakes vêm se tornando uma preocupação cada vez maior, com a evolução da tecnologia e a disseminação de ferramentas de criação de vídeos falsos. A capacidade de manipular vídeos para fazer com que pessoas pareçam dizer ou fazer coisas que nunca fizeram levanta questões éticas e de segurança, especialmente quando se trata de propagar desinformação.
Com o avanço da inteligência artificial, a criação de deepfakes se tornou mais acessível e realista. A combinação de algoritmos poderosos com dados cada vez mais precisos tem potencializado a disseminação de conteúdos falsos, prejudicando a confiança na veracidade das informações. É essencial desenvolver mecanismos de detecção de deepfake e educar as pessoas sobre os riscos associados a essa tecnologia.
Meta anuncia mudanças em suas políticas de conteúdo digital
A Meta anunciou alterações em suas políticas relacionadas a mídias criadas e modificadas digitalmente, visando controlar o policiamento de conteúdo enganoso gerado por novas tecnologias de inteligência artificial em um período crucial com eleições acontecendo ao redor do mundo, incluindo nos Estados Unidos, em novembro. A empresa, controladora do Facebook e Instagram, implementará rótulos ‘Made with AI’ (‘Feito com IA’) a partir de maio em vídeos, imagens e áudios produzidos por IA em suas plataformas, expandindo uma política que antes englobava apenas uma pequena parte de vídeos adulterados, segundo a vice-presidente de política de conteúdo, Monika Bickert.
Impacto das deepfakes na disseminação de desinformação
A disseminação de informações falsas é um problema crescente, mas a capacidade da inteligência artificial em potencializar a criatividade também é algo a se considerar. Como a população brasileira enxerga o uso dessa tecnologia em seu dia a dia? O Tribunal Superior Eleitoral (TSE) tem se preparado para combater a desinformação e discursos de ódio, especialmente durante as eleições, cientes de que as restrições impostas não serão capazes de conter a disseminação de ‘deepfake’, conforme alertam especialistas.
Meta adota nova abordagem para rótulos em conteúdo manipulado
A Meta pretende aplicar rótulos separados e mais evidentes à mídia digital alterada que represente um alto risco de enganar o público, independentemente de ser criada com IA ou outras ferramentas. Essa nova estratégia marca uma mudança significativa na forma como a empresa lida com conteúdo manipulado, passando de focar na remoção de publicações específicas para manter o conteúdo, fornecendo aos espectadores informações sobre sua origem. A empresa já havia anunciado um método para detectar imagens geradas por ferramentas de IA de outras empresas, mas agora implementará rótulos de alto risco de forma mais abrangente em suas plataformas.
Ampliação na aplicação de rótulos em diferentes serviços
A nova abordagem da Meta para rotular conteúdos manipulados se estenderá para o Facebook, Instagram e Threads, começando imediatamente. Demais serviços como WhatsApp e os visores de realidade virtual Quest terão regras específicas. Em fevereiro, o conselho de supervisão da empresa criticou as políticas vigentes sobre mídia manipulada, considerando-as incoerentes, especialmente após analisar um vídeo alterado do presidente Joe Biden. A Meta reconheceu a necessidade de aprimorar suas diretrizes, levando em conta que conteúdos manipulados, sejam criados com IA ou não, podem ser igualmente enganosos e prejudiciais.
Receba as principais notícias de negócios no InfoMoney Business
Fique por dentro das novidades que movimentam o mundo dos negócios assinando os alertas do novo InfoMoney Business por e-mail. Mantenha-se informado sobre as últimas atualizações no mercado e nas empresas em todo o mundo.
Queremos saber sua opinião e o seu cargo. Preencha os campos corretamente e receba informações relevantes para o seu setor de atuação. Ao fornecer seus dados, você concorda com nossa Política de Privacidade. Não perca tempo e inscreva-se agora mesmo!
Fonte: @ Info Money
Comentários sobre este artigo