ETFFIN Finance >> Finanças pessoais curso >  >> Criptomoeda >> Blockchain

Vídeos falsos podem destruir a confiança na sociedade - veja como restaurá-la

Tem o potencial de arruinar relacionamentos, reputações e nossa realidade online. A tecnologia de inteligência artificial “Deepfake” promete criar vídeos adulterados tão realistas que é quase impossível diferenciá-los dos reais. Até agora, ele tem sido usado principalmente para criar clipes pornográficos alterados com rostos femininos de celebridades, mas assim que as técnicas forem aperfeiçoadas, deepfake revenge porn com o objetivo de mostrar que pessoas traindo seus parceiros não ficará muito atrás.

Mas mais do que se tornar uma ferramenta desagradável para perseguidores e assediadores, deepfakes ameaçam minar a confiança nas instituições políticas e na sociedade como um todo. A Casa Branca justificou recentemente o banimento temporário de um repórter de suas coletivas de imprensa, usando supostamente uma filmagem genuína de um incidente envolvendo o jornalista. Imagine as implicações de ver imagens ultra-realistas, mas artificiais, de líderes governamentais planejando assassinatos, CEOs em conluio com agentes estrangeiros ou um filantropo renomado que abusou de crianças.

As chamadas notícias falsas já aumentaram o ceticismo de muitas pessoas em relação aos políticos, jornalistas e outras figuras públicas. Está se tornando tão fácil criar cenários inteiramente fictícios que não podemos mais confiar em nenhuma filmagem em seu valor nominal. Isso ameaça nossa política, sistemas legais e de mídia, para não mencionar nossos relacionamentos pessoais. Precisaremos criar novas formas de consenso sobre as quais basear nossa realidade social. Novas formas de verificar e distribuir o poder - algumas políticas, alguns tecnológicos - podem nos ajudar a conseguir isso.

Escândalos falsos, políticos falsos

Deepfakes são assustadores porque permitem que a imagem de qualquer pessoa seja cooptada, e questionar nossa capacidade de confiar no que vemos. Um uso óbvio de deepfakes seria implicar falsamente as pessoas em escândalos. Mesmo que a filmagem incriminatória seja posteriormente comprovada como falsa, o dano à reputação da vítima pode ser impossível de reparar. E os políticos podiam ajustar imagens antigas de si mesmos para fazer parecer que sempre apoiaram algo que recentemente se tornou popular, atualizando suas posições em tempo real.

Pode até haver figuras públicas inteiramente imaginárias, original, mas não autêntico. Enquanto isso, imagens de vídeo podem se tornar inúteis como prova em tribunal. As notícias transmitidas podem ser reduzidas a pessoas debatendo se os clipes são autênticos ou não, usando IA cada vez mais complexa para tentar detectar deepfakes.

Mas a corrida armamentista que já existe entre os criadores de conteúdo falso e aqueles que detectam ou desmentem a desinformação (como a planejada “sala de guerra” de notícias falsas do Facebook) esconde um problema mais profundo. A mera existência de deepfakes mina a confiança e a confiança, assim como a possibilidade de uma eleição ser hackeada põe em questão a validade do resultado.

Embora algumas pessoas possam ser enganadas por deepfakes, esse não é o problema real. O que está em jogo é a estrutura social subjacente na qual todos concordamos que existe alguma forma de verdade, e as realidades sociais que se baseiam nessa confiança. Não é uma questão de fim da verdade, mas o fim da crença na verdade - uma sociedade pós-trust. Na esteira da desinformação massiva, até mesmo figuras públicas honestas serão facilmente ignoradas ou desacreditadas. As organizações tradicionais que apoiaram e possibilitaram o consenso - governo, a imprensa - não será mais adequada para o propósito.

Blockchain trust

Novas leis para regulamentar o uso de deepfakes serão importantes para as pessoas que têm vídeos prejudiciais feitos a partir deles. Mas a política e a lei por si só não salvarão nossos sistemas de governança. Precisaremos desenvolver novas formas de consenso, novas formas de pactuar situações sociais com base em formas alternativas de confiança.

Uma abordagem será descentralizar a confiança, para que não precisemos mais de algumas instituições para garantir a autenticidade das informações e, em vez disso, possamos contar com várias pessoas ou organizações com boa reputação. Uma maneira de fazer isso pode ser usar o blockchain, a tecnologia que alimenta o Bitcoin e outras criptomoedas.

O Blockchain funciona criando um livro-razão público armazenado em vários computadores ao redor do mundo ao mesmo tempo e feito à prova de violação por criptografia. Seus algoritmos permitem que os computadores concordem sobre a validade de quaisquer alterações no livro-razão, tornando muito mais difícil registrar informações falsas. Desta maneira, a confiança é distribuída entre todos os computadores que podem examinar uns aos outros, aumentando a responsabilidade.

Sociedade mais democrática

Também podemos buscar formas mais democráticas de governo e jornalismo. Por exemplo, a democracia líquida permite que os eleitores votem diretamente em cada questão ou designem temporariamente seus votos aos delegados de uma forma mais flexível e responsável do que entregar o controle total a um partido durante anos. Isso permitiria ao público recorrer a especialistas para tomar decisões por eles quando necessário, mas rapidamente expulsar os políticos que desconsideraram seus pontos de vista ou agiram desonestamente, aumentar a confiança e a legitimidade no sistema político.

Na imprensa, poderíamos avançar para reportagens de notícias mais colaborativas e democratizadas. Os jornalistas tradicionais podem usar os aspectos positivos da mídia social para reunir informações de uma gama mais diversificada de fontes. Esses colaboradores podem então discutir e ajudar a examinar a história para construir um consenso, melhorando a reputação da mídia.

O problema com qualquer sistema que depende da reputação de indivíduos importantes para construir confiança é como evitar que essa reputação seja mal utilizada ou danificada de forma fraudulenta. Verificações como a verificação de conta “blue tick” do Twitter para figuras públicas podem ajudar, mas melhores proteções legais e técnicas também são necessárias:direitos mais protegidos à privacidade, melhores respostas ao comportamento anti-social online, e melhores tecnologias que aumentam a privacidade incorporadas ao design.

As ramificações potenciais dos deepfakes devem atuar como uma chamada à ação no redesenho dos sistemas de confiança para serem mais abertos, mais descentralizado e mais coletivo. E agora é a hora de começar a pensar em um futuro diferente para a sociedade.