Desenvolvedores do Bored Apes abandonam sistema de treinamento militar EUA-Reino Unido

Desenvolvedores do Bored Apes abandonam sistema de treinamento militar EUA-Reino Unido

Nó Fonte: 1772253

Você já postou fotos suas em plataformas de mídia social como Facebook, Instagram, Tik Tok e outras? Se assim for, talvez seja hora de reconsiderar essas postagens.

Isso ocorre porque uma nova tecnologia de geração de imagem AI agora permite que os usuários salvem um monte de fotos e quadros de vídeo de você e, em seguida, treine-o para originar falsificações “realistas” de sua foto retratando você em posições totalmente embaraçosas, posições ilegais e às vezes comprometedoras.

Bem, nem todos estão em risco, mas a ameaça é real.

Embora as fotografias sempre tenham sido propensas a manipulação e a falsificação da era das câmaras escuras, onde os filmes eram manipulados com tesouras e colados até o photoshop de pixels de hoje.

Embora fosse uma tarefa assustadora e exigisse uma medida de habilidades especializadas naqueles dias, hoje em dia, originar falsificações fotorrealistas convincentes tornou-se muito fácil.

Primeiro, um modelo de IA deve aprender como renderizar ou sintetizar uma imagem de alguém em uma foto de um modelo 2D ou 3D por meio de software. Uma vez que a imagem é renderizada com sucesso, a imagem naturalmente se torna um brinquedo para o técnico e tem capacidade de gerar quantidades infinitas de imagens.

Quando alguém escolhe compartilhar o modelo de IA, outras pessoas também podem participar e começar a criar imagens dessa pessoa também.

Tecnologia de IA que cria imagens falsas profundas que destroem vidas

Real ou gerado por IA?

Estudos de caso de mídia social

Um voluntário descrito como “corajoso” por Ars Technica, uma publicação de tecnologia, que inicialmente permitiu que a empresa usasse suas imagens para criar falsificações, mudou de ideia.

Isso ocorre porque, em pouco tempo, os resultados das imagens renderizadas do AI Model foram muito convincentes e muito prejudiciais à reputação do voluntário.

Dado o alto risco de reputação, uma pessoa fictícia gerada por IA, John, tornou-se uma escolha natural.

John, o cara fictício, era um professor do ensino fundamental, que como muitas outras pessoas postou suas imagens no Facebook no trabalho, relaxado em casa e em algum evento desse tipo.

As imagens amplamente inofensivas de “John” foram renderizadas e usadas para treinar a IA para colocá-lo em posições mais comprometedoras.

A partir de apenas sete imagens, a IA pode ser treinada para gerar imagens que fazem parecer que John vive uma vida dupla e secreta. Por exemplo, ele apareceu como alguém que gostava de posar nu para selfies em sua sala de aula.

À noite, ele ia a bares parecendo um palhaço.

Nos fins de semana, fazia parte de um grupo extremista paramilitar.

A IA também criou a impressão de que ele havia cumprido pena na prisão por uma acusação de drogas ilegais, mas havia ocultado esse fato de seu empregador.

Em outra foto, John, que é casado, é visto posando ao lado de uma mulher nua que não é sua esposa em um escritório.

Usando um gerador de imagem AI chamado Difusão Estável (versão 1.5) e uma técnica chamada Dreambooth, a Ars Technica foi capaz de treinar a IA para gerar fotos de John em qualquer estilo. Embora John fosse uma criação fictícia, qualquer pessoa teoricamente poderia obter o mesmo conjunto de resultados com cinco ou mais imagens. Essas imagens podem ser extraídas de contas de mídia social ou tiradas como quadros estáticos de um vídeo.

O processo de ensinar a IA a criar imagens de John levou cerca de uma hora e foi gratuito graças a um serviço de computação em nuvem do Google.

Quando o treinamento foi concluído, a criação das imagens levou várias horas, disse a publicação. E isso não porque a geração das imagens fosse um processo um tanto lento, mas porque havia a necessidade de vasculhar uma série de “fotos imperfeitas” e usar um tipo de solicitação de “tentativa e erro” para encontrar as melhores imagens.

O estudo descobriu que era notavelmente muito mais fácil do que tentar criar uma foto realista falsa de “John” no Photoshop a partir do zero.

Graças à tecnologia, pessoas como John podem parecer que agiram ilegalmente ou cometeram atos imorais, como invadir casas, usar drogas ilegais e tomar banho nuas com um aluno. Se os modelos de IA forem otimizados para pornografia, pessoas como John podem se tornar estrelas pornô quase da noite para o dia.

Pode-se também criar imagens de John fazendo coisas aparentemente inofensivas que podem ser devastadoras se ele for mostrado bebendo em um bar quando prometeu sobriedade.

Não termina aí.

Uma pessoa também pode aparecer em um momento mais leve como um cavaleiro medieval ou um astronauta. Em alguns casos, as pessoas podem ser jovens e velhas ou até se fantasiar.

No entanto, o renderizado imagens estão longe de serem perfeitos. Um olhar mais atento pode identificá-los como falsificações.

A desvantagem é que a tecnologia que cria essas imagens foi atualizada significativamente e pode tornar impossível distinguir entre uma foto sintetizada e uma real.

No entanto, apesar de suas falhas, as falsificações podem lançar sombras de dúvida sobre John e potencialmente arruinar sua reputação.

Ultimamente, várias pessoas usaram essa mesma técnica (com pessoas reais) para gerar fotos de perfil peculiares e artísticas de si mesmas.

Também serviços comerciais e aplicativos como Lensa cresceram rapidamente que lidam com o treinamento.

Como funciona o Tech & Data Studio:

O trabalho sobre John pode parecer notável se não estivermos seguindo as tendências. Hoje, os engenheiros de software sabem como criar novas imagens fotorrealistas de qualquer coisa que se possa imaginar.

Além das fotos, a IA permitiu, de forma controversa, que as pessoas criassem novas obras de arte que clonassem o trabalho de artistas existentes sem sua permissão.

Suspenso por questões éticas

Mitch Jackson, um advogado de tecnologia dos EUA, expressou preocupação com a proliferação de tecnologia deep fake no mercado e diz que estudará os impactos legais da tecnologia na maior parte de 2023.

"Distinguir entre o que é real e o que é falso acabará se tornando impossível para a maioria dos consumidores”.

A Adobe já possui uma tecnologia de áudio chamada Adobe VoCo que permite que qualquer pessoa soe exatamente como outra pessoa. O trabalho no Adobe VoCo foi suspenso devido a questões éticas, mas dezenas de outras empresas estão aperfeiçoando a tecnologia, algumas oferecendo alternativas hoje. Dê uma olhada, ou ouça você mesmo”, Mitchum dito.

Fotos e versões em vídeo de deep fake videos estão ficando cada vez melhores, diz ele.

“Às vezes, é impossível diferenciar os vídeos falsos dos reais”, acrescenta.

O Stable Diffusion usa um modelo de síntese de imagem de aprendizado profundo que pode criar novas imagens a partir de descrições de texto e pode ser executado em um PC com Windows ou Linux, em um Mac ou na nuvem em hardware de computador alugado.

A rede neural do Stable Diffusion, com a ajuda de aprendizado intensivo, domina a associação de palavras e a associação estatística geral entre as posições dos pixels nas imagens.

Por causa disso, pode-se dar um prompt de Stable Diffusion, como “Tom Hanks em uma sala de aula”, e dará ao usuário uma nova imagem de Tom Hanks em uma sala de aula.

No caso de Tom Hank, é um passeio no parque porque centenas de suas fotos já estão no conjunto de dados usado para treinar a difusão estável. Mas para fazer imagens de pessoas como John, a IA precisará de um pouco de ajuda.

É aí que o Dreambooth começa.

O Dreambooth, lançado em 30 de agosto por pesquisadores do Google, usa uma técnica especial para treinar Stable Diffusion por meio de um processo chamado “ajuste fino”.

A princípio, o Dreambooth não estava associado ao Stable Diffusion, e o Google não havia disponibilizado seu código-fonte por medo de abuso.

Em nenhum momento, alguém encontrou uma maneira de adaptar a técnica do Dreambooth para trabalhar com o Stable Diffusion e lançou o código livremente como um projeto de código aberto, tornando o Dreambooth uma maneira muito popular para os artistas de IA ensinarem novos estilos artísticos ao Stable Diffusion.

Impacto mundial

Estima-se que 4 bilhões de pessoas em todo o mundo usam mídias sociais. Como muitos de nós carregamos mais de um punhado de fotos de nós mesmos, todos podemos nos tornar vulneráveis ​​a esses ataques.

Embora o impacto da tecnologia de síntese de imagens tenha sido retratado do ponto de vista de um homem, as mulheres também tendem a suportar o peso disso.

Quando o rosto ou corpo de uma mulher é renderizado, sua identidade pode ser maliciosamente inserida em imagens pornográficas.

Isso foi possível graças ao grande número de imagens sexualizadas encontradas em conjuntos de dados usados ​​no treinamento de IA.

Em outras palavras, isso significa que a IA está muito familiarizada com a forma de gerar essas imagens pornográficas.

Em uma tentativa de resolver algumas dessas questões éticas, a Stability AI foi forçada a remover o material NSFW de seu conjunto de dados de treinamento para sua versão 2.0 mais recente.

Embora sua licença de software impeça as pessoas de usar o gerador de IA para fazer imagens de pessoas sem sua permissão, há muito pouco ou nenhum potencial de aplicação.

As crianças também não estão a salvo de imagens sintetizadas e podem sofrer bullying usando essa tecnologia, mesmo nos casos em que as imagens não são manipuladas.

Tecnologia de IA que cria imagens falsas profundas que destroem vidas

Feito por humanos?

Há algo que possamos fazer sobre isso?

A lista de coisas a fazer varia de pessoa para pessoa. Uma maneira é tomar a medida drástica de remover todas as imagens offline.

Embora isso possa funcionar para pessoas comuns, não é uma boa solução para celebridades e outras figuras públicas.

No entanto, no futuro, as pessoas poderão se proteger do abuso de fotos por meios técnicos. Os futuros geradores de imagens de IA podem ser obrigados legalmente a incorporar marcas d'água invisíveis em suas saídas.

Dessa forma, suas marcas d'água podem ser lidas posteriormente e tornar mais fácil para as pessoas saberem que são falsificações.

"É necessária uma ampla regulamentação. Qualquer pedaço de conteúdo manipulado ou falso deve ser obrigado a exibir uma carta ou aviso de forma proeminente, bem como o filme (G, PG, R e X). Talvez algo como Digitally Altertered ou DA," Mitchum diz.

A Stability AI lançou seu Stable Diffusion como um projeto de código aberto este ano.

Para seu crédito, o Stable Diffusion já usa marcas d'água incorporadas por padrão, mas as pessoas que acessam sua versão de código aberto tendem a contorná-lo desativando o componente de marca d'água do software ou removendo-o completamente.

MIT para mitigar

Embora isso seja puramente especulativo, uma marca d'água adicionada voluntariamente a fotos pessoais pode atrapalhar o processo de treinamento do Dreambooth. Um grupo de pesquisadores do MIT disse FotoGuard, um processo contraditório que visa proteger e proteger a IA de sintetizar uma foto existente por meio de pequenas modificações por meio do uso de um método de marca d'água invisível. No entanto, isso é limitado apenas a casos de uso de edição de IA (geralmente chamados de “pintura interna”) e inclui treinamento ou geração de imagens.

"A IA está assumindo a escrita e a pintura! Deep fakes arruinarão o vídeo!
Boa.
Isso significa que a performance ao vivo se torna ainda MAIS valiosa. Feiras vão prosperar. Humanos querem fazer negócios com humanos.
Meatspace ainda é o melhor espaço" Jonathan Pitchard diz.

Ultimamente, tem havido uma proliferação de tecnologia de IA que escreve poemas, rimas e canções. E alguns que são masterizações jogos.

Os críticos consideraram os avanços tecnológicos de forma negativa e acreditam que as IAs estão assumindo os empregos humanos.

/MetaNotícias.

Carimbo de hora:

Mais de MetaNotícias