A inteligência artificial (IA) é perigosa?
Na segunda-feira(Monday) , 22 de maio(May 22) de 2023, uma conta verificada do Twitter(Twitter) chamada “Bloomberg Feed” compartilhou um tweet alegando que houve uma explosão no Pentágono(explosion at the Pentagon) , acompanhado de uma imagem. Se você está se perguntando o que isso tem a ver com inteligência artificial (IA), a imagem foi gerada por IA, com o tweet rapidamente se tornando viral e provocando uma breve queda no mercado de ações. As coisas poderiam ter sido muito piores – um lembrete gritante dos perigos da inteligência artificial.

Perigos da Inteligência Artificial
Não é apenas com notícias falsas que precisamos nos preocupar. Existem muitos riscos imediatos ou potenciais associados à IA, desde os que dizem respeito à privacidade e segurança até aos preconceitos e questões de direitos de autor. Iremos mergulhar em alguns destes perigos da inteligência artificial, ver o que está a ser feito para os mitigar agora e no futuro e perguntar se os riscos da IA superam os benefícios.
Notícias Falsas
Na época em que os deepfakes chegaram pela primeira vez, surgiram preocupações de que eles poderiam ser usados com más intenções. O mesmo pode ser dito da nova onda de geradores de imagens de IA(AI image generators) , como DALL-E 2 , Midjourney ou DreamStudio . Em 28 de março de 2023, (March 28)imagens(AI-generated images of Pope Francis) falsas geradas por IA do Papa Francisco em uma jaqueta Balenciaga branca e desfrutando de várias aventuras, incluindo andar de skate e jogar pôquer, se tornaram virais. (Balenciaga)A menos que você estudasse as imagens de perto, seria difícil distingui-las da realidade.

Embora o exemplo com o papa tenha sido sem dúvida um pouco divertido, a imagem (e o tweet que a acompanha) sobre o Pentágono(Pentagon) foi tudo menos isso. As imagens falsas(Fake) geradas pela IA têm o poder de prejudicar reputações, acabar com casamentos ou carreiras, criar agitação política e até iniciar guerras se forem utilizadas pelas pessoas erradas – em suma, estas imagens geradas pela IA têm o potencial de ser extremamente perigosas se utilizadas indevidamente.
Com os geradores de imagens de IA agora disponíveis gratuitamente para qualquer pessoa usar, e o Photoshop adicionando um gerador de imagens de IA(Photoshop adding an AI image generator ) ao seu software popular, a oportunidade de manipular imagens e criar notícias falsas é maior do que nunca.
Privacidade, segurança e hackers
A privacidade e a segurança também são grandes preocupações quando se trata dos riscos da IA, com vários países já banindo o ChatGPT da OpenAI . A Itália(Italy) proibiu o modelo devido a preocupações com a privacidade, acreditando que não cumpre o Regulamento Geral Europeu de Proteção de Dados(General Data Protection Regulation) ( RGPD(GDPR) ), enquanto a China(China) , a Coreia do Norte(North Korea) e os governos da Rússia o baniram devido ao receio de que espalhasse desinformação.
Então, por que estamos tão preocupados com a privacidade quando se trata de IA? Os aplicativos e sistemas de IA(AI apps) reúnem grandes quantidades de dados para aprender e fazer previsões. Mas como esses dados são armazenados e processados? Existe um risco real de violações de dados, hackers e informações caírem em mãos erradas.

Não são apenas os nossos dados pessoais que estão em risco. O hacking de IA é um risco genuíno – ainda não aconteceu, mas se pessoas com intenções maliciosas pudessem invadir sistemas de IA, isso poderia ter consequências graves. Por exemplo, os hackers poderiam controlar veículos sem condutor, hackear sistemas de segurança de IA para obter acesso a locais altamente seguros e até hackear sistemas de armas com segurança de IA.
Especialistas da Agência de (Agency)Projetos (Projects)de Pesquisa Avançada de Defesa(Defense Advanced Research) ( DARPA ) do Departamento de Defesa dos EUA(US Department) reconhecem esses riscos e já estão trabalhando no projeto Garantindo a Robustez da IA Contra a Decepção(Guaranteeing AI Robustness Against Deception) ( GARD ) da DARPA , abordando o problema desde o início. O objetivo do projeto é garantir que a resistência a hackers e adulterações seja incorporada aos algoritmos e à IA.
Violação de direitos autorais
Outro dos perigos da IA é a violação de direitos autorais. Isto pode não parecer tão sério quanto alguns outros perigos que mencionamos, mas o desenvolvimento de modelos de IA como o GPT-4 coloca todos em maior risco de infração.

Cada vez que você pede ao ChatGPT para criar algo para você - seja uma postagem em um blog sobre viagens ou um novo nome para sua empresa - você está fornecendo informações que ele usará para responder a consultas futuras. As informações que ele fornece podem estar infringindo os direitos autorais de outra pessoa, por isso é tão importante usar um detector de plágio e editar qualquer conteúdo criado pela IA antes de publicá-lo.
Viés social e de dados
A IA não é humana, então não pode ser tendenciosa, certo? Errado. Pessoas e dados são usados para treinar modelos de IA e chatbots , o que significa que dados ou personalidades tendenciosas resultarão em uma IA tendenciosa. Existem dois tipos de preconceito na IA: preconceito social e preconceito de dados.

Com muitos preconceitos presentes na sociedade quotidiana, o que acontece quando esses preconceitos se tornam parte da IA? Os programadores responsáveis pelo treinamento do modelo podem ter expectativas tendenciosas, que então chegam aos sistemas de IA.
Ou os dados utilizados para treinar e desenvolver uma IA podem estar incorretos, tendenciosos ou recolhidos de má-fé. Isto leva a preconceitos de dados, que podem ser tão perigosos quanto preconceitos sociais. Por exemplo, se um sistema de reconhecimento facial for treinado utilizando principalmente rostos de pessoas brancas, poderá ter dificuldades em reconhecer pessoas de grupos minoritários, perpetuando a opressão.
Robôs tomando nossos empregos
O desenvolvimento de chatbots como ChatGPT e Google Bard abriu uma preocupação totalmente nova em torno da IA: o risco de que os robôs(robots ) tomem nossos empregos. Já estamos vendo escritores da indústria de tecnologia sendo substituídos pela IA, desenvolvedores de software preocupados em perder seus empregos para bots e empresas usando ChatGPT para criar conteúdo de blog e conteúdo de mídia social em vez de contratar escritores humanos.

De acordo com o Relatório O Futuro dos Empregos de 2020 do Fórum Económico Mundial(World Economic Forum’s The Future of Jobs Report 2020) , espera-se que a IA substitua 85 milhões de empregos em todo o mundo até 2025. Mesmo que a IA não substitua os escritores, já está a ser usada como ferramenta por muitos. Aqueles em empregos que correm o risco de serem substituídos pela IA podem precisar de se adaptar para sobreviver – por exemplo, os escritores podem tornar-se engenheiros de IA, permitindo-lhes trabalhar com ferramentas como o ChatGPT para a criação de conteúdos, em vez de serem substituídos por estes modelos(ChatGPT) .
Riscos potenciais futuros de IA
Todos estes são riscos imediatos ou iminentes, mas e quanto a alguns dos perigos menos prováveis, mas ainda possíveis, da IA que poderemos ver no futuro? Isso inclui coisas como a IA sendo programada para prejudicar humanos, por exemplo, armas autônomas treinadas para matar durante uma guerra.

Depois, há o risco de a IA se concentrar exclusivamente no seu objectivo programado, desenvolvendo comportamentos destrutivos à medida que tenta atingir esse objectivo a todo o custo, mesmo quando os humanos tentam impedir que isso aconteça.
A Skynet(Skynet) nos ensinou o que acontece quando uma IA se torna senciente. No entanto, embora o engenheiro do Google (Google)Blake Lemoine possa ter tentado convencer a todos de que o LaMDA, o gerador de chatbot artificialmente inteligente do Google, era senciente(LaMDA, Google’s artificially intelligent chatbot generator was sentient) em junho de 2022(June 2022) , felizmente não há evidências até o momento que sugiram que isso seja verdade.
Os desafios da regulamentação da IA
Na segunda-feira, 15 de maio de 202, o CEO da OpenAI, Sam Altman, participou da primeira audiência do Congresso sobre inteligência artificial(OpenAI CEO Sam Altman attended the first congressional hearing on artificial intelligence) , alertando: “Se esta tecnologia der errado, pode dar muito errado”. O OpenAI CO deixou claro que é a favor da regulamentação e trouxe muitas de suas próprias ideias para a audiência. O problema é que a IA está evoluindo a tal velocidade que é difícil saber por onde começar com a regulamentação.
O Congresso(Congress) quer evitar cometer os mesmos erros cometidos no início da era das mídias sociais, e uma equipe de especialistas ao lado do líder da maioria no Senado, Chuck Schumer,(Senate Majority Leader Chuck Schumer) já está trabalhando em regulamentações que exigiriam que as empresas revelassem quais fontes de dados usaram para treinar modelos e quem. os treinou. Pode levar algum tempo até que exatamente como a IA será regulamentada se torne claro, e sem dúvida haverá reação das empresas de IA.
A ameaça(Threat) de uma inteligência artificial geral(Artificial General Intelligence)
Há também o risco da criação de uma inteligência artificial geral ( AGI ) que poderia realizar qualquer tarefa que um ser humano (ou animal) pudesse realizar. Frequentemente(Often) mencionado em filmes de ficção científica, provavelmente ainda estamos a décadas de tal criação, mas se e quando criarmos um AGI , isso poderá representar uma ameaça para a humanidade.
Muitas figuras públicas já endossam a crença de que a IA representa uma ameaça existencial para os humanos, incluindo Stephen Hawking , Bill Gates e até mesmo o ex- CEO do Google, Eric Schmidt(Google CEO Eric Schmidt) , que afirmou: “A inteligência artificial pode representar riscos existenciais e os governos precisam saber como garantir a tecnologia não é mal utilizada por pessoas más.”
Então, a inteligência artificial é perigosa e os seus riscos superam os seus benefícios? O júri ainda não decidiu sobre isso, mas já estamos vendo evidências de alguns dos riscos que nos rodeiam neste momento. É menos provável que outros perigos se concretizem tão cedo, se é que se concretizarão. Porém, uma coisa é clara: os perigos da IA não devem ser subestimados. É da maior importância garantirmos que a IA seja devidamente regulamentada desde o início, para minimizar e, esperançosamente, mitigar quaisquer riscos futuros.
Related posts
Como gerenciar seu histórico de gravações de zoom
Como excluir seu histórico de pesquisa do Google - um guia moderno
Como habilitar ou desabilitar o histórico de bate-papo no Microsoft Teams
Como ativar legendas ocultas e transcrição ao vivo no zoom
Como gravar uma reunião de zoom
Como SSH ou SFTP em seu Raspberry Pi
Como ver páginas e arquivos em cache do seu navegador
Usando a interface da Web de transmissão
6 melhores configurações de câmera para fotos da lua
Como usar seu Chromebook como um segundo monitor
Como digitalizar DVDs
Como pilotar um drone para iniciantes totais
Como abrir um arquivo bloqueado quando outro programa está usando
Revisão do Livro - O Guia Geek How-To para Windows 8
Como criar uma equipe no Microsoft Teams
Como manter o software do seu PC atualizado automaticamente
Remova instantaneamente fundos de imagens usando IA
Como hospedar uma reunião do Zoom Cloud em um smartphone ou desktop
Como fazer um formulário preenchível do Google Docs com tabelas
7 dicas técnicas de otimização de SEO para qualquer site
