Impactos da Inteligência Artificial são incertos. Nomes como Elon Musk pedem freios enquanto outros como Bill Gates acham caminho sem volta
Por Gabriel Valery, da RBA
Publicado 04/04/2023 – 20h21
Pixabay/CreativeCommons
Enquanto cientistas e influenciadores de escala global lançam opiniões sobre a IA, autoridades correm para pensar numa regulamentação
São Paulo – A comunidade acadêmica internacional está dividida sobre os avanços da inteligência artificial (IA). Enquanto mais de mil cientistas, empresários e historiadores pedem pausa nos experimentos com as novas tecnologias, essa posição está longe de ser consenso. Hoje, o cofundador da Microsoft, Bill Gates, disse à agência Reuters não enxergar a viabilidade de uma suspensão global das atividades. Enquanto isso, a Casa Branca promove ampla discussão sobre o tema.
Desde a carta da última semana – que contempla signatários como o cofundador da Apple Steve Wozniak e o empresário da Tesla, SpaceX e Twitter, Elon Musk – alguns importantes players do setor parecem sentir os impactos. Foi o caso da Midjourney, principal ferramente de manipulação de imagens com IA. A empresa norte-americana suspendeu os testes gratuitos um dia após a carta. A OpenAI, por outro lado, responsável pelo ChatGPT, sofreu um importante revés junto à Justiça italiana. Autoridades locais baniram a ferramenta e estudam multas milionárias à empresa.
Inteligência Artificial pode ser risco à humanidade. Carta pede pausa nos experimentos
O ChatGPT é, seguramente, a ferramenta que ganhou maior atenção nos últimos meses. Especialistas disseram estar “chocados” com a precisão da IA. Trata-se de um chatbot, um programa capaz de mimetizar a linguagem humana, dialogar com precisão e imitar personalidade. Além disso, ele tem acesso, virtualmente, a todo conhecimento disponível na internet. Rapidamente, o mundo voltou os olhos para os riscos deste tipo de tecnologia. Impactos que vão desde o mundo do trabalho a até as questões mais complexas e humanas.
Preocupações com a Inteligência Artificial
De acordo com o periódico inglês Daily Mail, um belga na casa dos 30 anos cometeu suicídio após dias de diálogo com o ChatGPT. Ele demonstrou inseguranças e medos sobre o futuro da humanidade. “Esta morte fez crescer as preocupações sobre sérios precedentes que devem ser levados muito a sério”, afirmam as autoridades locais.
Sobre a opinião de Gates, sua declaração não significa que ele não esteja preocupado. Pelo contrário. Ele defende que “é preciso localizar as complicações da tecnologia”. Contudo, o empresário não vê possibilidade de regresso. Muitos concordam com este ponto de vista. Para a pesquisadora de IA, uma das maiores referências na área no Brasil, Dora Kaufmann (PUC-SP), trata-se de um momento de disrupção. A IA veio mudar o mundo “assim como o carvão e a internet”, argumenta.
Logo, de acordo com esse ponto de vista, Gates não acha viável interromper estudos. Ao contrário, ele defende o estímulo às aplicações benéficas da IA. “Não acho que pedir a um grupo específico para fazer uma pausa resolva os desafios. Eu realmente não entendo quem eles estão dizendo que poderá parar, e se todos os países do mundo vão concordar em parar (…) Claramente, há enormes benefícios nessas coisas”, disse.
Casa Branca mobilizada
O fato é que enquanto cientistas e influenciadores de escala global lançam opiniões sobre a IA, autoridades correm para pensar numa regulamentação. Desde 2018 a Comissão Europeia debate a possibilidade de criar uma legislação comum no Velho Continente. Contudo, após cinco anos de debates e mais de 3 mil emendas e modificações dos textos, nenhuma conclusão. Hoje, o presidente dos Estados Unidos, Joe Biden, realizou uma reunião sobre o tema.
De acordo com a Casa Branca, a intenção é identificar “problemas e oportunidades” das novas tecnologias. “Discutir a importância de proteger os direitos e a segurança para garantir inovação responsável e salvaguardas apropriadas”, argumentou o governo local. Em primeiro lugar, Biden pretende pressionar o Congresso a criar mecanismo de proteção às crianças diante da IA e outras tecnologias digitais.
Orientação
Ainda sem uma regulamentação expressa, a Casa Branca emitiu um documento oficial sobre IA: Blueprint for an AI Bill of Rights. Na prática, o texto – Projeto para uma Declaração de Direitos em IA – pretende ser uma prévia de “nova Constituição”. “São princípios e práticas para ajudar o desenvolvimento e uso de sistemas automatizados com finalidade de proteger direitos dos americanos na era da Inteligência Artificial”, afirma.
O governo ressalta que “efeitos colaterais são intensamente danosos, mas não são inevitáveis”. Então, o documento lista cinco medidas principais para orientar a população sobre os riscos da IA. “Elaboração de sistemas seguros e efetivos; Algorítmos devem ser blindados de preconceitos; A privacidade de dados deve ser respeitada; Tudo deve ser publicizado; Devem ser priorizadas considerações e posicionamentos humanos em face a problemas”.
Leia mais
- Falta de transparência e de compromisso com a verdade afetam a Inteligência Artificial
- Arte antecipa intrusão da inteligência artificial na vida. Confira dicas da… inteligência artificial
- Ocidente tenta frear TikTok e impedir avanço de aplicativos chineses
- Comunidade acadêmica está mobilizada para entender impactos da Inteligência Artificial
- Cientistas divulgam 10 diretrizes para a educação lidar com a Inteligência Artificial
- ChatGPT, tecnologia e programadores. E o bicho-papão da automação
- China avança na regulação da IA. Estados Unidos e Europa estudam medidas
Comunidade internacional está mobilizada para a regulação da Inteligência Artificial. Na Europa, conteúdos terão alerta sobre o verdadeiro “autor” ao usuário
Por Gabriel Valery, da RBA
Pixabay/CreativeCommons
A agência reguladora chinesa afirmou que o objetivo da regulamentação é “o desenvolvimento saudável e a aplicação padronizada da tecnologia de IA
0
47
São Paulo – O governo da China divulgou hoje (11) propostas para regulamentar tecnologias de inteligência artificial (IA). O anúncio veio no mesmo dia em que a gigante do e-commerce Alibaba lançou sua ferramenta de chatbot, similar ao ChatGPT, da norte-americana OpenAI. O programa “conversa” com os usuários como se fosse um humano, ao mesmo tempo que tem acesso virtual à vastidão de conteúdos da internet.
Pequim afirma que os aplicativos de inteligência artificial deverão passar por uma “avaliação de segurança” de uma agência reguladora local. O governo chinês afirmou que o objetivo da regulamentação é “o desenvolvimento saudável e a aplicação padronizada da tecnologia de IA generativa”.
Os chineses competem diretamente no “mercado” da tecnologia de ponta com os norte-americanos, que dominam a IA no Ocidente, ao menos por enquanto. Enquanto isso, os demais países articulam mecanismos internos de controle. Na Europa, a primeira medida deve ser a imposição de um aviso da origem “artificial” em todo conteúdo criado por estas ferramentas.
Até mesmo o governo dos Estados Unidos elevou o tom contra os chatbots. A administração do presidente Joe Biden deu 60 dias para que as agências nacionais, em parceria com o Congresso, apresentem ideias de legislações para conter eventuais abusos e externalidades que envolvam a IA. O periódico local The Wall Street Journal divulgou que o Departamento de Comércio do país registrou um pedido para que mecanismos de IA passem por um processo de certificação oficial.
Regulação da IA na Europa
A comunidade europeia também avança na regulação da IA. Após a Itália banir e estudar multas milionárias ao ChatGPT por violar a privacidade dos usuários, Alemanha, França, Irlanda e Espanha estudam medidas similares. Tramita, desde 2018, na Comissão Europeia, uma proposta de regulamentação sobre redes sociais e tecnologias de IA. Contudo, os países não conseguem chegar a um consenso e a matéria carrega milhares de emendas sob apreciação.
Agora, autoridades locais querem apressar regras específicas sobre a IA. A ideia, em um primeiro momento, é obrigar que os conteúdos criados por estas ferramentas contenham um aviso específico. “Em tudo o que é gerado por inteligência artificial, seja texto – já todos conhecem o ChatGPT – ou imagens, haverá a obrigação de notificar que o conteúdo foi criado por inteligência artificial”, explicou o Comissário Europeu para o Mercado Interno, Thierry Breton.
Controvérsias da IA
Entre as principais críticas à IA está a falta de transparência. Os programas trabalham com a gestão de uma base de dados imensa. Através de algoritmos, estes mecanismos organizam estas informações e “aprendem” de acordo com a demanda dos usuários. Esta tecnologia, em resumo, é chamada de deep learning (aprendizado de máquina por redes neurais profundas).
Desta forma, o programa organiza as informações na forma de respostas de uma forma lógica. Não há compromisso com a verdade, muito menos com a ética. Trata-se apenas de um encadeamento lógico de sentenças que leva o mundo a estudar a regulação da IA.
Logo, existem riscos de uso malicioso, como por exemplo, para a criação de fake news, peças difamatórias e ataques sistemáticos contra pessoas, instituições e, por fim, a própria democracia. Estas são algumas das razões que levaram milhares de cientistas, empresários e historiadores a divulgarem uma carta para pedir a suspensão, por no mínimo seis meses, dos testes com tecnologias de IA generativa.
RBA