Sindijufe - MT

Mundo se divide entre riscos à humanidade e inevitabilidade da inteligência artificial

Impactos da Inteligência Artificial são incertos. Nomes como Elon Musk pedem freios enquanto outros como Bill Gates acham caminho sem volta

Por Gabriel Valery, da RBA

Publicado 04/04/2023 – 20h21

Pixabay/CreativeCommons

Pixabay/CreativeCommons

Enquanto cientistas e influenciadores de escala global lançam opiniões sobre a IA, autoridades correm para pensar numa regulamentação

São Paulo – A comunidade acadêmica internacional está dividida sobre os avanços da inteligência artificial (IA). Enquanto mais de mil cientistas, empresários e historiadores pedem pausa nos experimentos com as novas tecnologias, essa posição está longe de ser consenso. Hoje, o cofundador da Microsoft, Bill Gates, disse à agência Reuters não enxergar a viabilidade de uma suspensão global das atividades. Enquanto isso, a Casa Branca promove ampla discussão sobre o tema.

Desde a carta da última semana – que contempla signatários como o cofundador da Apple Steve Wozniak e o empresário da Tesla, SpaceX e Twitter, Elon Musk – alguns importantes players do setor parecem sentir os impactos. Foi o caso da Midjourney, principal ferramente de manipulação de imagens com IA. A empresa norte-americana suspendeu os testes gratuitos um dia após a carta. A OpenAI, por outro lado, responsável pelo ChatGPT, sofreu um importante revés junto à Justiça italiana. Autoridades locais baniram a ferramenta e estudam multas milionárias à empresa.

Inteligência Artificial pode ser risco à humanidade. Carta pede pausa nos experimentos

O ChatGPT é, seguramente, a ferramenta que ganhou maior atenção nos últimos meses. Especialistas disseram estar “chocados” com a precisão da IA. Trata-se de um chatbot, um programa capaz de mimetizar a linguagem humana, dialogar com precisão e imitar personalidade. Além disso, ele tem acesso, virtualmente, a todo conhecimento disponível na internet. Rapidamente, o mundo voltou os olhos para os riscos deste tipo de tecnologia. Impactos que vão desde o mundo do trabalho a até as questões mais complexas e humanas.

Preocupações com a Inteligência Artificial

De acordo com o periódico inglês Daily Mail, um belga na casa dos 30 anos cometeu suicídio após dias de diálogo com o ChatGPT. Ele demonstrou inseguranças e medos sobre o futuro da humanidade. “Esta morte fez crescer as preocupações sobre sérios precedentes que devem ser levados muito a sério”, afirmam as autoridades locais.

Sobre a opinião de Gates, sua declaração não significa que ele não esteja preocupado. Pelo contrário. Ele defende que “é preciso localizar as complicações da tecnologia”. Contudo, o empresário não vê possibilidade de regresso. Muitos concordam com este ponto de vista. Para a pesquisadora de IA, uma das maiores referências na área no Brasil, Dora Kaufmann (PUC-SP), trata-se de um momento de disrupção. A IA veio mudar o mundo “assim como o carvão e a internet”, argumenta.

Logo, de acordo com esse ponto de vista, Gates não acha viável interromper estudos. Ao contrário, ele defende o estímulo às aplicações benéficas da IA. “Não acho que pedir a um grupo específico para fazer uma pausa resolva os desafios. Eu realmente não entendo quem eles estão dizendo que poderá parar, e se todos os países do mundo vão concordar em parar (…) Claramente, há enormes benefícios nessas coisas”, disse.

Casa Branca mobilizada

O fato é que enquanto cientistas e influenciadores de escala global lançam opiniões sobre a IA, autoridades correm para pensar numa regulamentação. Desde 2018 a Comissão Europeia debate a possibilidade de criar uma legislação comum no Velho Continente. Contudo, após cinco anos de debates e mais de 3 mil emendas e modificações dos textos, nenhuma conclusão. Hoje, o presidente dos Estados Unidos, Joe Biden, realizou uma reunião sobre o tema.

De acordo com a Casa Branca, a intenção é identificar “problemas e oportunidades” das novas tecnologias. “Discutir a importância de proteger os direitos e a segurança para garantir inovação responsável e salvaguardas apropriadas”, argumentou o governo local. Em primeiro lugar, Biden pretende pressionar o Congresso a criar mecanismo de proteção às crianças diante da IA e outras tecnologias digitais.

Orientação

Ainda sem uma regulamentação expressa, a Casa Branca emitiu um documento oficial sobre IA: Blueprint for an AI Bill of Rights. Na prática, o texto – Projeto para uma Declaração de Direitos em IA – pretende ser uma prévia de “nova Constituição”. “São princípios e práticas para ajudar o desenvolvimento e uso de sistemas automatizados com finalidade de proteger direitos dos americanos na era da Inteligência Artificial”, afirma.

O governo ressalta que “efeitos colaterais são intensamente danosos, mas não são inevitáveis”. Então, o documento lista cinco medidas principais para orientar a população sobre os riscos da IA. “Elaboração de sistemas seguros e efetivos; Algorítmos devem ser blindados de preconceitos; A privacidade de dados deve ser respeitada; Tudo deve ser publicizado; Devem ser priorizadas considerações e posicionamentos humanos em face a problemas”.

Leia mais

Comunidade internacional está mobilizada para a regulação da Inteligência Artificial. Na Europa, conteúdos terão alerta sobre o verdadeiro “autor” ao usuário

Por Gabriel Valery, da RBA

Pixabay/CreativeCommons

Pixabay/CreativeCommons

A agência reguladora chinesa afirmou que o objetivo da regulamentação é “o desenvolvimento saudável e a aplicação padronizada da tecnologia de IA

0

47

São Paulo – O governo da China divulgou hoje (11) propostas para regulamentar tecnologias de inteligência artificial (IA). O anúncio veio no mesmo dia em que a gigante do e-commerce Alibaba lançou sua ferramenta de chatbot, similar ao ChatGPT, da norte-americana OpenAI. O programa “conversa” com os usuários como se fosse um humano, ao mesmo tempo que tem acesso virtual à vastidão de conteúdos da internet.

Pequim afirma que os aplicativos de inteligência artificial deverão passar por uma “avaliação de segurança” de uma agência reguladora local. O governo chinês afirmou que o objetivo da regulamentação é “o desenvolvimento saudável e a aplicação padronizada da tecnologia de IA generativa”.

Os chineses competem diretamente no “mercado” da tecnologia de ponta com os norte-americanos, que dominam a IA no Ocidente, ao menos por enquanto. Enquanto isso, os demais países articulam mecanismos internos de controle. Na Europa, a primeira medida deve ser a imposição de um aviso da origem “artificial” em todo conteúdo criado por estas ferramentas.

Até mesmo o governo dos Estados Unidos elevou o tom contra os chatbots. A administração do presidente Joe Biden deu 60 dias para que as agências nacionais, em parceria com o Congresso, apresentem ideias de legislações para conter eventuais abusos e externalidades que envolvam a IA. O periódico local The Wall Street Journal divulgou que o Departamento de Comércio do país registrou um pedido para que mecanismos de IA passem por um processo de certificação oficial.

Regulação da IA na Europa

A comunidade europeia também avança na regulação da IA. Após a Itália banir e estudar multas milionárias ao ChatGPT por violar a privacidade dos usuários, Alemanha, França, Irlanda e Espanha estudam medidas similares. Tramita, desde 2018, na Comissão Europeia, uma proposta de regulamentação sobre redes sociais e tecnologias de IA. Contudo, os países não conseguem chegar a um consenso e a matéria carrega milhares de emendas sob apreciação.

Agora, autoridades locais querem apressar regras específicas sobre a IA. A ideia, em um primeiro momento, é obrigar que os conteúdos criados por estas ferramentas contenham um aviso específico. “Em tudo o que é gerado por inteligência artificial, seja texto – já todos conhecem o ChatGPT – ou imagens, haverá a obrigação de notificar que o conteúdo foi criado por inteligência artificial”, explicou o Comissário Europeu para o Mercado Interno, Thierry Breton.

Controvérsias da IA

Entre as principais críticas à IA está a falta de transparência. Os programas trabalham com a gestão de uma base de dados imensa. Através de algoritmos, estes mecanismos organizam estas informações e “aprendem” de acordo com a demanda dos usuários. Esta tecnologia, em resumo, é chamada de deep learning (aprendizado de máquina por redes neurais profundas).

Desta forma, o programa organiza as informações na forma de respostas de uma forma lógica. Não há compromisso com a verdade, muito menos com a ética. Trata-se apenas de um encadeamento lógico de sentenças que leva o mundo a estudar a regulação da IA.

Logo, existem riscos de uso malicioso, como por exemplo, para a criação de fake news, peças difamatórias e ataques sistemáticos contra pessoas, instituições e, por fim, a própria democracia. Estas são algumas das razões que levaram milhares de cientistas, empresários e historiadores a divulgarem uma carta para pedir a suspensão, por no mínimo seis meses, dos testes com tecnologias de IA generativa.

RBA

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *