Chat GPT – um risco ou um recurso para os valores europeus?

O ChatGPT está em todo o lado, e muitos artigos discutem se é um risco ou um ativo. A Itália baniu-o temporariamente e deu início a uma análise crítica por parte de muitas autoridades. O ChatGPT é uma ferramenta de processamento de linguagem natural impulsionada pela tecnologia de IA que permite ter conversas semelhantes às humanas e que basicamente mudou a forma como procuramos informação e como criamos informação.

O advento da inteligência artificial (IA) apresenta uma série de riscos que precisam de ser abordados e resolvidos. Entre eles, a IA pode desempenhar um papel fundamental na manipulação da informação, influenciar a política e subverter os sistemas de valores que formam as bases de uma sociedade ou de um país. A este respeito, uma utilização distorcida da inteligência artificial pode levar a um aumento do anti-europeísmo e reforçar os movimentos populistas que visam destruir o projeto da União Europeia. Imaginemos, por exemplo, uma aplicação programada que desenvolva instantaneamente uma quantidade infinita de artigos que divulguem informações falsas ou um software que manipule fotografias e vídeos – todas estas coisas já existem e podem desafiar imensamente os meios de comunicação tradicionais, que são baseados no ser humano, e têm dificuldade em persegui-los. A questão é: devem perseguir a inteligência artificial?

Aqui estão alguns dos principais pontos dos riscos da utilização da inteligência artificial e alguns conselhos sobre como os mitigar. Vamos dar uma olhadela:

Privacidade

Um aspeto crucial a considerar é a privacidade e a proteção de dados. A recolha maciça de informações sensíveis pode ameaçar os direitos individuais garantidos pela União Europeia, tal como estabelecido pelo Regulamento Geral sobre a Proteção de Dados (RGPD). É essencial garantir que a IA é utilizada em conformidade com os regulamentos de privacidade e que são tomadas medidas adequadas para proteger os dados pessoais. A este respeito, vale a pena mencionar um caso recente em Itália. A Autoridade Italiana para a Proteção de Dados (Garante per la Protezione dei Dati Personali) impôs uma limitação temporária imediata ao tratamento dos dados dos utilizadores italianos pela OpenAI, a empresa norte-americana que desenvolveu e gere a plataforma ChatGPT. No dia 20 de março, o software de inteligência artificial sofreu uma violação de dados que envolvia as conversas dos utilizadores e informações relacionadas com o pagamento do serviço de assinatura. O Garante suspendeu o serviço em Itália depois de detetar a falta de informação fornecida aos utilizadores e a todos os indivíduos cujos dados são recolhidos pela OpenAI. Além disso, o Garante sublinhou a ausência de uma base jurídica que justifique a recolha e o armazenamento maciço de dados pessoais com o objetivo de “treinar” os algoritmos subjacentes ao funcionamento da plataforma.

Acresce que, de acordo com as investigações realizadas, a informação disponibilizada pelo ChatGPT nem sempre correspondia a dados reais, resultando num tratamento incorreto de dados pessoais. Adicionalmente, apesar do serviço se destinar a utilizadores com idade superior a 13 anos, a Autoridade destacou a ausência de qualquer filtro de verificação de idade, expondo os menores a respostas completamente desadequadas ao seu nível de desenvolvimento e auto-consciência.

Em 28 de abril, depois de satisfazer parcialmente os pedidos da autoridade responsável pela proteção da vida privada, o ChatGPT reativou o seu serviço em Itália. Quem ganhou este confronto? Vale a pena analisar o caso e refletir sobre a forma como a IA é discutida nos nossos países.

Discriminação e preconceitos

A IA pode ser influenciada por preconceitos e discriminação se não for desenvolvida e treinada corretamente. Os sistemas de inteligência artificial podem aprender com dados históricos que refletem as desigualdades e os preconceitos existentes na sociedade. Este facto pode levar a decisões discriminatórias ou à exclusão de determinados grupos de pessoas. Por exemplo, se um sistema de recrutamento baseado em IA for treinado com base em dados históricos que mostrem uma tendência para selecionar candidatos de um determinado sexo ou etnia, o sistema pode perpetuar essas desigualdades em futuros processos de seleção. Este tipo de discriminação algorítmica pode ter consequências graves, como o acesso desigual a oportunidades de emprego, crédito financeiro ou serviços públicos.

A União Europeia deve promover regulamentos que exijam transparência e responsabilidade na implementação da inteligência artificial para evitar tais situações. É crucial abordar esta questão através de uma conceção e formação éticas dos sistemas de IA. A responsabilidade das organizações que desenvolvem e implementam a IA, bem como a regulamentação adequada por parte das autoridades competentes, é crucial para mitigar o risco de discriminação e preconceito na utilização da inteligência artificial. Vale a pena analisar a política europeia de IA, um passo fundamental para canalizar o imenso poder da IA na Europa e dar um exemplo mundial.

Desemprego e impacto social

A automação impulsionada pela inteligência artificial pode levar a transformações significativas no mercado de trabalho, o que pode resultar na perda de empregos tradicionais. A introdução de sistemas avançados de robótica e IA pode reduzir a necessidade de trabalhadores em setores como manufatura, transporte, logística e muitos outros, ao mesmo tempo em que exige PMEs e centros de pesquisa, bem como institutos de ensino e formação profissional. O impacto dessa transformação dependerá de vários fatores, incluindo a taxa de adoção da IA, a velocidade da automação e a capacidade das pessoas de se adaptarem e adquirirem novas habilidades. Isso poderá criar desigualdades económicas e sociais se não forem implementadas políticas adequadas para gerenciar essa transição.

A União Europeia deve se concentrar na educação, na reciclagem profissional e na criação de oportunidades de trabalho no setor de IA para atenuar o impacto negativo sobre o emprego. A automação impulsionada pela inteligência artificial tem o potencial de transformar vários setores e processos de trabalho ao substituir o trabalho humano por máquinas inteligentes.

Observações

É necessário implementar medidas que possam evitar o surgimento de um alto índice de desemprego. A política europeia deve, portanto, agir fornecendo programas de formação para os trabalhadores e informando os cidadãos sobre as novas oportunidades de trabalho que estão a surgir, garantindo programas de proteção social para aqueles que não conseguem encontrar um novo emprego imediatamente. Além disso, a União Europeia terá que intervir para conter os efeitos negativos da manipulação pública (para aprofundar, recomendamos também as intervenções de David Tozzo e Lorenzo Fattori, por ocasião da Conferência Internacional “Media in the age of populism and polarisation”), investindo num programa de boas práticas que permita que as pessoas recebam informações confiáveis. Esta série de ações criará uma cidadania consciente das novas oportunidades de emprego digital e capaz de explorá-las, graças às habilidades que adquirirá. Além disso, políticas laborais ativas, sistemas de proteção social e a aquisição de conhecimento para lidar com a desinformação evitarão os riscos de uma crise económica, política e social que poderia incentivar o crescimento dramático de movimentos políticos que visam destruir os valores europeus.

Concluindo, a IA deve ser usada com segurança na União Europeia, mas deve ser desenvolvida com base em princípios de transparência e de acordo com os princípios democráticos. Isso significa que os usuários que exploram programas como o CHAT GPT devem ser informados de forma transparente sobre o uso correto do algoritmo, sobre os procedimentos de proteção de dados pessoais e sobre a veracidade das informações fornecidas. Ao promover a colaboração entre governos, instituições educacionais, empresas e sociedade civil, e ao implementar políticas e regulamentações específicas, a União Europeia pode enfrentar os desafios impostos pela IA e, ao mesmo tempo, maximizar os seus benefícios. É fundamental garantir que o desenvolvimento e o uso de tecnologias de IA estejam alinhados com princípios éticos, valores sociais e o bem-estar de indivíduos e comunidades. Por meio de práticas de IA responsáveis e inclusivas, podemos aproveitar o potencial da inteligência artificial e, ao mesmo tempo, mitigar seus impactos negativos e promover um futuro justo e equitativo.


Fuentes:

Header picture developed by Dall-E, under the input “Make a pop illustration of a portrait of Artificial Intelligence as it was an android with the colours and stars of the Euro”

ChatGPT banned in Italy over privacy concerns, BBC, https://www.bbc.com/news/technology-65139406 

Artificial intelligence: stop to ChatGPT by the Italian SA. Personal data is collected unlawfully, no age verification system is in place for children, GarantePrivacy, https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847 

A European approach to artificial intelligence, European Commission, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence 

Media in the age of populism and polarization, We-Europeans project, https://www.youtube.com/watch?v=BLGZid0WB-I&t=535s 

General Data Protection Regulation (GDPR), Intersoft consulting, https://gdpr-info.eu/ 

Chat GPT – um risco ou um recurso para os valores europeus?
Voltar ao topo