Itália proíbe ChatGPT – Inteligência Artificial é espada de dois gumes

Governo italiano abre investigação sobre cumprimento do Regulamento Geral Europeu de Proteção de Dados no processamento de dados dos utilizadores, pela OpenAI, e proíbe a ferramenta digital de Inteligência Artificial - ChatGPT.

Itália proíbe ChatGPT - Inteligência Artificial é espada de dois gumes
Itália proíbe ChatGPT - Inteligência Artificial é espada de dois gumes. Foto: Rosa Pinto

O Regulador de Dados de Itália (Garante per la Protezione dei dati personali) lançou uma investigação para assegurar se o OpenAI, e, consequentemente, da sua popular ferramenta ChatGPT, está a cumprir o Regulamento Geral Europeu de Proteção de Dados (RGEPD).

Assim, e enquanto não forem esclarecidos as dúvidas do regulador italiano a atividade da plataforma ficou temporariamente limitada.

A empresa de soluções de cibersegurança Check Point Software Technologies indicou que a decisão do Regulador italiano vem da recente violação de dados da ferramenta de Inteligência Artificial detetada a 20 de março de 2023, quando as conversas dos utilizadores foram alegadamente expostas juntamente com informação privada, como a faturação dos assinantes e detalhes parciais dos cartões de crédito.

O regulador italiano referiu que o ChatGPT atualmente não fornece qualquer informação aos utilizadores, nem às pessoas cujos dados foram recolhidos pela OpenAI”, observando “a ausência de uma base jurídica adequada em relação à recolha de dados pessoais e ao seu tratamento” e o não cumprimento de vários artigos do GDPR.

A Check Point Software Technologies lembrou que “embora neste momento apenas Itália tenha lançado esta proibição e investigação, dada a alegada base de não conformidade com o regulamento europeu de processamento de dados, é possível que outros países ou o próprio organismo central da União Europeia anunciem medidas semelhantes nos próximos dias.”

Os perigos e benefícios da Inteligência Artificial

Paal Aaserudseter, engenheiro de segurança da Check Point Software, referiu: “O potencial para a má utilização dos dados é de longe uma das minhas maiores preocupações relativamente ao ChatGPT”, e acrescentou: “O problema aqui é que a maioria dos utilizadores não estão conscientes do risco envolvido no carregamento deste tipo de informação sensível. Esperemos que o efeito positivo da proibição do ChatGPT em Itália seja que a lei de IA da UE entre em vigor muito mais rapidamente.”

A Inteligência Artificial (IA) já demonstrou o seu potencial para revolucionar setores como os cuidados de saúde, finanças, transportes e muitos outros. Pode automatizar tarefas mais maçadoras, melhorar a eficiência e fornecer informação que anteriormente era impossível de obter, ajudando a resolver problemas complexos e a tomar melhores decisões, lembrou a Check Point.

Assim, a empresa de cibersegurança, considera que é igualmente importante manter expectativas realistas e não ver estes instrumentos como uma solução para todos os problemas, pelo menos por enquanto. Atualmente, a maioria da IA que utilizamos está agrupada em Inteligência Artificial Estreita ou “fraca”, longe da Super Inteligência Artificial, cuja inteligência ultrapassaria as capacidades humanas.

A Check Point considera que para mitigar os riscos associados à IA avançada, é importante que investigadores e decisores políticos trabalhem em conjunto para assegurar que estas ferramentas sejam desenvolvidas de uma forma segura e benéfica. Isto inclui o desenvolvimento de mecanismos de segurança robustos, o estabelecimento de diretrizes éticas e a promoção da transparência e responsabilidade no desenvolvimento de IA. Nesta ordem, todos os organismos relacionados, tais como governos, empresas e os próprios criadores, devem considerar os seguintes pilares fundamentais:

  • Estabelecer diretrizes éticas: Devem existir diretrizes éticas claras para o desenvolvimento e utilização de IA que estejam alinhadas com os valores e princípios da sociedade, tais como transparência, responsabilidade, privacidade e justiça.
  • Incentivar a transparência: As empresas e os criadores devem ser transparentes acerca dos seus sistemas de IA, incluindo a forma como são concebidos, formados e testados.
  • Assegurar a privacidade: As empresas devem dar prioridade à proteção da privacidade dos utilizadores, especialmente quando se trata de dados sensíveis, implementando protocolos sólidos de proteção de dados e fornecendo explicações claras sobre a forma como os dados dos utilizadores são recolhidos, armazenados e utilizados.
  • Priorizar a segurança: Esta deve ser uma prioridade máxima no desenvolvimento da IA e devem ser criados mecanismos para evitar danos causados por sistemas de IA. Isto inclui o desenvolvimento de protocolos de teste robustos e a implementação de mecanismos à prova de falhas e à prova de vulnerabilidades.
  • Fomentar a inovação: Os governos devem fornecer fundos e recursos para apoiar a investigação e desenvolvimento de IA, assegurando ao mesmo tempo que a inovação seja equilibrada com uma governação responsável.
  • Incentivar a participação e acessibilidade do público: Deve haver oportunidades de participação e envolvimento do público no desenvolvimento e regulamentação da IA, para garantir que as suas necessidades e preocupações são consideradas. As empresas devem conceber os seus sistemas de IA para serem acessíveis a todos os utilizadores, independentemente das suas capacidades físicas ou conhecimentos técnicos, fornecendo instruções claras e interfaces de utilizador fáceis de compreender e de utilizar.

A IA pode ser uma ferramenta tanto para os atacantes como para os defensores. À medida que as tecnologias se tornam mais avançadas, podem ser utilizadas para criar ataques mais sofisticados e mais difíceis de detetar. Como a Check Point Research demonstrou no passado, o ChatGPT já está atualmente a ser utilizado para automatizar processos e mesmo criar campanhas de phishing direcionadas ou mesmo lançar ataques automatizados.

No entanto, em contraste com estes factos, a Inteligência Artificial e a aprendizagem de máquinas são hoje dois dos principais pilares que ajudam a melhorar constantemente as capacidades de cibersegurança, com alguns especialistas a salientar mesmo que a próxima geração de defesa se baseará, em grande parte, nestas funcionalidades robóticas.

O grau de complexidade e dispersão dos sistemas com os quais as empresas trabalham atualmente significa que os meios tradicionais e manuais de monitorização, supervisão e controlo de riscos começam a ser insuficientes. É por isso que podemos encontrar algumas ferramentas de defesa que fazem uso deste tipo de capacidades.

Recentemente, foi revelado o Check Point Infinity Spark, uma nova solução de prevenção de ameaças que proporciona segurança baseada em Inteligência Artificial e conectividade integrada líder da indústria.

Esta ferramenta fornece segurança de nível empresarial para toda a rede, correio eletrónico, escritório, terminais e dispositivos móveis. Com a melhor taxa de prevenção da indústria, perto da perfeição com 99,7% de eficácia, é capaz de proteger as empresas contra ameaças avançadas, tais como phishing, ransomware, roubo de credenciais e ataques DNS.

“A corrida contra os cibercriminosos continua a ser uma das principais prioridades dos especialistas em segurança cibernética. Temos de nos manter atualizados para lidar com todas as ameaças atuais e futuras”, partilhou Eusebio Nieva, Diretor Técnico da Check Point para Espanha e Portugal. “O Infinity Spark é um exemplo claro das possibilidades da Inteligência Artificial, apresentando uma ferramenta excelente e acessível capaz de oferecer segurança abrangente com proteção completa para as empresas e os seus funcionários, tanto dentro como fora do escritório.”