inteligencia artificial

O uso da Inteligência Artificial (IA) em setores como saúde, finanças e segurança tem crescido exponencialmente, gerando questionamentos e preocupações sobre aspectos éticos relacionados a essas tecnologias. 

Nesse sentido, uma declaração conjunta envolvendo diversos países e instituições foi assinada recentemente, destacando a necessidade de estabelecer uma governança sólida e práticas responsáveis para a IA.

A importância da ética na Inteligência Artificial

A IA tem transformado o modo como a sociedade vive, trabalha e se relaciona. No setor da saúde, por exemplo, ela já é usada para auxiliar na obtenção de diagnósticos mais precisos e no tratamento de doenças. 

No entanto, seu impacto social pode ser ambíguo. Se, por um lado, traz benefícios econômicos e de eficiência, por outro, pode exacerbar desigualdades sociais e promover discriminações, muitas vezes de maneira invisível, devido ao viés algorítmico.

Além disso, os riscos éticos da IA são vastos e incluem a privacidade dos dados, a falta de transparência em decisões automatizadas e a segurança dos sistemas. Por isso, a responsabilidade social no desenvolvimento da IA não pode ser negligenciada. 

Visão geral da declaração conjunta das associações

Em novembro de 2023, durante a Cúpula de Segurança da IA no Reino Unido, 28 países, incluindo o Brasil, Estados Unidos, China e Reino Unido, assinaram a primeira “Declaração conjunta sobre riscos da IA”. Conhecida como Declaração de Bletchley, o documento visa abordar os riscos existenciais e as preocupações imediatas ligadas ao avanço da inteligência artificial, desde a desinformação até potenciais danos catastróficos, deliberados ou não.

A declaração apela à criação de políticas transfronteiriças para mitigar os riscos da IA e incentiva a pesquisa internacional sobre os futuros modelos avançados dessa tecnologia. Os países signatários concordaram em trabalhar em conjunto, utilizando organizações internacionais como o G7, a OCDE e as Nações Unidas para promover a segurança e a transparência.

O documento também destaca a importância de uma abordagem proativa antes do surgimento de novas tecnologias de IA previstas para 2024, instando as empresas a garantir a segurança e a responsabilização em seus planos para medir, monitorar e mitigar capacidades potencialmente prejudiciais.

Principais pilares da declaração conjunta

Transparência e aplicabilidade

Segundo a declaração, os desenvolvedores dos sistemas de IA devem garantir que qualquer usuário possa compreender como as decisões automatizadas são tomadas, especialmente em áreas sensíveis como na saúde. 

Justiça e não discriminação

Outro princípio da declaração é garantir que a IA promova a justiça e não perpetue discriminações, o que pode ser feito através de auditorias regulares dos sistemas de IA. 

Privacidade e proteção de dados

A segurança e a privacidade dos dados deve ser uma das prioridades para as empresas que trabalham com IA, visto que a coleta e o uso indevido de informações pessoais podem levar a violações graves dos direitos individuais.

Segurança e robustez

A declaração reforça que os sistemas de IA devem ser robustos o suficiente para resistir a ataques cibernéticos e falhas técnicas. Afinal, a vulnerabilidade pode causar danos de grande magnitude, como a manipulação de mercados financeiros e a invasão de sistemas de segurança nacional. 

Responsabilidade e governança

É preciso, por fim, definir quem são os responsáveis pelas decisões automatizadas pela IA, principalmente quando impactam a sociedade. Ou seja, uma governança sólida e regulamentação do setor são fundamentais para garantir um uso ético e responsável.

Desafios na implementação das diretrizes éticas

Devido às diferenças culturais, legais e econômicas entre os países, a implementação dessas diretrizes ainda é um desafio. Como exemplo pode-se citar o fato de que o consenso global sobre IA ainda não conseguiu definir um quadro jurídico internacional unificado, além de casos em que os sistemas judiciais automatizados geraram decisões enviesadas.

O papel das empresas e dos desenvolvedores na promoção da ética em IA

O compromisso com a ética é um dever de todas as empresas e indivíduos que trabalham com IA, que devem atuar ativamente em prol do respeito aos direitos humanos e à promoção do bem-estar social. Nesse sentido, empresas, governos e desenvolvedores devem trabalhar juntos para implementar as diretrizes propostas e garantir que a IA seja uma força positiva para o futuro.

Para saber mais sobre o uso ético da Inteligência Artificial na área da saúde e da radiologia, entre em contato com a Agile Suite.

Deixe um comentário