O uso da Inteligência Artificial (IA) em setores como saúde, finanças e segurança tem crescido exponencialmente, gerando questionamentos e preocupações sobre aspectos éticos relacionados a essas tecnologias.
Nesse sentido, uma declaração conjunta envolvendo diversos países e instituições foi assinada recentemente, destacando a necessidade de estabelecer uma governança sólida e práticas responsáveis para a IA.
A importância da ética na Inteligência Artificial
A IA tem transformado o modo como a sociedade vive, trabalha e se relaciona. No setor da saúde, por exemplo, ela já é usada para auxiliar na obtenção de diagnósticos mais precisos e no tratamento de doenças.
No entanto, seu impacto social pode ser ambíguo. Se, por um lado, traz benefícios econômicos e de eficiência, por outro, pode exacerbar desigualdades sociais e promover discriminações, muitas vezes de maneira invisível, devido ao viés algorítmico.
Além disso, os riscos éticos da IA são vastos e incluem a privacidade dos dados, a falta de transparência em decisões automatizadas e a segurança dos sistemas. Por isso, a responsabilidade social no desenvolvimento da IA não pode ser negligenciada.
Visão geral da declaração conjunta das associações
Em novembro de 2023, durante a Cúpula de Segurança da IA no Reino Unido, 28 países, incluindo o Brasil, Estados Unidos, China e Reino Unido, assinaram a primeira “Declaração conjunta sobre riscos da IA”. Conhecida como Declaração de Bletchley, o documento visa abordar os riscos existenciais e as preocupações imediatas ligadas ao avanço da inteligência artificial, desde a desinformação até potenciais danos catastróficos, deliberados ou não.
A declaração apela à criação de políticas transfronteiriças para mitigar os riscos da IA e incentiva a pesquisa internacional sobre os futuros modelos avançados dessa tecnologia. Os países signatários concordaram em trabalhar em conjunto, utilizando organizações internacionais como o G7, a OCDE e as Nações Unidas para promover a segurança e a transparência.
O documento também destaca a importância de uma abordagem proativa antes do surgimento de novas tecnologias de IA previstas para 2024, instando as empresas a garantir a segurança e a responsabilização em seus planos para medir, monitorar e mitigar capacidades potencialmente prejudiciais.
Principais pilares da declaração conjunta
Transparência e aplicabilidade
Segundo a declaração, os desenvolvedores dos sistemas de IA devem garantir que qualquer usuário possa compreender como as decisões automatizadas são tomadas, especialmente em áreas sensíveis como na saúde.
Justiça e não discriminação
Outro princípio da declaração é garantir que a IA promova a justiça e não perpetue discriminações, o que pode ser feito através de auditorias regulares dos sistemas de IA.
Privacidade e proteção de dados
A segurança e a privacidade dos dados deve ser uma das prioridades para as empresas que trabalham com IA, visto que a coleta e o uso indevido de informações pessoais podem levar a violações graves dos direitos individuais.
Segurança e robustez
A declaração reforça que os sistemas de IA devem ser robustos o suficiente para resistir a ataques cibernéticos e falhas técnicas. Afinal, a vulnerabilidade pode causar danos de grande magnitude, como a manipulação de mercados financeiros e a invasão de sistemas de segurança nacional.
Responsabilidade e governança
É preciso, por fim, definir quem são os responsáveis pelas decisões automatizadas pela IA, principalmente quando impactam a sociedade. Ou seja, uma governança sólida e regulamentação do setor são fundamentais para garantir um uso ético e responsável.
Desafios na implementação das diretrizes éticas
Devido às diferenças culturais, legais e econômicas entre os países, a implementação dessas diretrizes ainda é um desafio. Como exemplo pode-se citar o fato de que o consenso global sobre IA ainda não conseguiu definir um quadro jurídico internacional unificado, além de casos em que os sistemas judiciais automatizados geraram decisões enviesadas.
O papel das empresas e dos desenvolvedores na promoção da ética em IA
O compromisso com a ética é um dever de todas as empresas e indivíduos que trabalham com IA, que devem atuar ativamente em prol do respeito aos direitos humanos e à promoção do bem-estar social. Nesse sentido, empresas, governos e desenvolvedores devem trabalhar juntos para implementar as diretrizes propostas e garantir que a IA seja uma força positiva para o futuro.
Para saber mais sobre o uso ético da Inteligência Artificial na área da saúde e da radiologia, entre em contato com a Agile Suite.
Cibersegurança: O que é e a importância de ter um PACS e armazenamento seguros
Nos últimos anos a cibersegurança se tornou prioridade para que empresas de todos os setores possam operar com segurança, principalmente aquelas que lidam com informações sensíveis, como ocorre na área [...]
Armazenamento em nuvem: o que é e sua importância na área da saúde, especialmente para imagens médicas
As soluções de armazenamento em nuvem, como o Agile Cloud, têm transformado a forma como empresas de diversos setores gerenciam seus dados. Na área da saúde, essa tecnologia desempenha um [...]
Agile PACS – Agilidade em seu hospital e indutor da transformação digital
A tecnologia PACS (Picture Archiving and Communication System) tem contribuído significativamente para a transformação digital dos serviços de saúde. O Agile PACS se destaca como uma dessas soluções. Isso se [...]
Agile Analytics: como a ferramenta pode te ajudar com indicadores, gestão e análise
Na área da saúde, a gestão eficiente está diretamente ligada à qualidade do atendimento, à alocação adequada de recursos e à sustentabilidade das operações. Nesse cenário, soluções como o Agile [...]