top of page

Inteligência Artificial: Promoção da saúde

Foto do escritor: Fernanda KellyFernanda Kelly

Vou iniciar com o que é a inteligência artificial e ir seguindo o raciocínio, até porquê nesse assunto temos prosa pra ser uma leitura informativa e gostosinha por longas linhas e parágrafos.


Vamos juntes?

Eu gosto de falar sobre o que é a IA a partir da perspectiva simples que aprendi com a Gabriela de Queiroz que é fundadora da AI Inclusive:


A Inteligência Artificial, de uma maneira simples, é a capacidade de máquinas realizarem atividades que são feitas por nós ou que necessitam de uma inteligência para serem executadas.

Eu, particularmente, gosto dessa 'definição' por ela trazer que para a Inteligência Artificial executar algo, esse tal algo deve ter sido feito ou pensado por seres que possuem cognição. Já se fala muito sobre o processo de humanização da IA, visto que por mais que haja uma vasta aplicação da IA nas mais diversas áreas, ela ainda não humaniza quem recebe esse produto.


Essa Inteligência Artificial é composta por diversos métodos ou, como mais conhecidos e denominados, algoritmos. O Machine Learning é o mais tradicional e suas aplicações estão nas mais diversas áreas. O Deep Learning é mais complexo e sofisticado. E temos também a Inteligência Artificial Generativa que utiliza uma arquitetura por trás e que, atualmente, uma das mais conhecidas pela comunidade é o ChatGPT.


Tudo isso é Inteligência Artificial.

E, para que estes algoritmos funcionem bem, esses algoritmos necessitam de uma quantidade massiva de dados para que suas classificações ou previsões sejam produtos de qualidade.


Mas, o que é qualidade nesse contexto Fê?

Quando falamos de produto de qualidade, consequentemente estamos falando de um material fornecido a essa IA que seja de qualidade e que nesse caso são os dados, visto que os dados são a matéria-prima desses algoritmos. Portanto, quando falamos sobre essa quantidade massiva de dados, estamos falando de dados de qualidade, ou seja, sem risco de viés ou de amostragem.


E você deve estar (ou não) se perguntando:


Como assim risco de viés e amostragem?

Vamos de exemplo:


Imagine criar um modelo para prever chuvas (como o Bernoulli-ARMA que desenvolvi na graduação com aplicação de Inferência Bayesiana). Para que o modelo seja útil em diferentes regiões e condições climáticas, ele precisa de muitos dados históricos de diversas fontes, como temperatura, umidade, pressão, e até variáveis locais. Se o modelo só tivesse dados de verão em Goiânia, ele "aprenderia" que a precipitação é mais frequente nessa estação e meses (dezembro, janeiro e fevereiro) e poderia errar (e vai errar) ao tentar prever um inverno seco. Dados mais diversos garantem que o modelo funcione bem o ano todo e, claro, dados de décadas atrás podem não refletir as condições atuais, então manter o modelo atualizado com dados recentes é essencial para previsões confiáveis e, talvez, sem viés.

Ou seja, modelos aprendem padrões e, se a amostragem não for boa ou sem risco de viés (casos de gênero, raça), as classificações ou previsões serão gerais e não confiáveis, ou seja, enviesadas ao contexto dos dados.


E isso é em todas áreas?

Sim! A Inteligência Artificial é passível de utilização em qualquer área que tenha dados e que tenha alguma inteligência. Lembra da definição da Gabriela de Queiroz?


A Inteligência Artificial pode ser aplicada em qualquer área que possua dados estruturados ou não estruturados e onde seja possível extrair padrões, tomar decisões ou automatizar processos. No entanto, a presença de dados por si só não basta.

Entrando no contexto da área da saúde...

Quando nós juntamos Inteligência Artificial, dados e saúde, a primeira noção levantada é que o uso da Inteligência Artificial na medicina vai substituir os médicos e a tomada de decisão humana. Mas, o sentimento predominante não é esse. No geral, o sentimento que predomina na comunidade e profissionais da saúde, é que a IA está aperfeiçoando cada vez mais os diagnósticos e cuidados clínicos e que, por exemplo, o modelo estimado pode ser usado em hospitais ou aplicativos de saúde para identificar pacientes de alto risco precocemente e oferecer intervenções preventivas.


Veja que nesse momento estamos falando sobre a IA como uma ferramenta de apoio na área da saúde.

Esse apoio pode ser estabelecido de diversas formas, inclusive em radiologia (mais conhecida) ou qualquer outra área que utiliza imagens médicas. Embora essas aplicações sejam as mais utilizadas, elas ainda são relativamente novas e, por isso, a IA ainda não é rotineiramente utilizada na tomada de decisões em hospitais públicos, por exemplo. E, para além das imagens provenientes da radiologia, como aquelas utilizadas em dermatologia e patologia, poucos sistemas de Inteligência Artificial foram avaliados em ensaios clínicos prospectivos.


Ensaios clínicos prospectivos são estudos científicos projetados para investigar os efeitos de intervenções (como medicamentos, terapias, dispositivos médicos ou mudanças no estilo de vida) em seres humanos. O termo "prospectivo" significa que o estudo é planejado e conduzido ao longo do tempo, a partir de um ponto inicial definido, com acompanhamento dos participantes para observar e registrar os resultados futuros.

E o porquê dessa necessidade?

Por mais que haja experimentos que tenham demostrado a equivalência entre a decisão médica e os resultados obtidos pela IA, poucos apresentam um resultado avaliado externamente ou comparam o desempenho desse modelo de Inteligência Artificial e profissionais da saúde usando a mesma amostragem.


E assim, vem o questionamento:


A IA treinada pode ser utilizada com precisão ou segurança em uma região geográfica ou contexto diferente?

Claro que a medida que a IA é treinada, ela é capaz de trazer cada vez mais resultados com uma acurácia "mais alta" (ou qualquer outra medida de avaliação de modelos pertinente ao contexto) e isso permite que o profissional da saúde faça diagnósticos mais rápidos e precisos. Mas, na saúde há também o interesse em predizer ou detectar doenças como pneumonia e AVC, ou também prever doenças graves antes que elas ocorram, como a sepse, uma infecção generalizada capaz de levar o paciente a óbito sem o diagnóstico.


A sepse é uma infecção generalizada que afeta cerca de 30 milhões de pessoas e atrelado a ela há uma alta taxa de mortalidade. Então, a sua previsão é de interesse. A sepse é o meu objeto de estudo no mestrado, e quando estou avaliando sinais vitais para prever a sepse, eu sei que idade, gênero, e renda são decisores em alguns desses sinais vitais.

E quando entramos nesse viés de renda, nos países de baixa e média renda, a Inteligência Artificial poderia ser utilizada para prever a resistência a medicamentos contra HIV e também prever a progressão da doença e assim ajudar os médicos a otimizar a terapia.


Fê, isso seria IN-CRÍ-VE-L!

Sim! Seria incrivelmente incrível, mas veja que a experiência e conhecimento sobre os pacientes são essenciais, porque caso contrário os médicos poderiam se envolver num viés de automação e não considerar se uma tecnologia de IA satisfaz suas necessidades ou a do paciente.


E qual é a implicação desse sistema na tomada de decisão de prestadores de serviços da área da saúde? É que várias mudanças importantes impostas pelo uso da Inteligência Artificial nos cuidados clínicos vão além da relação prestador-paciente.


Uma delas é o uso da IA para a alocação e priorização de recursos e é evidente que há uma implicação ética sobre isso.

A primeira delas é a promoção da saúde ou para identificar população-alvo ou locais com comportamentos de alto risco (isso já existe, mas na área de risco de crédito). Tudo isso pode afetar o debate público e pode facilitar a exclusão ou a discriminação se for utilizado indevidamente pelo setor publico ou privado. E aqui devemos pontuar que o preconceito é uma ameaça a inclusão e equidade, porque representa um afastamento da igualdade de tratamento.


Vamos de exemplo?

Exemplo 1:

Num estudo publicado na Science em Outubro de 2019, os investigadores encontraram preconceitos raciais significativos num algoritmo amplamente utilizado no sistema de saúde dos EUA para orientar decisões de saúde. O algoritmo é baseado no custo (em vez da doença) como substituto das necessidades; no entanto, o sistema de saúde dos EUA gastou menos dinheiro com pacientes negros do que com pacientes brancos com o mesmo nível de necessidade. Assim, o algoritmo assumiu incorretamente que os pacientes brancos estavam mais doentes do que os pacientes negros igualmente doentes. Os pesquisadores estimaram que o preconceito racial reduziu em mais da metade o número de pacientes negros que recebiam cuidados extras (Veja aqui).

A problemática desse exemplo é que os desenvolvedores e fornecedores de IA devem considerar a diversidade seja ela de idioma, cultura, gênero ou raça em suas modelagens, identificando viés de amostragem seja ele qual for. E esses desenvolvedores de IA devem garantir que os dados utilizados para alimentar essa IA não incluem distorções de amostragens e que estes dados também sejam precisos, completos e diversificados.


Exemplo 2:


Os primeiros lançamentos do Apple Health Kit, que permitiram o rastreamento especializado de alguns riscos à saúde, não incluíram um rastreador do ciclo menstrual, talvez porque não havia mulheres na equipe de desenvolvimento (Veja aqui). 

Esse viés também pode surgir da diversidade insuficiente das pessoas que rotulam os dados ou validam um algoritmo, mas é de extrema importância trazer, novamente, o papel das pessoas desenvolvedoras que atuam e pensam o projeto, ou seja, para reduzir o viés, pessoas com diversas origens étnicas e sociais devem ser incluídas, e uma equipe diversificada é necessária para reconhecer falhas no design ou na funcionalidade da IA ​​na validação de algoritmos para garantir a ausência de viés.


Ai Fê, a "culpa" agora é da pessoa desenvolvedora?

Não! Há todo o contexto que venho mostrando ao longo desse post, visto que o viés também pode ser devido à origem dos dados com os quais a IA é projetada e treinada. Veja que, os profissionais da saúde também cometem erros de julgamento e outros erros humanos, mas o risco com a IA é que tal erro, se corrigido em um algoritmo, pode causar danos irreparáveis ​​a milhares de pessoas em um curto espaço de tempo se a tecnologia for amplamente usada.


Então é na coleta de dados?

É bem difícil coletar dados primários e, por isso, pode não ser possível coletar dados representativos se uma tecnologia de IA for inicialmente treinada com dados de populações locais que têm um perfil de saúde diferente das populações nas quais a tecnologia de IA é usada. Assim, uma tecnologia de IA que é treinada em um país e então usada em um país com características diferentes pode discriminar, ser ineficaz ou fornecer um diagnóstico ou previsão incorretos para uma população de uma raça, etnia ou tipo de corpo diferente. A IA é frequentemente treinada com dados locais aos quais uma empresa ou organização de pesquisa tem acesso, mas vendidos globalmente sem nenhuma consideração da inadequação dos dados de treinamento.

Dados primários são informações coletadas diretamente da fonte, ou seja, são originais e únicos. Também são conhecidos como dados brutos ou first-party data.

O que isso significa?

Significa que falar em viés de dados é falar de tudo aquilo que torna o sistema padronizado, seja por quem ele é desenvolvido ou pelo o quê ele é alimentado.


Para aprofundar um pouco mais na questão de viés de classe e raça no Brasil, te deixo o convite para assistir a entrevista do rapper Criolo com o Lázaro Ramos no programa Espelho que aborda questões sociais e culturais brasileiras para além do acesso a saúde.


A Organização Mundial da Saúde (OMS), publicou em 2021, o Ethics and governance of artificial intelligence for health. O propósito dela é abordar que as tecnologias de IA não devem prejudicar as pessoas. Os designers de tecnologias de IA devem satisfazer os requisitos regulatórios de segurança, precisão e eficácia para casos de uso ou indicações bem definidos.


Resumo:


Este relatório é dividido em nove seções e um anexo. A Seção 1 explica a justificativa para o envolvimento da OMS neste tópico e o público-alvo das descobertas, análises e recomendações do relatório. As Seções 2 e 3 definem IA para saúde por meio de seus métodos e aplicações. A Seção 2 fornece uma definição não técnica de IA, que inclui várias formas de aprendizado de máquina como um subconjunto de técnicas de IA. Ela também define "big data", incluindo fontes de dados que compreendem big data biomédico ou de saúde.


A Seção 3 fornece uma classificação não abrangente e exemplos de tecnologias de IA para saúde, incluindo aplicações usadas em LMIC, como para medicina, pesquisa em saúde, desenvolvimento de medicamentos, gestão e planejamento de sistemas de saúde e vigilância de saúde pública.


A Seção 4 resume as leis, políticas e princípios que se aplicam ou podem se aplicar ao uso de IA para saúde. Isso inclui obrigações de direitos humanos conforme se aplicam à IA, o papel das leis e estruturas de proteção de dados e outras leis e políticas de dados de saúde. A seção descreve várias estruturas que recomendam princípios éticos para o uso de IA para a saúde, bem como os papéis da bioética, lei, política pública e estruturas regulatórias como fontes de normas éticas.


A seção 5 descreve os seis princípios éticos que o Grupo de Especialistas identificou como orientadores do desenvolvimento e uso de IA para a saúde. A seção 6 apresenta os desafios éticos identificados e discutidos pelo Grupo de Especialistas aos quais esses princípios éticos orientadores podem ser aplicados: se a IA deve ser usada; IA e a exclusão digital; coleta e uso de dados; responsabilização e responsabilidade pela tomada de decisões com IA; tomada de decisão autônoma; preconceito e discriminação associados à IA; riscos da IA ​​para a segurança e cibersegurança; impactos da IA ​​no trabalho e emprego na área da saúde; desafios na comercialização de IA para a área da saúde; e IA e mudanças climáticas. As seções finais do relatório identificam medidas legais, regulatórias e não legais para promover o uso ético da IA ​​para a saúde, incluindo estruturas de governança apropriadas.


E para fechar esse post:


A tecnologia de IA, como qualquer outra tecnologia, deve ser partilhada amplamente quanto possível e é por isso que organizações como a AI Inclusive existem e resiste ao viés algorítmico.

Esse post é baseado na messa redonda que participei representando a AI Inclusive na Semana de Inovação do ENAP no ano de 2023 junto a Deivison Faustino, Joyce Souza, Thiago Alixandre e com a esplêndida mediação de Veronyca Gimenes. O vídeo dessa conversa você pode ver aqui.


E hoje, 03/02/2025, vi a seguinte noticia:


E ao final de toda essa leitura, espero que você tenha lido até aqui e tenha feito o seguinte questionamento:


Quando vamos nos atentar aos viéses?

Espero que tenha gostado. Até mais!


Fernanda Kelly R. Silva | Estatística

Comments


Em um mundo onde tudo pode ser monitorado e medido, os dados são apenas a matéria-prima do conhecimento.

© 2020 - 2025 por

Fernanda Kelly R. Silva.
 

Em um mundo onde tudo pode ser monitorado e medido, os dados são apenas a matéria-prima do conhecimento. 

Follow

  • git
  • Linkedin

Follow

Follow

bottom of page