Este artigo é do The Checkup, a newsletter semanal de biotecnologia da MIT Technology Review americana. Para recebê-la em seu e-mail todas as quintas-feiras, inscreva-se aqui.
Você confiaria em conselhos médicos gerados por Inteligência Artificial (IA)? É uma questão que tenho pensado ultimamente, considerando a frequência cada vez maior de manchetes proclamando que as tecnologias de IA podem diagnosticar uma série de doenças. A implicação é muitas vezes que elas são melhores, mais rápidas e mais baratas do que profissionais com formação médica.
Muitas dessas tecnologias têm problemas bem conhecidos. Elas são treinadas em dados limitados ou tendenciosos e geralmente não funcionam tão bem para mulheres e pessoas racializadas quando em comparação com homens brancos. Além disso, parte dos dados utilizados para treinar esses sistemas estão completamente equivocados.
Há outro problema. À medida que essas tecnologias começam a se infiltrar nos contextos médicos, os pesquisadores dizem que estamos vendo um aumento no que é conhecido como paternalismo da IA. O paternalismo na medicina tem sido problemático desde o início da profissão. Mas agora, a preocupação vigente é a de que os médicos podem estar inclinados a confiar mais nos resultados da IA em detrimento das experiências vivenciadas pelo próprio paciente, assim como de seu próprio julgamento clínico.
A IA já está sendo usada na área da saúde. Alguns hospitais usam a tecnologia para ajudar na triagem de pacientes. Enquanto outros profissionais a usam para auxiliar no diagnóstico ou para desenvolver planos de tratamento. Mas a verdadeira extensão da adoção da IA não é clara, diz Sandra Wachter, professora de tecnologia e regulamentação da Universidade de Oxford, no Reino Unido.
“Às vezes não sabemos realmente que tipos de sistemas de IA estão sendo usados”, diz Wachter. Mas sabemos que esta adoção provavelmente aumentará à medida que a tecnologia melhorar e a área de saúde procurar maneiras de reduzir custos, diz ela.
Pesquisas sugerem que os médicos já podem estar confiando muito nessas tecnologias. Em um estudo publicado há alguns anos, oncologistas foram solicitados a comparar seus diagnósticos de câncer de pele com as conclusões de um sistema de IA. Muitos deles aceitaram os resultados da IA, mesmo quando eles contradiziam sua própria opinião clínica.
Existe um risco muito real de passarmos a confiar nessas tecnologias mais do que deveríamos. E é aqui que o paternalismo pode se tornar uma questão.
“O paternalismo pode ser melhor entendido pelo ditado ‘seu médico sabe mais’”, escreveram Melissa McCradden e Roxanne Kirsch, do Hospital for Sick Children, em Ontário, Canadá, em um recente artigo científico. A ideia é que o treinamento médico torna o profissional de saúde a melhor opção para decidir pelo paciente que está sendo tratado, independentemente dos sentimentos, crenças, cultura e qualquer outra coisa que possa influenciar as escolhas que qualquer um de nós faz.
“O paternalismo pode ser replicado quando a IA é posicionada como a forma mais elevada de conhecimento, substituindo o papel do médico onisciente pela IA onisciente”, continuam McCradden e Kirsch. Elas dizem que há uma “tendência crescente de paternalismo algorítmico [no campo da saúde]”. Isso seria problemático por uma série de razões.
Para começar, como mencionado no início do texto, a IA não é infalível. Essas tecnologias são treinadas em conjuntos de dados históricos que apresentam suas próprias falhas. “Você não está mandando um algoritmo para faculdade de medicina para ensiná-la sobre o corpo humano e doenças”, diz Wachter.
Como resultado, “a IA não pode entender, apenas prever”, escrevem McCradden e Kirsch. Uma IA poderia ser treinada para aprender quais padrões em biópsias de células da pele foram associados a um diagnóstico de câncer no passado, por exemplo. No entanto, devido à falta de diversidade nos dados de treinamento relacionados a pessoas pertencentes de minorias étnicas, os médicos que fizeram esses diagnósticos anteriores e coletaram esses dados podem ser mais propensos a não identificar casos em pacientes racializados.
E a identificação de diagnósticos e padrões passados não diz necessariamente aos profissionais tudo o que eles precisam saber sobre a continuidade do tratamento. Hoje, médicos e pacientes devem colaborar nas decisões referentes aos cuidados de saúde. Os avanços no uso de IA não devem diminuir a autonomia das pessoas que estão sendo tratadas.
Então, como podemos evitar que isso aconteça? Uma possível solução envolve projetar novas tecnologias treinadas em dados melhores. Um algoritmo poderia ser treinado com informações sobre crenças e anseios de várias comunidades, bem como diversos dados biológicos, por exemplo. Antes de podermos fazer isso, precisamos realmente ir às ruas coletar esses dados, um empreendimento caro que provavelmente não atrairá aqueles que desejam usar IA para cortar custos, diz Wachter.
Os projetistas desses sistemas de IA devem considerar cuidadosamente as necessidades das pessoas que serão atendidas e avaliadas por eles. E eles precisam ter em mente que as tecnologias que funcionam para alguns grupos não funcionarão necessariamente para outros, seja devido a sua biologia particular ou suas crenças. “Os humanos não são iguais em todos os lugares do mundo”, diz Wachter.
O melhor caminho a seguir pode ser usar essas novas tecnologias da mesma forma que usamos as já consolidadas na nossa rotina de cuidados médicos. Raios-X e ressonâncias magnéticas são usados para fundamentar um diagnóstico, juntamente a outras informações de saúde. As pessoas devem poder escolher se desejam realizar um exame e o que gostariam de fazer com seus resultados. Podemos fazer uso da IA sem ceder nossa autonomia a ela.
Leia mais no acervo da Tech Review:
Philip Nitschke, também conhecido como “Dr. Morte”, está desenvolvendo uma IA que pode ajudar as pessoas a por um fim em suas próprias vidas. O editor sênior de tecnologia da MIT Technology Review americana, Will Douglas Heaven, explorou a moralidade confusa de deixar a IA tomar decisões de vida ou morte neste artigo traduzido para o português da edição original sobre mortalidade da versão americana da revista.
Em 2020, centenas de ferramentas de IA foram desenvolvidas para auxiliar no diagnóstico da Covid-19 ou prever a gravidade de casos específicos. Nenhuma delas funcionou, como Will relatou alguns anos atrás.
Will também escreveu um artigo sobre como a IA que funciona muito bem em um ambiente de laboratório pode falhar no mundo real.
A jornalista Melissa Heikkilä explorou se os sistemas de IA precisam vir com avisos de saúde no estilo de maços de cigarros em uma edição de sua newsletter, The Algorithm.
As empresas de tecnologia desejam descrever suas ferramentas de IA como éticas. Karen Hao elaborou uma lista das 50 principais palavras que as empresas podem usar para mostrar que se importam sem se prejudicar.
De várias partes da web
Cientistas usaram uma técnica de escaneamento de imagem para revelar os conteúdos secretos de seis sarcófagos antigos egípcios contendo animais. Eles encontraram ossos quebrados, um crânio de lagarto e pedaços de tecido. (Scientific Reports)
As análises genéticas podem sugerir tratamentos direcionados para pessoas com câncer colorretal, mas as pessoas com ascendência africana têm mutações com menor probabilidade de se beneficiar desses tratamentos do que aquelas de origem europeia. A descoberta destaca a importância de os pesquisadores usarem dados de diversas populações em seus estudos. (American Association for Cancer Research)
O Sri Lanka está considerando exportar 100.000 macacos locais para uma empresa privada na China. Um porta-voz do gabinete disse que os macacos são destinados a zoológicos chineses, mas os conservacionistas estão preocupados de que os animais acabem em laboratórios de pesquisa. (Reuters)
Se você corresse o risco de ter demência, você gostaria de ter eletrodos inseridos em seu cérebro se eles pudessem ajudar a tratá-la? A maioria das pessoas com risco conhecido de desenvolver a síndrome parece estar disposta a experimentar, de acordo com um pequeno estudo. (Brain Stimulation)
Uma terapia genética para uma doença devastadora que afeta os músculos de alguns meninos pode ser aprovada após uma decisão nas próximas semanas, apesar de não ter concluído os testes clínicos. (STAT)