Mundo

Como a inteligência artificial está transformando a patologia

Close up de um microscópio com um monitor de computador atrás dele mostrando um slide histológico com muitos pontos roxos

A crescente digitalização das lâminas de microscópio está tornando a patologia mais passível de avanços na IA.Crédito: Getty

Se você já teve uma biópsia, você – ou pelo menos, seus tecidos excisados ​​- foram vistos por um patologista. “A patologia é a pedra angular do diagnóstico, especialmente quando se trata de câncer”, diz Bo Wang, cientista da computação da Universidade de Toronto, no Canadá.

Mas os patologistas estão cada vez mais sob tensão. Globalmente, a demanda está superando a oferta e muitos países estão enfrentando escassez. Ao mesmo tempo, os empregos dos patologistas se tornaram mais exigentes. Agora eles envolvem não apenas mais e mais tarefas convencionais, como o corte e os tecidos de coloração, depois os visualizando sob um microscópio, mas também testes que requerem ferramentas e conhecimentos extras, como ensaios para genes e outros marcadores moleculares. Para Wang e outros, uma solução para esse problema crescente pode estar na inteligência artificial (AI).

As ferramentas de IA podem ajudar os patologistas de várias maneiras: destacando regiões suspeitas no tecido, padronizando diagnósticos e descobrindo padrões invisíveis ao olho humano, por exemplo. “Eles têm o potencial de melhorar a precisão do diagnóstico, a reprodutibilidade e também a eficiência”, diz Wang, “ao mesmo tempo em que possibilitam novas instruções de pesquisa para minerar dados patológicos e moleculares em larga escala”.

Nas últimas décadas, as lâminas foram cada vez mais digitalizadas, permitindo que os patologistas estudassem amostras na tela, em vez de sob um microscópio-embora muitos ainda preferam o microscópio. As imagens resultantes, que podem abranger slides inteiras, se mostraram inestimáveis ​​para cientistas da computação e engenheiros biomédicos, que os usaram para desenvolver assistentes baseados em IA. Além disso, o sucesso de chatbots de IA como ChatGPT e Deepseek inspirou os pesquisadores a aplicar técnicas semelhantes à patologia. “Esta é uma área de pesquisa muito dinâmica, com muitas novas pesquisas chegando todos os dias”, diz Wang. “É muito emocionante.”

Os cientistas projetaram modelos de IA para executar tarefas como classificar doenças, prever resultados de tratamento e identificar marcadores biológicos da doença. Alguns até produziram chatbots que podem ajudar médicos e pesquisadores que buscam decifrar os dados escondidos em fatias de tecido. Tais modelos “podem imitar essencialmente todo o processo de patologia”, desde a análise de slides e pedidos de testes até os relatórios de redação, diz Faisal Mahmood, cientista da computação da Harvard Medical School em Boston, Massachusetts. “Tudo isso é possível com a tecnologia hoje”, diz ele.

Mas alguns pesquisadores são cautelosos. Eles dizem que os modelos de IA ainda não foram validados o suficiente – e que a natureza opaca de alguns modelos apresenta desafios para implantá -los na clínica. “No final do dia, quando essas ferramentas entram no hospital, ao lado da cama do paciente, elas precisam fornecer resultados confiáveis, precisos e robustos”, diz Hamid Tizhoosh, cientista da computação da Mayo Clinic em Rochester, Minnesota. “Ainda estamos esperando por isso.”

Fundações de construção

As primeiras ferramentas de IA para patologia foram projetadas para executar tarefas claramente definidas, como a detecção de câncer em amostras de biópsia dos tecidos mamários. Mas o advento dos modelos ‘Fundação’ – que pode se adaptar a uma ampla gama de aplicações para as quais eles não foram treinados especificamente – proporcionou uma abordagem alternativa.

Entre os modelos de fundação mais conhecidos estão os grandes modelos de idiomas que conduzem ferramentas generativas-AI, como o ChatGPT. No entanto, o ChatGPT foi treinado em grande parte do texto na Internet, e os patologistas não têm um recurso comparativamente vasto com o qual treinar seu software. Para Mahmood, uma solução potencial para esse problema ocorreu em 2023, quando pesquisadores da gigante da tecnologia Meta lançaram o DINOV2, um modelo de fundação projetado para executar tarefas visuais, como classificação de imagem1. O estudo que descreve o DINOV2 forneceu uma visão importante, diz Mahmood – a saber, que a diversidade de um conjunto de dados de treinamento era mais importante que seu tamanho.

Ao aplicar esse princípio, Mahmood e sua equipe lançaram, em março de 2024, o que eles descrevem como um modelo de uso geral para patologia, chamado uni2. Eles reuniram um conjunto de dados de mais de 100 milhões de imagens de 100.000 slides representando órgãos e tecidos doentes e doentes. Os pesquisadores usaram o conjunto de dados para treinar um algoritmo de aprendizado auto-supervisionado-um modelo de aprendizado de máquina que se ensina a detectar padrões em grandes conjuntos de dados. A equipe relatou que a UNI poderia superar os modelos existentes de pontuação computacional-patologia em dezenas de tarefas de classificação, incluindo a detecção de metástases do câncer e a identificação de vários subtipos de tumores na mama e no cérebro. A versão atual, a Uni 2, possui um conjunto de dados de treinamento expandido, que inclui mais de 200 milhões de imagens e 350.000 slides (consulte Go.nature.com/3H5qkwb).

Um segundo modelo de fundação projetado pela equipe usou a mesma filosofia em relação a diversos conjuntos de dados, mas também incluiu imagens de slides de patologia e texto obtidos no PubMed e em outros bancos de dados médicos3. (Esses modelos são chamados multimodais.)

Como a uni, o modelo – chamado conchas (para aprendizado contrastante com legendas para histopatologia) – poderia executar tarefas de classificação, como subtipagem de câncer, melhor do que outros modelos, os pesquisadores descobriram. Por exemplo, pode distinguir entre subtipos de câncer que contêm mutações no BRCA Genes com mais de 90% de precisão, enquanto outros modelos foram executados, na maioria das vezes, não seria melhor do que seria esperado por acaso. Também poderia classificar e legendar imagens, recuperar o texto em resposta a consultas de imagem e vice -versa, para produzir gráficos dos padrões vistos em cânceres específicos. No entanto, não era tão preciso nessas tarefas quanto para a classificação. Nas avaliações frente a frente, a concha superou consistentemente as abordagens de linha de base, mesmo nos casos em que muito poucos pontos de dados estavam disponíveis para o treinamento do modelo a jusante.

A UNI e o Conch estão disponíveis ao público na plataforma de compartilhamento de modelos, abraçando o rosto (consulte go.nature.com/44g24w2). Os pesquisadores os usaram para uma variedade de aplicações, incluindo tumores neurais de classificação e subtipagem chamados neuroblastomas, prevendo os resultados do tratamento e identificando biomarcadores de expressão de genes associados a doenças específicas. Com mais de 1,5 milhão de downloads e centenas de citações, os modelos “foram usados ​​de maneiras pelas quais eu nunca pensei que as pessoas os usariam”, diz Mahmood. “Eu não tinha ideia de que tantas pessoas estavam interessadas em patologia computacional”.

Outros grupos desenvolveram seus próprios modelos de fundação para patologia. Gigapath da Microsoft4por exemplo, é treinado em mais de 170.000 slides obtidos de 28 centros de câncer nos EUA para realizar tarefas como subtipagem de câncer. MSTAR (para pré-treinamento auto-ensinado multimodal), projetado pelo cientista da computação Hao Chen na Universidade de Ciência e Tecnologia de Hong Kong e sua equipe, dobra os perfis, imagens e texto de expressão de genes5. Também disponível em Hugging Face (consulte Go.nature.com/3ylmauf), o MSTAR foi projetado para detectar metástases, para câncer de subtipo e executar outras tarefas.

Agora, as equipes de Mahmood e Chen construíram ‘Copilots’ com base em seus modelos. Em junho de 2024, a equipe de Mahmood lançou o PathChat – um assistente generalista de IA que combinou a uni com um grande modelo de linguagem6. O modelo resultante foi então ajustado com quase um milhão de perguntas e respostas usando informações derivadas de artigos no PubMed, relatos de casos e outras fontes. Os patologistas podem usá -lo para ter ‘conversas’ sobre imagens enviadas e gerar relatórios, entre outras coisas. Licenciado para a Modella AI, uma empresa biomédica em Boston, Massachusetts, o chatbot recebeu uma designação de Device Breakthrough da Food and Drug Administration dos EUA no início deste ano.

Da mesma forma, a equipe de Chen desenvolveu o SmartPath, um chatbot que Chen diz que está sendo testado em hospitais na China. Os patologistas estão enfrentando a ferramenta em avaliações de câncer de mama, pulmão e cólon.

Além das tarefas de classificação, o PathChat e o SmartPath foram dotados de recursos do tipo agente-a capacidade de planejar, tomar decisões e agir de forma autônoma. Segundo Mahmood, isso permite que o PathChat otimize o fluxo de trabalho de um patologista – por exemplo, destacando casos que provavelmente serão positivos para uma determinada doença, ordenando outros testes para apoiar o processo de diagnóstico e a escrita de relatórios de patologia.

Os modelos da fundação, diz Jakob Kather, oncologista da Universidade Técnica de Dresden, na Alemanha, representam “um avanço tecnológico realmente transformador” em patologia – embora ainda não tenham sido aprovados pelas autoridades regulatórias. “Acho que levará cerca de dois ou três anos até que essas ferramentas estejam amplamente disponíveis, produtos clínicos comprovados”, diz ele.

Uma revolução da IA?

Nem todo mundo está convencido de que os modelos de fundação trarão mudanças inovadoras na medicina – pelo menos, não no curto prazo.

Uma preocupação importante é a precisão. Especificamente, como quantificá -lo, diz Anant Madabhushi, engenheiro biomédico da Emory University, em Atlanta, na Geórgia. Devido a uma relativa falta de dados, a maioria dos estudos de patologia-AI usa uma abordagem de validação cruzada, na qual um conjunto de dados é reservado para treinamento e outro para testes. Isso pode levar a problemas como o excesso de ajuste, o que significa que um algoritmo tem um bom desempenho em dados semelhantes às informações que o modelo encontrou antes, mas se sai mal com dados díspares.

“O problema da validação cruzada é que ele tende a fornecer resultados bastante otimistas”, explica Madabhushi. “A maneira mais limpa e melhor de validar esses modelos é através da validação externa e independente, onde o conjunto de testes externos é separado e distinto do conjunto de treinamento e, idealmente, de uma instituição separada”.

Além disso, os modelos também podem não ter um desempenho tão bom no campo quanto seus desenvolvedores sugerem. Em um estudo publicado em fevereiro7Tizhoosh e seus colegas colocaram um punhado de modelos de Fundação de Patologia à prova, incluindo Uni e Gigapath. Usando uma abordagem de tiro zero, na qual um modelo é testado em um conjunto de dados que ainda não encontrou (neste caso, dados do Atlas do Genoma do Câncer, que contêm cerca de 11.000 slides de mais de 9.000 indivíduos), a equipe descobriu que os modelos avaliados foram, em média, menos precisos em cânticos de identificação do que uma moeda, que seriam melhor. Alguns modelos.

Fonte

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo