resumo: Os pesquisadores desenvolveram um algoritmo de IA que pode prever os movimentos do mouse com 95% de precisão, analisando dados de imagens funcionais em todo o córtex, revolucionando potencialmente a tecnologia de interface cérebro-máquina. O método de aprendizagem profunda ponta a ponta da equipe não requer pré-processamento de dados e pode fazer previsões precisas com base em apenas 0,17 segundos de dados de imagem.
Além disso, desenvolvemos um método para identificar quais partes dos dados são importantes para as previsões, proporcionando uma visão do processo de tomada de decisão da IA. Este avanço não só melhora a nossa compreensão da descodificação neural, mas também abre caminho para o desenvolvimento de interfaces cérebro-máquina não invasivas e quase em tempo real.
Fatos importantes:
- Alta precisão de previsão: O modelo de IA pode prever com precisão o estado comportamental do mouse (em movimento ou parado) com base em dados de imagens cerebrais com uma taxa de sucesso de 95%, sem a necessidade de remoção de ruído ou regiões de interesse predefinidas.
- Previsões rápidas e personalizadas: A capacidade do modelo de gerar previsões a partir de 0,17 segundos de dados e sua eficácia em uma variedade de ratos demonstram o potencial para aplicações personalizadas, quase em tempo real, em interfaces cérebro-máquina.
- Abra a caixa preta da IA: Ao identificar regiões corticais importantes para a classificação comportamental, os pesquisadores forneceram informações valiosas sobre os dados que informam as decisões de IA e aumentaram a interpretabilidade da aprendizagem profunda na neurociência.
molho: Universidade de Kobe
Algoritmos de reconhecimento de imagem de IA podem prever se o mouse está se movendo com base em dados funcionais de imagens cerebrais. Pesquisadores da Universidade de Kobe também desenvolveram um método para identificar quais dados de entrada são relevantes, lançando luz sobre a caixa preta da IA que poderia contribuir para a tecnologia de interface cérebro-máquina.
A criação de interfaces cérebro-máquina requer a compreensão de como os sinais cerebrais e as ações afetadas se reportam entre si. Isto é chamado de “decodificação neural”, e a maior parte da pesquisa nesta área é feita sobre a atividade elétrica das células cerebrais, medida por eletrodos implantados no cérebro.
Por outro lado, técnicas de imagem funcional, como ressonância magnética funcional e imagens de cálcio, monitoram todo o cérebro e podem visualizar regiões cerebrais ativas por meio de dados proxy. Dos dois, a imagem do cálcio é mais rápida e proporciona melhor resolução espacial. No entanto, essas fontes de dados permanecem subutilizadas nos esforços de decodificação neural.
Um obstáculo específico é a necessidade de pré-processamento de dados, como a remoção de ruído ou a identificação de regiões de interesse, tornando difícil conceber procedimentos generalizados para decodificar neuralmente muitos tipos diferentes de comportamento.
Takehiro Ajioka, estudante de medicina da Universidade de Kobe, aproveitou a experiência interdisciplinar de uma equipa liderada pelo neurocientista Toru Takumi para resolver este problema.
“Nossa experiência com sistemas de imagem em tempo real e rastreamento de movimento baseados em VR para mouses e técnicas de aprendizagem profunda nos permite explorar técnicas de aprendizagem profunda 'de ponta a ponta' que não exigem pré-processamento ou recursos pré-especificados. Eu fiz isso. . Portanto, avaliamos informações através do córtex para decodificação neural”, diz Ajioka.
Eles combinaram dois algoritmos diferentes de aprendizagem profunda, um para padrões espaciais e outro para padrões temporais, com dados de filme através do córtex de um rato descansando ou correndo em uma esteira, e os usaram para determinar se o rato estava se movendo ou não. Modelo de IA para prever com precisão a partir de dados de imagem. Ou descansando.
no diário Biologia Computacional PLoSpesquisadores da Universidade de Kobe relatam que o modelo tem 95% de precisão na previsão do verdadeiro estado comportamental do animal, sem a necessidade de remover ruídos ou predefinir regiões de interesse.
Além disso, o modelo deles fez previsões precisas com base em apenas 0,17 segundos de dados. Isso significa que velocidades quase em tempo real podem ser alcançadas. Também funciona com cinco indivíduos diferentes, mostrando que o modelo pode excluir características individuais.
Os neurocientistas determinaram então quais partes dos dados da imagem estavam principalmente envolvidas nas previsões, removendo partes dos dados e observando o desempenho do modelo nessas condições. Quanto pior a previsão, mais importantes são os dados.
“A capacidade deste modelo de identificar regiões corticais importantes para a classificação comportamental é particularmente interessante porque abre a tampa para o aspecto da 'caixa preta' das técnicas de aprendizagem profunda”, explica Ajioka.
Em resumo, a equipe da Universidade de Kobe estabeleceu um método generalizável para identificar estados comportamentais a partir de dados de imagens funcionais através do córtex e desenvolveu um método para identificar em quais partes dos dados as previsões se baseiam. Ajioka explica por que isso é relevante.
“Este estudo estabelece a base para o desenvolvimento de interfaces cérebro-máquina capazes de decodificação comportamental quase em tempo real usando imagens cerebrais não invasivas.”
Financiamento: Esta pesquisa foi apoiada pela Sociedade Japonesa para a Promoção da Ciência (concessão JP16H06316, JP23H04233, JP23KK0132, JP19K16886, JP23K14673, JP23H04138), pela Agência Japonesa de Pesquisa e Desenvolvimento Médico (concessão JP21wm0425011) e pela Agência Japonesa de Ciência e Tecnologia (concessão JPMJMS2299).Foi feito. e JPMJMS229B), Centro Nacional de Neurologia e Psiquiatria (Grant 30-9) e Takeda Science Foundation. Isso foi realizado em colaboração com pesquisadores do Laboratório de Neuroinformática da ATR.
Sobre estas notícias de pesquisa de IA e exercícios
autor: Daniel Shenz
molho: Universidade de Kobe
contato: Daniel Shenz – Universidade de Kobe
imagem: Imagem creditada ao Neuroscience News
Pesquisa original: Acesso livre.
“Uma abordagem de aprendizagem profunda ponta a ponta para classificação comportamental de camundongos a partir de imagens de cálcio de todo o córtex” Takumi Toru et al. Biologia Computacional PLOS
abstrato
Uma abordagem de aprendizagem profunda de ponta a ponta para classificar o comportamento do rato a partir de imagens de cálcio do córtex inteiro
O aprendizado profundo é uma ferramenta poderosa para decodificação neural e tem sido amplamente aplicado em neurociência de sistemas e pesquisa clínica.
Modelos interpretáveis e transparentes que podem explicar a decodificação neural dos movimentos pretendidos são importantes para identificar funções importantes dos decodificadores de aprendizagem profunda na atividade cerebral. Neste estudo, examinamos o desempenho do aprendizado profundo para classificar estados comportamentais de camundongos a partir de dados de imagens de cálcio mesoscópicos em todo o córtex.
Nosso decodificador, que combina um decodificador ponta a ponta baseado em rede neural convolucional (CNN) e uma rede neural recorrente (RNN), classifica estados comportamentais com alta precisão e robustez para diferenças individuais em escalas de tempo de subsegundos. Usando um decodificador CNN-RNN, identificamos que as regiões dos membros anteriores e posteriores do córtex somatossensorial contribuem significativamente para a classificação comportamental.
Nossas descobertas sugerem que a abordagem ponta a ponta tem o potencial de ser um método de aprendizagem profunda interpretável que visualiza de forma imparcial regiões importantes do cérebro.

