O desenvolvimento do primeiro neurônio integrado artificial e multissensorial pode ampliar ainda mais as capacidades da inteligência artificial. A tecnologia foi criada por pesquisadores da universidade Penn State, nos Estados Unidos, e apresentada em um estudo publicado na revista Nature Communications.
Equipando a inteligência artificial com neurônios
- O objetivo dos pesquisadores era aproximar a IA dos humanos.
- Segundo eles, a tecnologia é capaz de tomar decisões com base no ambiente em que estão, mas seus sensores geralmente não conversam entre si.
- Uma decisão coletiva pode ser tomada através de uma unidade de processamento de sensores.
- Por isso, eles se basearam no nosso cérebro, onde um sentido pode influenciar outro e permitir que a pessoa julgue melhor uma situação.
- As informações são da Tech Xplore.
IA pode se tornar mais eficiente
Os pesquisadores fabricaram o neurônio multissensorial conectando um sensor tátil a um fototransistor baseado em uma monocamada de dissulfeto de molibdênio, um composto que exibe características elétricas e ópticas únicas úteis para detectar luz e suportar transistores. O sensor gera picos elétricos de uma maneira que lembra os neurônios processando informações, permitindo que ele integre pistas visuais e táteis.
É o equivalente a ver uma luz “acesa” no fogão e sentir o calor saindo de um queimador, explicam os especialistas. Ver a luz acesa não significa necessariamente que o objeto ainda está quente, mas uma mão só precisa sentir um nanossegundo de calor antes que o corpo reaja e puxe a mão para longe do perigo potencial. A entrada de luz e calor desencadeou sinais que induziram a resposta da mão. Neste caso, os pesquisadores mediram a versão do neurônio artificial vendo saídas de sinalização resultantes de pistas de entrada visuais e táteis.
A biologia permite que pequenos organismos prosperem em ambientes com recursos limitados, minimizando o consumo de energia no processo. Os requisitos para diferentes sensores são baseados no contexto – em uma floresta escura, você confiaria mais em ouvir do que ver, mas não tomamos decisões com base em apenas um sentido. Temos uma noção completa do nosso entorno, e nossa tomada de decisão é baseada na integração do que estamos vendo, ouvindo, tocando, cheirando, etc. Os sentidos evoluíram juntos na biologia, mas separadamente na IA. Neste trabalho, estamos procurando combinar sensores e imitar como nossos cérebros realmente funcionam. (Saptarshi Das, professor da Penn State e líder do estudo)
Para simular a entrada de toque, o sensor tátil usou efeito triboelétrico, no qual duas camadas deslizam uma contra a outra para produzir eletricidade, ou seja, os estímulos de toque foram codificados em impulsos elétricos. Para simular a entrada visual, os pesquisadores jogaram uma luz no memtransistor fotográfico de dissulfeto de molibdênio monocamada – ou um transistor que pode se lembrar de entrada visual, como como uma pessoa pode segurar o layout geral de uma sala depois que um flash rápido a ilumina.
Eles descobriram que a resposta sensorial do neurônio, simulada como saída elétrica, aumentava quando os sinais visuais e táteis eram fracos.
Segundo o estudo, um sistema de neurônio multissensorial artificial poderia melhorar a eficiência da tecnologia de sensores, abrindo caminho para usos de IA mais ecológicos. Como resultado, robôs, drones e veículos autônomos poderiam navegar em seu ambiente de forma mais eficaz, usando menos energia.