Agência
Publicado em 5 de junho de 2025 às 15h01.
Última atualização em 5 de junho de 2025 às 15h49.
Um grupo de cientistas do Laboratório de Inteligência Artificial de Xangai, junto com outras instituições, desenvolveu um sistema chamado VeBrain. O modelo conecta visão, raciocínio e controle físico, permitindo que robôs executem ações de forma semelhante aos humanos.
O VeBrain funciona transformando comandos de linguagem em tarefas para robôs, como detectar pontos de interesse em imagens e identificar ações, por exemplo, “andar” ou “agarrar”. Esse método facilita a comunicação entre o sistema de inteligência artificial e o robô, tornando o controle mais preciso.
Para isso, o modelo conta com um módulo chamado Adaptador Robótico, que monitora em tempo real os movimentos e ajusta os comandos conforme a necessidade. Se alguma tarefa falhar, o sistema reavalia a ação e corrige automaticamente.
O treinamento do VeBrain usou um banco de dados com 600 mil instruções que combinam imagens, vídeos, textos e informações de movimentos robóticos. Isso permitiu que o sistema aprendesse a interpretar cenários complexos e a executar tarefas variadas.
Em testes, o VeBrain superou outros modelos em tarefas que exigem compreensão visual e controle físico. Além disso, foi testado com robôs reais, incluindo um braço mecânico e um robô quadrúpede, apresentando taxas de sucesso até 50% maiores em tarefas difíceis.
O sistema oferece um avanço significativo na integração entre inteligência artificial e robótica, aproximando o comportamento dos robôs do modo como humanos percebem e interagem com o ambiente. Isso representa um passo importante para a criação de robôs mais inteligentes e autônomos, capazes de executar tarefas complexas de forma eficiente.