SonicBoom, il robot agricolo che sente gli ostacoli

 



Per troppo tempo il mondo della robotica si è affidato quasi esclusivamente a un unico senso la vista. Questa dipendenza ha limitato il potenziale di queste macchine, precludendo loro l' accesso a un' ampia gamma di compiti che richiederebbero anche la capacità di odorare, toccare e sentire. Nel settore agricolo un robot che si muove in una fitta vegetazione si trova spesso con la vista bloccata da rami e foglie. I sensori tattili basati su telecamere, che stimano la deformazione di gel protettivo per ottenere informazioni, risultano costosi e facilmente danneggiabili in un contesto così imprevisto. 


E' proprio qui che si inserisce l'innovazione sviluppata dai ricercatori della Carnegie  Mellon  University. SonicBoom propone  un cambio di paradigma fondamentale: dotare i bracci robotici di un senso dell' udito, o meglio di una percezione tattile basata sul suono.

Quando il  braccio del robot tocca un ostacolo, come un ramo,  le onde sonore generate dal contatto si propagano lungo la struttura. 

All' interno di un braccio sono stati integrati dei microfoni a contatto, piccoli e ben protetti, in grado di rilevare queste onde. Analizzando le minime differenze nei  tempi di arrivo  del suono a ciascun microfono, il sistema è in grado di localizzare con precisione millimetrica il punto esatto del  contatto

Questa soluzione  non solo offre una maggiore robustezza, proteggendo i sensori da urti a usura, ma si rivela anche più pratica ed economica, richiedendo solo una manciata di microfoni. Per affinare questa capacità, i ricercatori hanno fatto ricorso all'intelligenza artificiale, addestrando il sistema attraverso un sistema meticoloso.  Hanno raccolto circa  diciotto  mila interazioni sonore, create toccando il braccio con un' asticella di legno,  per insegnare all' algoritmo a correlare ogni specifico suono a un punto di contatto. SonicBoom riesce a localizzare un tocco con un margine di errore  di appena 0,43 centimetri su oggetti su cui è appena stato addestrato. Anche di fronte  a materiali sconosciuti, come plastica o  alluminio, il sistema  mantiene una  precisione sorprendente, con  un errore di  soli 2,2 centimetri. 

I ricercatori hanno già dimostrato l' utilità pratica del sistema mappando strutture simili arami in un ambiente simulato,  provando che la percezione acustica  può guidare  in modo affidabile un robot  anche in  condizioni di scarsa visibilità. Il prossimo  passo è insegnare a SonicBoom non solo dove avviene  il contatto, ma anche cosa sta toccando: una foglia delicata, un ramo  robusto o tronco solido.

Commenti

Post popolari in questo blog

L' intelligenza artificiale ci aiuta a interpretare i versi degli animali

La perfezione sui social non esiste

Character.AI: sono apparsi software di Giulia Cecchettin che simulano la sua identità e permettono di interagire con lei