
Sony ha sviluppato un nuovo sensore CMOS (Complementary Metal Oxide Semiconductor) che ha già al suo interno algoritmi di machine learning in grado di elaborare un’immagine senza che questa debba necessariamente lasciare il chip.
Uno dei problemi nella computer vision è quello della latenza: le immagini devono essere mandate a una unità centrale (o, peggio, a un computer nel cloud) per l’elaborazione e il responso. Traffico di dati e ritardi sono un male necessario, poiché il chip della fotocamera di solito ha l’unico compito di catturare le immagini. Su sistemi che hanno bisogno di reazioni quasi immediate, come ad esempio le auto a guida autonoma, l’elaborazione avviene direttamente sul veicolo, ma anche qui la latenza è un collo di bottiglia che rallenta tutto il processo.
Questi chip invece, progettati nel laboratorio Sony ad Atsugi in Giappone, si occupano di espletare un’elaborazione preliminare, selezionando per l’invio all’hub solo quelle immagini – o parti di esse – considerate rilevanti in base alla programmazione. Gli ambiti di applicazione potrebbero riguardare tutti quei deployment edge (sul dispositivo) dove serve elaborazione immediata, oppure dove sarebbe utile non sovraccaricare la trasmissione di dati o i processori di elaborazione centrali. Oltre alle già citate auto a guida autonoma penso anche ai droni (per evitare collisioni servono reazioni in tempo reale) e a diverse applicazioni robotiche.
Per approfondire: Sony Builds AI Into a CMOS Image Sensor