
Continuiamo a esplorare il mondo delle startup italiane di intelligenza artificiale intervistando Massimiliano Vurro, CEO di Seetalabs, una startup torinese nata nel 2020 e specializzata in modelli AI per la manutenzione predittiva dei grandi trasformatori di potenza, quei componenti che permettono di trasformare l’energia elettrica per consentirne il trasporto dalle centrali ai consumatori.
Parlando con Massimiliano ho scoperto che questi trasformatori costano diversi milioni di Euro, che le procedure di apertura per monitorarne lo stato interno sono molto costose, e che quindi i modelli di intelligenza artificiale che ne monitorano lo stato di salute sono estremamente utili per migliorare la manutenzione e intervenire prima che si danneggino.
Domanda: Di cosa vi occupate?
Seetalabs si occupa di analisi predittiva dello stato di salute di grandi trasformatori di potenza.
D: Quali tecnologie AI utilizzate? E in che modo?
Prevalentemente machine learning supervisionato, non supervisionato e GAN. Addestriamo modelli su dataset industriali di facile reperibilità, pre-processiamo e semplifichiamo gli standard di valutazione attuali e realizziamo modelli scientifici attraverso algoritmi distribuiti e proprietari. Ci focalizziamo su B2B e micro SaaS come principio base dello sviluppo di business.
D: Ci racconta come è nata l’idea dell’azienda?
Abbiamo individuato un gap di mercato e abbiamo facilitato l’incontro di persone con le competenze necessarie alla realizzazione del prodotto.
D: Quali sono state le difficoltà iniziali?
Sicuramente il coordinamento di un team internazionale, con fusi orari e bias culturali differenti. Le barriere culturali all’ingresso su industrie tradizionali sono ancora molto elevate. La maggiore difficoltà è inserirsi in processi consolidati e ridondanti e semplificarli.
D: Quali consigli si sente di dare a un imprenditore o un’imprenditrice che vogliono far partire la loro startup in ambito AI?
Anzitutto comunicare bene la value proposition della propria AI: creare un prodotto digitale è ormai una realtà diffusa, ma creare valore attraverso matematica connessa ad un prodotto digitale necessità di una buona dose di capacità comunicative sia in ambito scientifico, sia informatico. Non basta, insomma, comunicarne i valori ma è necessario superare le barriere culturali di chi ti dice “ma io ho sempre fatto così”. Una sorta di nuova assertività digitale.
Poi bisogna evitare il paradigma del magic/black box. Molti non addetti ai lavori confondono l’AI con qualcosa di sorprendentemente magico, una scatola nera dentro cui succede qualcosa di inspiegabile. Ovviamente chi si occupa di AI sa bene che anche il più evoluto dei modelli “tenta” di simulare i sensi umani. Magari torneremo su questo paradigma quando raggiungeremo la singolarità tecnologica tra qualche anno.
Bisogna anche rendere trasparenti accuratezza e bias reduction. In merito alla trasparenza, spiegare scientificamente il livello di accuratezza di un modello o di un sistema data-centrico è la vera sfida per gli imprenditori AI. Ma questo deve essere fatto nel modo più semplice possibile. A mio avviso una AI è trasparente se è spiegabile. Raggiungere un buon livello di spiegabilità attribuisce al prodotto una maggiore probabilità di accesso al mercato. Per quanto riguarda l’AI, siamo per un buon 90% nell’ambito dell’immaterialità, questo significa che la comprensibilità del prodotto deve avere un budget già nelle prime fasi.
In merito al bias, o se vogliamo al pregiudizio, ogni AI fino ad oggi è stata progettata da esseri umani. Purtroppo “iniettare” la propria eredità culturale nel modo in cui una macchina effettua un calcolo, riconosce un viso, o svolge una funzione in generale, può essere un problema con risvolti etici dall’impatto enorme. Ovviamente, tale impatto può essere esponenziale in uno scenario algoritmico evolutivo poiché il bias iniziale può diventare ingestibile sulle generazioni future di software, che derivano dal software di partenza.
Infine, il mio consiglio a un imprenditore è quello di trovare investitori prima di effettuare il deploy di produzione. Mi sento di consigliare la ricerca di capitali prima di fare un deploy per coprire i costi di manutenzione dell’architettura e per mantenere al sicuro i dati dei clienti. AI e cybersecurity sono strettamente correlate ed il connubio è importante che abbia da subito un buon supporto di competenze e di tecnologia.
D: Molti giovani oggi sono interessati a una carriera nell’AI. Quale percorso di studi raccomanderebbe loro?
Matematica, fisica, ma anche filosofia.
Un gap che ho riscontrato è che molti sviluppatori attuali, full stack in particolare, non hanno competenze statistico-matematiche, assolutamente necessarie sia per i data analysis specialist che per chi progetta algoritmi. Il mio suggerimento è di focalizzare su ciò che si desidera fare e capire bene in quale fase del processo ci si vuole specializzare.
Infine suggerisco una specializzazione in UX/UI design perché le interfacce e l’usabilità sono il principale gap ancora da colmare per un’adozione massiva (ovviamente non mi sto riferendo all’image recognition).
D: Perché secondo lei si parla tanto di etica dell’AI?
Perché gli esseri umani hanno intuito che AI può avere un impatto importante sui temi della libertà, della sicurezza delle persone e nello sviluppo di scenari competitivi. Temi questi che fanno emergere criticità sui metodi di realizzazione (o auto-generazione) e sui bias cognitivi utilizzati per progettare AI a supporto delle decisioni umane.