Perché la maggior parte dei progetti di demand forecasting fallisce (e non è colpa dell'algoritmo)
Quando un'azienda manifatturiera decide di investire in demand forecasting, la prima riunione somiglia sempre alla stessa. Ci sono le slide sui modelli predittivi, le demo degli strumenti, i benchmark di chi ha già fatto il salto. Tutti escono convinti che la questione sia trovare l'algoritmo giusto.
Nove volte su dieci, due anni dopo, il progetto è in stallo. O peggio: è vivo formalmente ma nessuno lo usa davvero per decidere. Le previsioni girano in background, la pianificazione continua a muoversi sugli Excel di chi la faceva prima, e l'investimento diventa uno di quei dossier che nessuno riapre volentieri.
Ho visto questa storia abbastanza volte da aver smesso di sorprendermi. E da aver capito che la colpa non è quasi mai dell'algoritmo.
Un buon modello di forecasting ha bisogno di tre cose per funzionare: dati storici puliti, input dal business aggiornati, e qualcuno che si prenda la responsabilità delle previsioni che produce. Le aziende che falliscono sono quelle che investono nel modello ma non nelle altre tre.
I dati storici sono spesso un disastro. Non perché manchino, ma perché vivono in sistemi diversi che non si parlano, sono sporchi da anni di eccezioni non documentate, e contengono eventi che nessuno ricorda più (il lockdown, la gara persa, il fornitore che saltò per tre mesi). Dare in pasto a un modello dati così equivale a chiedergli di prevedere il futuro guardando uno specchio rotto.
Gli input dal business sono la parte più trascurata. Il team commerciale sa cose che nessun dato storico può sapere: che il cliente X sta per chiudere un contratto grosso, che una categoria sta rallentando per motivi che vedranno nei numeri solo fra mesi, che si sta aprendo un mercato. Se queste informazioni non entrano sistematicamente nel processo di forecasting, il modello prevede il passato travestito da futuro.
Ma il punto più delicato è la responsabilità. A chi appartiene la previsione? Se è del planner, la commerciale la tratterà come un suggerimento non vincolante. Se è della commerciale, il planner la considererà ottimistica per definizione. Se è "dell'algoritmo", nessuno la difende quando sbaglia — e quindi tutti possono ignorarla.
Le aziende che fanno demand forecasting bene hanno risolto prima questo problema politico. Hanno un processo dove le previsioni sono costruite insieme, validate in un consensus meeting, e possedute da una funzione specifica che risponde degli scostamenti. Solo a quel punto la qualità del modello inizia a contare davvero.
Se dovessi rifare un progetto di demand forecasting domani, comincerei dal processo, non dallo strumento. Tre mesi di lavoro sul consensus meeting prima di firmare una licenza. Sei mesi di bonifica dei dati storici prima di parlare di modelli. E un governance meeting ogni due settimane, per i primi sei mesi, dove il forecast si confronta con la realtà e il delta si discute con nome, cognome e responsabilità.
Non è il lavoro che fa invitare a parlare ai convegni, ma è il lavoro che fa funzionare le cose.
L'algoritmo, quasi sempre, era già buono abbastanza. Era il resto a non esserlo.
Se questo pensiero ti ha lasciato qualcosa, scrivimi.
Facciamo due chiacchiere