L’analisi di bilancio, come già scritto nei precedenti articoli, è un preziosissimo strumento per una corretta comprensione delle condizioni economiche, finanziarie e patrimoniali dell’azienda, la cui comparazione nel tempo consente al management di orientare le proprie scelte operative, al fine di perseguire sia un equilibrio nelle tre dimensioni citate sia un vantaggio competitivo strategico, necessario se si vuole migliorare la propria redditività in maniera duratura e consistente. L’importante, però, è lavorare su dati contabili attendibili.
Questa osservazione deriva dal semplice circostanza che dietro ai numerosi scandali finanziari che si sono registrati negli ultimi anni, sono venute a galla numerose manipolazioni dei dati contabili, al fine di risolvere i relativi problemi di gestione mediante un semplice “ritocco” dei conti. Di conseguenza, l’analista prima di iniziare ad approfondire lo studio dei risultati contabili, deve verificarne l’attendibilità, allo scopo di individuare possibili manipolazioni adottate dal management che vengono comunemente definite earnings manipulations, le quali a loro volta si distinguono in:
- manipolazione in senso stretto;
- frodi contabili.
Tra le prime possiamo annoverare: l’allungamento della vita utile di un bene strumentale; il passaggio dal metodo LIFO al metodo FIFO per quanto concerne la valutazione delle rimanenze; il livello degli accantonamenti a fondi rischi e spese future; la capitalizzazione di costi di sviluppo anziché spesarli direttamente nel Conto Economico; nelle seconde abbiamo invece vere e proprie falsificazioni intenzionali di documenti o di alterazioni di voci contabili, ovvero l’assunzione di comportamenti assolutamente in contrasto con quanto previsto dai principi contabili che possono configurarsi in: registrazioni di vendite fittizie, di falsi dati inventariali, ecc..
Tutto ciò verrà attuato allo scopo di camuffare possibili perdite, invertire il trend negativo degli utili, posticipare il fallimento (con conseguente rischio di bancarotta fraudolenta documentale), facilitare l’ottenimento di finanziamenti da parte degli istituti di credito, ridurre il carico fiscale, riequilibrare il corso di borsa (in caso di società quotata) ed infine aumentare il compenso degli amministratori nel caso in cui sia legato ai risultati di bilancio.
Purtroppo più il bilancio viene alterato in maniera sofisticata, tanto più difficile sarà per i vari stakeholder rilevare tali manipolazioni, in virtù del fatto che quest’ultime inficeranno non soltanto i risultati dell’anno in cui sono state attuate, ma soprattutto gli anni in cui si manifesteranno i suoi inevitabili effetti di riversamento.
L’analista pertanto dovrà svolgere preliminarmente una serie di indagini, al fine di valutare l’attendibilità della base informativa, che riguarderanno ad esempio: la politica contabile alla base della redazione del bilancio; le caratteristiche dell’attività economica svolta; le poste di bilancio più esposte al rischio manipolazione; il comportamento contabile tenuto dai competitor di settore; la presenza di eventuali principi contabili specifici per il settore di appartenenza; l’eventuale cambiamento del vertice dell’impresa; la stipulazione di contratti che prevedono il rispetto di determinati covenant; transfer-pricing con parti correlate, ecc..
Nel caso in cui ciò non sia sufficiente, egli può ricorrere ad una serie di modelli statistici (che sempre più frequentemente vengono utilizzati), i quali, attraverso l’elaborazione di quantità contabili, consentono di costruire una serie di indicatori che, entro determinate soglie di significatività, ci segnalano la presenza delle cosiddette red-flag, ossia incongruenze fra i vari saldi contabili, sintomatico di probabili earnings manipulations; tra i vari i modelli che sono stati elaborati nel corso degli anni, quelli maggiormente utilizzati sono stati:
- il modello di Beneish che impiega specifici accrual, di natura contabile ed extra-contabile, relativi ad imprese fraudolente e non, per segnalare che un bilancio si manipolato;
- la legge di Benford, la quale analizza la distribuzione di frequenza dei numeri in set di dati, segnalando la possibilità di eventuali errori nel caso in cui si riscontri una frequenza anomala rispetto a quella attesa.