L'intelligenza artificiale (AI) guidata dalle reti neurali fondamentale in molte applicazioni come i sistemi di raccomandazione, la traduzione linguistica, i social media, i chatbot e il controllo ortografico, ecc. Tuttavia, queste reti sono spesso criticate per essere "scatole nere", sollevando preoccupazioni sulla loro spiegabilit , soprattutto in domini sensibili come la sanit , la guida autonoma, ecc. I metodi esistenti per migliorare la spiegabilit , come l'importanza delle caratteristiche, spesso mancano di chiarezza e interpretabilit . Per risolvere questo problema, stata sviluppata la Object-Oriented Neural Network for Improved Explainability (OONNIE). OONNIE utilizza una modellazione orientata agli oggetti per combinare la perdita e il peso della connessione per calcolare l'importanza delle caratteristiche e integra regole specifiche del dominio grazie all'estensibilit di OOP. Il modello enfatizza la trasparenza dell'algoritmo, descrivendo in dettaglio ogni fase dell'addestramento. Valutato su funzioni XOR e XNOR, OONNIE mostra risultati promettenti per quanto riguarda l'importanza delle caratteristiche, la riduzione pi rapida delle perdite e il miglioramento delle previsioni dopo l'integrazione delle regole del dominio. Ci rappresenta un contributo significativo all'IA spiegabile, rendendo OONNIE uno strumento prezioso per lo sviluppo di sistemi di IA affidabili.