AI: una nuova opportunità contro le infezioni antibiotico resistenti?
A partire dalla scoperta e sviluppo della penicillina negli anni ‘40 del secolo scorso, la ricerca farmacologica ha compiuto progressi inarrestabili per oltre quarant’anni identificando nuove classi di antibiotici, ciascuna con uno specifico meccanismo d’azione, che hanno consentito per decenni di trattare un ampio spettro di infezioni batteriche con successo. Tuttavia, le straordinarie capacità adattative dei patogeni, stimolate da un uso eccessivo e spesso inadeguato degli antibiotici, hanno inaspettatamente portato allo sviluppo di resistenze contro i principali meccanismi molecolari dei farmaci.
Al contempo, all’“età dell’oro” della scoperta antibiotica è seguito un forte rallentamento nella ricerca: l’incapacità di individuare strategie terapeutiche innovative ha contribuito a rendere l’antibiotico resistenza la pandemia silenziosa di questo secolo. Secondo il rapporto dell’ONU No Time to Wait del 2019, in assenza di un intervento urgente e coordinato a livello globale, le infezioni resistenti potrebbero causare fino a 10 milioni di morti all’anno entro il 2050. Attualmente in Europa si registrano 35.000 decessi annui legati a queste infezioni, un terzo dei quali in Italia, che si conferma tra i maggiori consumatori di antibiotici.
Come riporta l’AIFA, l’agenzia del farmaco, nel suo Rapporto nazionale sull’uso degli antibiotici in Italia relativo all’anno 2023, nella nostra penisola si osserva un preoccupante incremento del 5,4% nel consumo di antibiotici a uso sistemico e del 4,3% attraverso le altre vie di somministrazione rispetto all’anno precedente. Si tratta dunque di una sfida non più rinviabile, per la quale è urgente dotarsi di nuovi strumenti. E l’intelligenza artificiale potrebbe rivelarsi l’alleato che finora è mancato.
La vista lunga dell’algoritmo
Da circa un decennio, infatti, la ricerca scientifica sfrutta modelli di AI per sviluppare nuove strategie terapeutiche. Gli algoritmi più utilizzati si basano su modelli matematici in grado di elaborare grandi volumi di dati: partendo da dataset contenenti migliaia di molecole ad attività nota, il sistema è capace di individuare le porzioni molecolari responsabili dell’attività contro determinati target terapeutici, prevederne le interazioni nell’organismo in termini di efficacia e tossicità, ed eventualmente generare, sulla base delle informazioni acquisite, strutture molecolari ex novo potenzialmente attive. I modelli più comunemente usati si basano su metodi tradizionali di apprendimento automatico (Machine Learning, ML). Gli algoritmi riescono a riconoscere le caratteristiche strutturali importanti e a prevedere come queste molecole interagiranno con l’organismo, in termini di efficacia o tossicità. Questo permette di ridurre drasticamente la necessità di testare ogni singola molecola in laboratorio, con un grande vantaggio in termini di costi e tempi.
Fonte: scienzainrete.it