Research Article

Piattaforme di sintesi delle evidenze per le imprese: oltre la tradizionale revisione della letteratura

Come le piattaforme di sintesi delle evidenze basate sull'AI stanno trasformando la revisione della letteratura in ambito aziendale. Include flussi di lavoro PRISMA, screening ed estrazione assistiti dall'AI e un confronto tra piattaforme per organizzazioni farmaceutiche, di policy e di ricerca.

La sintesi delle evidenze in ambito enterprise si sta evolvendo da revisioni manuali conformi a PRISMA a flussi di lavoro potenziati dall'AI. Questa guida confronta le piattaforme per screening, estrazione e sintesi, e sostiene il valore di soluzioni integrate rispetto a strumenti puntuali.

La sintesi delle evidenze — il processo sistematico di identificazione, valutazione e integrazione dei risultati della ricerca — è una delle attività che richiedono più risorse nelle organizzazioni guidate dalla ricerca. Una singola revisione sistematica può richiedere 12-18 mesi e $50,000-150,000 di costi di manodopera. Per le aziende farmaceutiche, gli enti di health technology assessment e le organizzazioni di policy che producono decine di revisioni all'anno, questo rappresenta un investimento enorme.

L'AI sta iniziando a cambiare l'economia della sintesi delle evidenze. Non sostituendo il giudizio umano — che resta essenziale per lavori di livello regolatorio — ma automatizzando le fasi che richiedono più tempo e rendendo possibili revisioni che sarebbero state impraticabili da condurre manualmente.

Per capire dove si inserisce l'AI, è utile rivedere il processo standard definito da PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses) e Cochrane:

Definire la domanda di ricerca, i criteri di inclusione/esclusione, la strategia di ricerca e il piano di analisi. Questa fase è intrinsecamente guidata dall'uomo e richiede in genere 2-4 settimane.

Read next

  • Explore more on evidence-synthesis
  • Explore more on enterprise
  • Explore more on systematic-review
  • Explore more on research-platform
  • Explore more on ai-tools

Related articles

Explore PapersFlow

Frequently Asked Questions

La sintesi delle evidenze assistita dall'AI può soddisfare gli standard richiesti per le sottomissioni regolatorie?
Attualmente, l'AI può assistere ma non sostituire il giudizio umano nella sintesi delle evidenze di livello regolatorio. FDA ed EMA accettano revisioni sistematiche che utilizzano l'AI per screening ed estrazione, a condizione che la metodologia sia documentata, riproducibile e includa una validazione umana. La migliore pratica consiste nell'usare l'AI come secondo revisore (doppio screening con un umano e un'AI), in linea con le linee guida PRISMA e con una riduzione del carico di lavoro del 40-60%. La piena autonomia dell'AI nelle sottomissioni regolatorie non è ancora accettata.
Qual è la differenza di costo tra revisioni sistematiche manuali e assistite dall'AI?
Una revisione sistematica manuale costa in genere $50,000-150,000 e richiede 12-18 mesi per un team di 3-5 revisori. Le revisioni assistite dall'AI che utilizzano piattaforme come Covidence o PapersFlow possono ridurre sia i costi sia i tempi del 40-70%, a seconda dell'ambito della revisione e del grado di assistenza dell'AI. I principali risparmi derivano dallo screening (l'AI può elaborare migliaia di abstract in pochi minuti invece che in settimane di screening umano) e dall'estrazione dei dati (l'AI può precompilare i moduli di estrazione per la verifica umana).
Come gestiscono i conflitti di interesse e i bias le piattaforme di sintesi delle evidenze?
Le piattaforme affidabili forniscono audit trail che documentano ogni decisione di inclusione/esclusione, chi l'ha presa e quando. Per il doppio screening, le piattaforme monitorano l'accordo tra valutatori (kappa di Cohen) e segnalano i disaccordi per la risoluzione. Lo screening con AI introduce una diversa preoccupazione legata ai bias — il bias del modello — motivo per cui l'attuale migliore pratica prevede l'uso dell'AI come uno dei due revisori anziché come unico decisore. Le piattaforme dovrebbero dichiarare nella documentazione i dati di addestramento del proprio modello di AI e qualsiasi bias noto.

Related Articles