memoria Collettiva di forme di organizzazione delle memorie individuali nella corteccia prefrontale mediale

RM partecipanti

ventiquattro con la mano destra madrelingua francesi tra i 22 e i 39 anni (media = 28.6; s.d. = 4.4) sono stati pagati per partecipare (11 maschi, 13 femmine). Non hanno riportato anamnesi di disturbi neurologici, medici, visivi o della memoria. Lo studio è stato approvato dal comitato etico di ricerca regionale (Comité de Protection des Personnes Nord-Ouest III, sponsor ID: C13-46, RCB ID: 2014-A00126-41, clinicaltrial.gov numero di registrazione: NCT02172677). Inizialmente sono stati reclutati anche altri due partecipanti per l’impostazione e la regolazione del progetto (ma non analizzati). Un partecipante è stato sostituito senza ulteriori analisi a causa di importanti artefatti MRI che impediscono l’analisi delle immagini. Tutti i partecipanti hanno dato il consenso scritto prima di partecipare. Ai partecipanti è stato chiesto di non consumare psicostimolanti, droghe o alcol prima o durante il periodo sperimentale. Non sono stati utilizzati metodi statistici per predeterminare la dimensione del campione, ma la dimensione del campione utilizzata in questo studio (N = 24) è paragonabile a quella dei precedenti studi fMRI utilizzando RSA.

Materiali e procedura di esplorazione del Memoriale

Gli stimoli erano 119 immagini selezionate dall’area World War, Total War al Caen Memorial Museum. Ogni display è stato fotografato al Memoriale utilizzando una fotocamera digitale professionale e un’illuminazione professionale. Queste immagini sono state quindi regolate per contrasto e illuminazione, e il contorno esterno è stato ritagliato, utilizzando il software di elaborazione delle immagini.

Ogni partecipante ha esplorato il Memoriale alla fine del pomeriggio, poco prima della chiusura della porta commemorativa. Ciò ha assicurato che altri visitatori non avrebbero interrotto i tour dei partecipanti. I partecipanti sono stati prima dato istruzioni generali circa l’esperimento e sono stati ciascuno dotato di un sistema mobile eye-tracking (Laboratorio di scienze applicate) costituito da occhiali e un piccolo dispositivo di archiviazione collegato agli occhiali e portato come uno zaino. Questi occhiali sono stati montati con una piccola telecamera che riprende l’esplorazione visiva del partecipante, che è stata registrata e trasmessa sul laptop dello sperimentatore. Anche se non presentiamo questi dati di eye-tracking, che vanno oltre lo scopo del documento attuale, abbiamo potuto quindi tracciare l’esplorazione dei partecipanti senza seguirli, e quindi assicurarci che rispettassero le seguenti istruzioni.

Ai partecipanti è stato detto di esplorare uno spazio ristretto del Memoriale e hanno ricevuto una mappa che descrive la disposizione spaziale (vedi Fig. 1 bis). Questo spazio comprendeva un totale di 119 immagini, ciascuna con una didascalia sotto, ed era organizzato secondo 22 zone tematiche (i numeri delle zone sono indicati nei cerchi in Fig. 1 bis). Altre due zone sono state incluse all’inizio e alla fine del tour per gli effetti recency e primacy. Queste zone di riempimento erano sempre le stesse e le loro immagini non erano incluse nel successivo protocollo sperimentale (e venivano utilizzate solo per l’addestramento e la familiarizzazione con il successivo compito di richiamo). Queste 22 zone sono state raggruppate secondo 6 settori principali (illustrati con i 6 colori principali sulla mappa commemorativa in Fig. 1 bis). L’ordine di esplorazione di questi settori principali è stato controbilanciato tra i partecipanti. Anche l’ordine di esplorazione delle zone all’interno di ciascun settore è stato randomizzato in base a 6 diverse liste di esplorazione (4 partecipanti sono stati assegnati a ciascuna di queste 6 liste). Ogni zona è iniziata con una scheda introduttiva che descrive il contenuto della zona che i partecipanti sono stati istruiti a leggere prima di esplorare la zona. I partecipanti hanno quindi dovuto esplorare ogni immagine che compone la zona. Lo hanno fatto leggendo prima la didascalia sotto, e poi sono stati liberi di esplorare il contenuto dell’immagine finché hanno voluto prima di passare all’immagine successiva fino a quando hanno completato il loro tour, la cui durata media è stata di 76 min (s.d. = 13.8). Si noti che durante questo tour commemorativo, i partecipanti non erano consapevoli che i loro ricordi sarebbero stati testati il giorno successivo.

Attività di richiamo

Il giorno successivo, i partecipanti hanno eseguito l’attività di richiamo, che è stata divisa in tre sessioni fMRI, ciascuna di circa 10 minuti di lunghezza. Ogni sessione presentava brevi frasi corrispondenti a brevi estratti che descrivevano immagini reali della seconda guerra mondiale che i partecipanti avevano esplorato (cioè frasi target; conteggio medio delle parole = 7.8, s.d. = 2.4) o non avevano esplorato (cioè frasi distrattori; conteggio medio delle parole = 7.7, s.d. = 2.1) il giorno prima. In totale, 119 frasi target e 63 frasi distrattori sono state presentate in modo casuale ai partecipanti. Gli eventi storici associati alle frasi di distrattore sono stati selezionati per abbinare le immagini visualizzate al Memoriale in termini di contenuto e proporzione relativa di immagini per zona. Il paese in cui l’evento ha avuto luogo è stato visualizzato anche sotto ogni frase, come lo era l’anno. I partecipanti erano consapevoli della vicinanza tra distrattore e frasi bersaglio e sono stati quindi fortemente incoraggiati a fare affidamento sulla loro capacità di ricordare e visualizzare pienamente le immagini associate per eseguire questo compito. Dopo l “inizio di ogni frase cueing, i partecipanti hanno riferito se o non potevano ricordare l” immagine associata premendo sì con il dito indice destro o no con il dito medio destro. Le frasi sono apparse per 4,5 secondi centrate su uno sfondo grigio. Gli studi sono stati presentati in modo stocastico secondo una distribuzione di Poisson (λ = 4) con un intervallo di interstimolo medio di 4,2 s (intervallo = 1-10 s) con eventi nulli aggiuntivi del 25% e sono stati separati da una croce di fissazione. Le precisioni e le prestazioni relative all’attività di richiamo sono descritte nella tabella supplementare 2.

Attività di disposizione delle immagini

All’esterno dello scanner, i partecipanti hanno eseguito un’attività di disposizione delle immagini, utilizzata come proxy per singoli schemi, sulle 119 immagini commemorative. Le immagini dovevano essere posizionate all’interno di 1 a 28 cerchi in base alla loro vicinanza storica. Questa attività di disposizione delle immagini è stata scritta in Javascript incorporato nel codice HTML per la navigazione Internet, offrendo così una grande flessibilità nell’esecuzione delle attività: i partecipanti potevano ingrandire o ridurre con uno sfondo in movimento simile a Google Maps, potevano ingrandire un’immagine facendo clic su di essa (con la didascalia commemorativa sotto), le didascalie commemorative apparivano al passaggio del mouse e i partecipanti potevano selezionare e spostare più immagini contemporaneamente. Le immagini sono state inizialmente collocate in un grande quadrato sopra i cerchi. I partecipanti sono stati incaricati di rivedere ogni immagine e di metterli nei cerchi di seguito come sono andati attraverso ciascuno di essi. È stato detto loro di raggruppare nello stesso cerchio tutte le immagini che si sentivano descritte da vicino o simili eventi storici. Se sentivano che le immagini descrivevano eventi disconnessi, venivano istruiti a posizionarli in ambienti diversi. I partecipanti erano liberi di utilizzare tutti i cerchi che volevano, da un singolo cerchio a tutti i cerchi disponibili sulla mappa. Le istruzioni sottolineavano che non c’era assolutamente il giusto numero di cerchi da usare, e che erano liberi di procedere come volevano. I partecipanti sono stati anche istruiti a prestare attenzione alle distanze tra i cerchi e le loro posizioni relative. Più giudicavano che le immagini fossero collegate a eventi connessi o disconnessi, più vicine o più lontane dovrebbero essere le loro posizioni relative tra i cerchi. Infine, quando la disposizione principale è stata completata per tutte le immagini, i partecipanti hanno dovuto riadattare le posizioni delle immagini all’interno di ogni cerchio. Le distanze euclidee tra le posizioni dell’immagine riflettevano quindi l’organizzazione semantica di un dato individuo e potevano essere codificate in un RDM.

Parametri di acquisizione MRI

I dati MRI sono stati acquisiti su uno scanner Achieva da 3 T (Philips) presso il brain imaging Cyceron centre di Caen. Tutti i partecipanti sono stati sottoposti per la prima volta a imaging anatomico del volume ad alta risoluzione ponderato T1 utilizzando una sequenza tridimensionale (3D) Fast field echo (FFE) (sagittale 3D-T1-FFE; TR = 20 ms, TE = 4,6 ms, angolo di rotazione = 10°, fattore di senso = 2, 180 fette, spessore fetta = 1 mm, nessun gap, campo visivo = 256 × 256 × 180 mm3, matrice = 256 × 130 × 180). Questa acquisizione è stata seguita dalle sessioni funzionali, che sono state acquisite utilizzando una sequenza EPI ascendente T2-star (MS-T2-star-FFE-EPI axial; TR = 2050 ms, TE = 30 ms, angolo di rotazione = 78°, 32 fette, spessore fetta = 3 mm, gap 0,75 mm, matrice = 64 × 63 × 32, campo visivo = 192 × 192 × 119 mm3, 310 volumi per corsa).

Preprocessing MRI

I dati sono stati analizzati utilizzando il software di mappatura parametrica statistica (SPM12, Wellcome Department of Imaging Neuroscience). Durante la pre-elaborazione, le immagini sono state prima riallineate spazialmente per correggere il movimento e sono state quindi corrette per il ritardo temporale dell’acquisizione della fetta. Dopo la coregistrazione con l’immagine strutturale T1, le immagini funzionali sono state poi normalizzate utilizzando i parametri derivati dalla normalizzazione non lineare delle singole immagini T1 della materia grigia al modello T1 del Montreal Neurological Institute. Si noti, tuttavia, che le immagini non carteggiate e non levigate sono state utilizzate per l’RSA. La normalizzazione delle immagini era comunque necessaria per calcolare il campo di deformazione in avanti e la sua inversione, per normalizzare le immagini dei proiettori o riportare i ROI mPFC nello spazio nativo (vedi sotto), rispettivamente. L’uso di immagini non levigate è importante per RSA in quanto conserva il modello spaziale a grana fine che caratterizza la geometria rappresentativa di una regione.

Analisi di primo livello

Le serie temporali pre-elaborate, corrispondenti alle immagini spaziali native (ovvero immagini non deformate e non levigate), sono state quindi filtrate passa-alto a 1/128 Hz in ciascun voxel. I regressori in un modello lineare generale (GLM) per ogni voxel sono stati creati convolvendo una funzione delta (modellata come 4.5 s short-epoch) all’inizio dello stimolo per ogni condizione di interesse con una funzione di risposta emodinamica canonica (HRF). È stato utilizzato un approccio separato ai minimi quadrati50, 51, che consisteva nella stima di un GLM separato per ogni prova. In ogni GLM, il trial of interest è stato modellato come un regressore, e tutti gli altri trial sono stati collassati in cinque distinti regressori corrispondenti a recall, miss, false alarms, correction rejection e no response conditions (vedi Tabella supplementare 2 per le prestazioni comportamentali sul compito di richiamo). Questo approccio è stato promosso per progetti con brevi intervalli di interstimolo, quando vi è un alto livello di collinearità tra le risposte emodinamiche a prove successive51. Ulteriori regressori di nessun interesse erano i sei parametri di riallineamento per tenere conto di artefatti lineari di movimento residuo. L’autocorrelazione tra i residui GLM è stata corretta utilizzando il processo autoregressivo del primo ordine, risultando in dati pre-sbiancati dopo una stima limitata della massima verosimiglianza.

Regioni di interesse

L’mPFC è stato definito anatomicamente utilizzando l’etichettatura anatomica automatizzata atlas52 ed è stato suddiviso in ROI vmPFC e dmPFC. Il dmPFC corrispondeva al giro mediale frontale superiore bilaterale dell’atlante di etichettatura anatomica automatizzata (indici 2601 e 2602). La maschera vmPFC comprendeva il giro mediale fronto-orbitale bilaterale (indici 2611 e 2612), il retto bilaterale (indici 2701 e 2702) e la porzione ventrale (coordinate Z inferiori o uguali a zero) del cingolo anteriore bilaterale (indici 4001 e 4002). Questi due ROI sono mostrati in Fig. 3 ter. Queste due immagini di maschera sono state quindi riavvolte nello spazio nativo di ciascun partecipante utilizzando l’inverso del campo di deformazione calcolato durante il processo di normalizzazione.

Analisi di somiglianza rappresentativa

Le mappe di contrasto delle singole memorie sono state quindi calcolate per ogni immagine richiamata e utilizzate per calcolare RDMS nei nostri ROI. Per ogni individuo e ogni ROI, gli RDM cerebrali sono stati calcolati come segue: per ogni voxel, il vettore di attività attraverso le immagini richiamate era centrato sulla media e scalato alla sua deviazione standard (cioè, punteggio z); quindi, per ogni coppia di immagini, i modelli di attività in un dato ROI sono stati confrontati usando la correlazione spaziale e la dissomiglianza è stata quindi data da 1 meno la correlazione. A livello comportamentale, i singoli RDM sono stati derivati dalle distanze euclidee tra tutte le possibili coppie di immagini disposte dai partecipanti sul layout spaziale bidimensionale. Le forme triangolari superiori di questi RDM cerebrali o comportamentali sono state quindi estratte e confrontate con le forme triangolari superiori dei modelli RDM che descrivono schemi collettivi, distanze semantiche (derivate dagli articoli della seconda guerra mondiale di Wikipedia; vedi sotto), distanze spaziali contestuali (distanze euclidee delle posizioni spaziali delle immagini) e distanze temporali (distanze euclidee dell’ordine temporale delle immagini durante l’esplorazione commemorativa). Questi confronti tra cervello / comportamento e modello RDMs sono stati ottenuti utilizzando un modello di regressione. Sia i regressori che i dati sono stati inizialmente trasformati per testare le relazioni monotoniche non lineari. Dato che i modelli RDM collettivi, semantici (cioè Wikipedia) e contestuali (cioè spaziali e temporali) non sono ortogonali e si sovrappongono in una certa misura, un modello di regressione aiuta a chiarire la varianza univoca attribuibile a ciascuno dei predittori del modello. Per ogni partecipante, questo modello di regressione è stato ribadito per ogni argomento di interesse e le dieci ripetizioni del modello di argomento e del coefficiente di regressione del modello sono stati mediati in queste iterazioni. Tutti i modelli di regressione erano full-rank e il fattore di inflazione varianza era inferiore a 1,5 per ciascun regressore, confermando l’identificabilità e l’efficienza dei nostri modelli. I risultati di questi modelli di regressione sono riportati nel testo principale, ma riportiamo anche i risultati delle correlazioni standard di Spearman testate isolatamente, per completezza, in Fig. 3c e nella Tabella supplementare 1 per le prove statistiche. Solo gli elementi correttamente richiamati sono stati inclusi nell’analisi dei modelli di attività. Le inferenze a livello di gruppo sono state condotte utilizzando statistiche di effetti casuali non parametrici per testare sia la relazione RDM che le differenze eseguendo il bootstrap del soggetto impostato con 5.000 iterazioni28. Per ogni modello RDM o ogni coppia di modelli RDMS contrastati, non abbiamo avuto ipotesi sulla distribuzione sottostante ed eseguito test statistici a effetti casuali non parametrici utilizzando un approccio di bootstrap. Abbiamo eseguito un confronto medio ad ogni set di bootstrap e stimato il valore P come la proporzione di campioni di bootstrap ulteriormente nelle code rispetto a zero. Le proporzioni previste degli errori di tipo I in più test di relazione tra modelli RDM e confronto tra modelli sono state controllate utilizzando la correzione FDR, con un FDR q desiderato = 0.05 e assumendo una dipendenza positiva tra le condizioni34 [, 53. Per il test della correlazione del modello RDM, l’FDR atteso è stato calcolato utilizzando tutti i valori P a coda singola non corretti dei modelli testati. Per il test del confronto del modello RDM, abbiamo limitato la correzione alla nostra ipotesi principale e abbiamo incluso solo confronti che coinvolgono la memoria collettiva RDM (rispetto ad altri modelli di riferimento) per calcolare il FDR atteso, utilizzando valori P a due code. Riportiamo valori P corretti e usiamo iterazioni di bootstrap per determinare CIS percentili al 95%. Il soffitto rumore riportato in Fig. 3c riflette la correlazione tra partecipanti del cervello RDMs. Questa correlazione è stata calcolata per ciascun partecipante come la correlazione tra il cervello RDM di quel partecipante e il cervello RDM medio dei restanti partecipanti34. Il soffitto rumore raffigurato in Fig. 3c corrisponde alla media di queste singole correlazioni.

Searchlight analysis

Le mesh della materia bianca e le superfici piali della corteccia sono state ricostruite da immagini ponderate in T1 raccolte per ciascun partecipante utilizzando il pacchetto software Freesurfer versione 554,55. Abbiamo utilizzato la funzione MATLAB rsa_defineSearchlight da RSA toolbox34 (https://github.com/rsagroup/rsatoolbox), che si basa anche su Surfing toolbox functions56 (https://github.com/nno/surfing), per definire un proiettore basato sulla superficie per entrambi gli emisferi (utilizzando un proiettore a 40 voxel con un raggio di 10 mm). I voxel nelle vicinanze di uno o più nodi della superficie sono stati selezionati utilizzando una misura di distanza geodetica e costruendo linee virtuali che collegavano i nodi corrispondenti sulle superfici pial e materia bianca. Questa procedura produce un faro seguendo la curvatura della superficie, riducendo così la polarizzazione spaziale durante l’analisi dei modelli fMRI. In contrasto con i quartieri definiti volumetricamente, ciò ha portato a quartieri con una forma cilindrica curva che seguiva i contorni del sulci e del gyri di ogni individuo. Una volta che la struttura del faro di ricerca per ogni vertice è stata costruita e mappata nello spazio dell’immagine funzionale, i modelli di attività richiamata in ogni voxel che compone il faro sono stati centrati sulla media e ridimensionati alle loro deviazioni standard prima di calcolare la struttura di dissomiglianza (1 meno la correlazione spaziale) in tutti i confronti a coppie Le forme triangolari superiori di questi RDM searchlight sono state quindi estratte, trasformate in rango e confrontate utilizzando un modello di regressione con la forma triangolare superiore trasformata in rango di tutti i modelli RDM (collettivi, semantici e contestuali). Il risultato di questa analisi del faro di ricerca ha creato una mappa beta, un volume in cui ogni voxel contiene una statistica per il faro di ricerca centrato in quel voxel. Queste mappe beta di primo livello per ogni modello sono state normalizzate al modello T1 del Montreal Neurological Institute e levigate utilizzando un kernel gaussiano di 10 mm a larghezza massima. Queste mappe beta dei partecipanti allo spazio standard sono state sottoposte a un’analisi di effetti casuali non parametrici di secondo livello nella versione FSL 5.0.1157. Per correggere i confronti multipli, la mappa beta a livello di gruppo è stata sottoposta a test di permutazione massima utilizzando il cluster enhancement58 (TFCE) senza soglia, che offre un buon compromesso tra la soglia basata su cluster eccessivamente sensibile e la correzione basata su voxel a tutto il cervello troppo conservativa. Per testare la relazione e le differenze del modello RDM, le mappe TFCE sono state quindi corrette (Pcorrected < 0.05) per il tasso di errore familiare utilizzando test di permutazione standard implementati in FSL con la funzione randomize (10.000 permutazioni). I risultati dell’analisi del faro di ricerca sono riportati in Dati estesi Fig. 1.

Memoria collettiva corpus description and analysis

Il corpus è stato raccolto dal progetto MATRICE (http://www.matricememory.fr/?lang=en), una piattaforma multidisciplinare e tecnologica, il cui scopo è quello di fornire strumenti e background tecnologico e teorico per comprendere il rapporto tra memoria collettiva e individuale. Le clip audiovisive che compongono inizialmente il corpus sono state conservate presso l’Istituto Nazionale Audiovisivo, uno dei principali partner del progetto MATRICE e un istituto pubblico il cui obiettivo è quello di archiviare tutte le produzioni audiovisive trasmesse dalla televisione o dalla radio francese. Per questo studio, abbiamo incluso nel nostro corpus tutti i notiziari televisivi e le relazioni (esclusi i programmi radiofonici o i documentari) trasmessi dal 1980 al 2010 con la seconda guerra mondiale come tema comune, portando a un totale di documenti 3,766. Ci concentriamo su questo particolare periodo di tempo per tre motivi. In primo luogo, 1980-2010 si sovrappone in gran parte con la vita dei nostri partecipanti. In secondo luogo, questo periodo corrisponde alla creazione di una nuova narrativa per la memoria collettiva francese (cioè un nuovo “Régime of Mémorialité”59). Ciò ha incluso l’emergere e l’affermazione della memoria della Shoah, così come i grandi processi che riconoscono la partecipazione dello stato francese e del suo popolo, e dei loro rappresentanti all’epoca (ad esempio, Bousquet, Leguay, Touvier e Papon), alla deportazione e all’uccisione di ebrei. Terzo, grazie ai progressi nel riconoscimento vocale automatico e la disponibilità di testi elettronici con cui linguistiche contemporanee modelli sono stati costruiti per elaborare i dati registrati dopo il 1980, il 3,766 i file audio sono stati convertiti in formato XML utilizzando speech-to-text di conversione algoritmi sviluppati dal Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI; Scienze dell’Ingegneria e dell’informatica Lab), uno dei partner principali della MATRICE di progetto.

Una volta convertito in testo, il nostro corpus è stato inizialmente elaborato manualmente per scartare segmenti non relativi alla seconda guerra mondiale (mantenendo esclusivamente sezioni dedicate a questo argomento). Durante questa operazione, le trascrizioni automatiche speech-to-text sono state inoltre corrette da un lettore umano. Dopo questa pre-elaborazione iniziale, è stato estratto un file XML separato per ciascun documento. Questi file sono stati poi elaborati con metodologie di analisi dei dati testuali utilizzando il software TXM60 (http://textometrie.ens-lyon.fr/) collegato con l’analizzatore morfosintattico treetagger61 (http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/). TXM consente all’utente di annotare ogni istanza di una parola (cioè token) al suo lemma corrispondente (la forma canonica di un insieme di parole) e di procedere a un’etichettatura morfosintattica di ogni parola in un corpus. Il corpus può quindi essere esplorato utilizzando le richieste Corpus Query Language (CQL) per taggare e recuperare specifiche categorie grammaticali, forme, lemmi o qualsiasi informazione allegata alla parola. Un elenco di richieste CQL è stato generato automaticamente per ogni nome, verbo o aggettivo lemma nel corpus. Lemmi rari (meno di dieci occorrenze), parole di stop e verbi comuni (ad esempio, “essere” e “avere”) sono stati rimossi nel processo e non inclusi nelle analisi successive. Ad esempio, questo algoritmo attraverserebbe il corpus e produrrebbe una query CQL unica (ad esempio, (lemma = “fight”%c)) corrispondente a qualsiasi istanza del verbo “fight” nel corpus (cioè “fight”, “fight” o “fight”). Il modificatore % c incorporato in questa richiesta viene utilizzato per neutralizzare il caso del carattere delle forme di lemma assimilate (cioè” lotta”,” Lotta “o”LOTTA”). Un elenco iniziale di circa 6.500 richieste CQL è stato generato automaticamente in questo modo. Questo elenco è stato controllato manualmente per rimuovere le richieste CQL prodotte da una trascrizione errata, per raggruppare occasionalmente determinate richieste sotto una singola entità (ad esempio, (lemma = “drama”%c)|(lemma = “dramatic”%c)), per unire i bigram quando appropriato (ad esempio, (lemma = “chief”%c) ()?(lemma = “stato”%c) per “capo di stato”) o per adattarsi a diverse forme ortografiche (ad esempio, (lemma = “Gorbatchev”%c)|(lemma = “Gorbatchov”%c)). Dopo questo controllo e adeguamento iniziali, sono rimaste un totale di richieste 6,240 per riassumere i token 1,431,790 che compongono il nostro corpus.

Una matrice di frequenza del documento lemma x che conta il numero di occorrenze è stata estratta e sottoposta ad un’analisi LDA eseguita utilizzando il Toolkit Machine Learning for LanguagE (MALLET; http://mallet.cs.umass.edu/topics.php). Modelli topic26, 29, 30 considera che i documenti sono generati da miscele di argomenti. In questo contesto, un argomento corrisponde alla distribuzione delle probabilità su tutte le parole presenti in tutti i documenti (quanto è probabile che una determinata parola sia associata a un argomento). Da questo punto di vista, un documento può essere generato assegnando una distribuzione di probabilità su argomenti. Per ogni istanza in un documento, viene scelto un argomento in base alla distribuzione di probabilità dell’argomento precedente e da tale argomento viene estratta una parola. MALLET utilizza l’algoritmo di campionamento di Gibbs per invertire questo processo, deducendo l’insieme di argomenti che erano responsabili della generazione di una raccolta di documenti e le loro probabilità rispetto alle parole.

Abbiamo addestrato per la prima volta modelli di argomenti sui notiziari e sui rapporti della seconda guerra mondiale utilizzando il motore di argomento del treno MALLET (vedi Dati estesi Fig. 2 per un’illustrazione degli argomenti creati con questa tecnica). Abbiamo variato il numero di argomenti consentiti da 2 a 100, in incrementi di 1, impostando il parametro alfa a 50/N argomenti e il parametro beta iniziale a 0.1 (come suggerito in altri lavori che modellano un ampio corpus di testi per scopi semantici62). Per ogni numero di argomenti, abbiamo utilizzato 500 iterazioni per stimare le probabilità di argomenti di word e document. Abbiamo quindi utilizzato lo strumento MALLET inferencer per adattare il modello LDA alle immagini commemorative e stimare le loro probabilità di argomento. A tale scopo, ogni immagine è stata trattata come un nuovo documento ed etichettata con parole chiave (anche lemmatizzate), che sono state direttamente derivate dalle didascalie commemorative sotto le immagini. Un totale di 449 lemmi è stato usato per descrivere le immagini commemorative. Di questi lemmi, 428 sono stati trovati anche nella lista di 6.240 lemmi che descrivono il corpus di notiziari e rapporti. Il processo inferenziale dell’argomento ha quindi portato a una matrice di distribuzione di probabilità di 119 immagini x N argomenti, descrivendo la probabilità posteriore di un argomento dato un’immagine.

Un’immagine 119 x 119 immagine RDM è stata quindi calcolata per ogni numero di argomenti stimati utilizzando le distanze tra le distribuzioni di probabilità argomento per ogni coppia di immagini (basate qui sulla distanza del coseno, che fornisce una misura simmetrica della somiglianza tra due vettori argomento). Tuttavia, data la casualità che l’algoritmo di campionamento di Gibbs può introdurre durante la stima dei parametri, abbiamo ribadito l’intero processo dieci volte, portando a un’immagine 3D 119 x immagine 119 x 10 ripetizione RDM per ogni numero di argomenti stimati. Le misurazioni della somiglianza tra RDMS cerebrale o comportamentale e RDMS collettivo (coefficienti beta del modello di regressione o coefficienti di correlazione di Spearman) sono state calcolate in media su quelle dieci ripetizioni di modellazione topica. Per riassumere l’intero processo, per un determinato numero di argomenti: (1) abbiamo formato un modello di argomento sul notiziario televisivo francese e rapporti corpus; (2) adattiamo questo modello argomento per le immagini commemorative e le loro didascalie, trattando ogni immagine come un nuovo documento; (3) una matrice di argomenti 119 picture x N, che descrive la probabilità posteriore di un argomento dato un’immagine, è stata estratta e trasformata in un RDM 119 × 119; e (4) questo processo è stato ripetuto dieci volte, e per ogni numero di argomenti, la somiglianza media con il cervello o il comportamento RDMs è stata calcolata in quelle dieci istanze.

Convalida del modello di memoria collettiva e selezione del numero di argomento

Abbiamo cercato di quantificare la struttura delle rappresentazioni condivise tra gli individui e confrontato tali schemi condivisi con il nostro modello di memoria collettiva. Questa procedura ci permetterebbe anche di selezionare autonomamente un numero ottimale di argomenti per descrivere la struttura collettiva delle immagini che meglio corrisponde alla memoria condivisa. A tal fine, 54 madrelingua francesi (23 maschi, 31 femmine) tra i 20 e i 39 anni (media = 27,3 anni; s.d. = 5,6) hanno eseguito il compito di disposizione delle immagini. Questo compito è stato eseguito esattamente sulle stesse 119 immagini commemorative, ma a differenza dei nostri partecipanti alla risonanza magnetica, che avevano visitato il Memoriale il giorno prima, questi nuovi partecipanti non avevano completamente familiarità con il Memoriale. Abbiamo ricavato 54 singoli RDM dalle distanze euclidee tra le immagini. Abbiamo quindi eseguito DISTATIS33 per catturare la struttura condivisa delle rappresentazioni tra quegli individui di controllo. DISTATIS è ideale per calcolare il miglior accordo o compromesso su più matrici di distanza. L’implementazione in MATLAB di DISTATIS può essere trovata in https://www.utdallas.edu/~herve/, ma in breve: (1) ciascuno dei 54 RDMS è stato trasformato per la prima volta in una matrice cross-product dopo il doppio centraggio e la normalizzazione al suo primo autovalore; (2) il coseno di somiglianza di struttura di tutte le coppie confronti del 54 normalizzato croce-prodotto di matrici è stata calcolata usando la RV coefficiente; (3) il CAMPER matrice dei coefficienti che descrivono le relazioni tra RDMs è stata presentata al eigen-di decomposizione, e la compromissione della matrice corrisponde alla somma normalizzata croce-prodotto di matrici ponderate per il loro primo autovalore; (4) il eigen-decomposizione del compromesso prodotta fattore di punteggi, che ha descritto la posizione di ognuna delle 119 immagini in un N-dimensionale spazio compromesso; e (5) la matrice di correlazione della distanza di questi spazi di compromesso multidimensionali corrispondeva quindi al miglior accordo su tutti i 54 singoli RDM derivati dal compito di disposizione dell’immagine comportamentale. Questa matrice di correlazione della distanza può essere vista come uno schema condiviso che riflette l’organizzazione semantica comune tra gli individui. Gli RDM collettivi estratti dal corpus di notiziari e rapporti televisivi erano simili alla struttura della memoria condivisa misurata tra gli individui di controllo (Fig. 2 quater). Questa somiglianza tra memoria collettiva e condivisa è stata calcolata in media da bidoni di cinque argomenti, e ha raggiunto il suo massimo quando sei a dieci argomenti sono stati inclusi durante la scoperta argomento. Di conseguenza, tutte le analisi successive che coinvolgono la memoria collettiva o semantica sono state eseguite utilizzando da sei a dieci argomenti (e le misure di somiglianza tra RDM cerebrali o comportamentali e RDM collettivi o semantici sono state calcolate in media all’interno di questo numero selezionato di argomenti).

> Costruzione di un modello di controllo della II Guerra Mondiale dominio semantico

Abbiamo utilizzato francese Wikipedia in riferimento alla seconda Guerra Mondiale come un modello di riferimento delle specifiche relazioni semantiche tra le parole relative alla seconda Guerra Mondiale, e addestrati a tema modello che si adatta quindi per il Memorial immagini. Questo corpus (http://redac.univ-tlse2.fr/corpus/wikipedia.html) incluso 664,982 articoli modificati fino a giugno 2008, tra i quali, per 2.643 articoli sono stati specificamente legati alla seconda Guerra Mondiale, ed è stato precedentemente estratto dalla discarica versione francese di Wikipedia (http://dumps.wikimedia.org/) e trattati con la stessa morfosintattico tagging tool61 utilizzato per elaborare il nostro corpus di televisione francese notizie sulla II Guerra Mondiale. Una volta importato il corpus in TXM, abbiamo applicato esattamente lo stesso metodo di analisi che abbiamo usato in precedenza per costruire il modello di memoria collettiva (vedi memoria Collettiva corpus descrizione e analisi).

Reporting Summary

Ulteriori informazioni sul design della ricerca sono disponibili nel Reporting Summary di Nature Research collegato a questo articolo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

Previous post Laurie Soldi Biografia
Next post Olive Branch Municipal Court Modifiche al programma (aggiornato marzo 19, 2020)