Kollektives Gedächtnis prägt die Organisation individueller Erinnerungen im medialen präfrontalen Kortex

MRT-Teilnehmer

Vierundzwanzig rechtshändige französische Muttersprachler zwischen 22 und 39 Jahren (Mittelwert = 28,6 Jahre; s.d. = 4,4) wurden für die Teilnahme bezahlt (11 Männer, 13 Frauen). Sie hatten keine Vorgeschichte von neurologischen, medizinischen, visuellen oder Gedächtnisstörungen. Die Studie wurde von der regionalen Ethikkommission für Forschung genehmigt (Comité de Protection des Personnes Nord-Ouest III, Sponsor-ID: C13-46, RCB-ID: 2014-A00126-41, clinicaltrial.gov registrierungsnummer: NCT02172677). Zwei weitere Teilnehmer wurden ebenfalls zunächst für die Designeinstellung und -anpassung rekrutiert (jedoch nicht analysiert). Ein Teilnehmer wurde ohne weitere Analysen ersetzt, da wichtige MRT-Artefakte die Bildanalyse verhinderten. Alle Teilnehmer haben vor der Teilnahme schriftlich zugestimmt. Die Teilnehmer wurden gebeten, vor oder während des Versuchszeitraums keine Psychostimulanzien, Drogen oder Alkohol zu konsumieren. Es wurden keine statistischen Methoden zur Vorbestimmung der Stichprobengröße verwendet, aber die in dieser Studie verwendete Stichprobengröße (N = 24) ist vergleichbar mit der früherer fMRT-Studien mit RSA.

Materialien und Verfahren zur Erforschung des Denkmals

Die Stimuli waren 119 Bilder, die aus dem Bereich Weltkrieg, Totaler Krieg im Caen Memorial Museum ausgewählt wurden. Jedes Display wurde am Denkmal mit einer professionellen Digitalkamera und professioneller Beleuchtung fotografiert. Diese Bilder wurden dann für Kontrast und Beleuchtung angepasst, und die Außenkontur wurde beschnitten, mit Bildverarbeitungssoftware.

Jeder Teilnehmer erkundete das Denkmal am Ende des Nachmittags, kurz bevor sich die Tür des Denkmals schließt. Dies stellte sicher, dass andere Besucher die Touren der Teilnehmer nicht stören würden. Die Teilnehmer erhielten zunächst allgemeine Anweisungen zum Experiment und wurden jeweils mit einem mobilen Eye-Tracking-System (Applied Science Laboratory) ausgestattet, das aus einer Brille und einem kleinen Aufbewahrungsgerät bestand, das mit der Brille verbunden und als Rucksack getragen wurde. Diese Brille wurde mit einer kleinen Kamera montiert, die die visuelle Erkundung des Teilnehmers filmte, die auf dem Laptop des Experimentators aufgezeichnet und ausgestrahlt wurde. Obwohl wir diese Eye-Tracking-Daten, die über den Rahmen des aktuellen Papiers hinausgehen, nicht präsentieren, konnten wir so die Exploration der Teilnehmer verfolgen, ohne ihnen zu folgen, und so sicherstellen, dass sie die folgenden Anweisungen befolgten.

Die Teilnehmer wurden aufgefordert, einen begrenzten Raum des Denkmals zu erkunden, und erhielten eine Karte, die die räumliche Anordnung beschreibt (siehe Abb. 1a). Dieser Raum umfasste insgesamt 119 Bilder mit jeweils einer Beschriftung darunter und war nach 22 thematischen Zonen organisiert (Zonennummern sind in den Kreisen in Abb. 1a). Zwei weitere Zonen wurden ganz am Anfang und ganz am Ende der Tour für recency und primacy Effekte enthalten. Diese Füllerzonen waren immer gleich, und ihre Bilder wurden nicht in das nachfolgende Versuchsprotokoll aufgenommen (und wurden nur zum Training und zur Einarbeitung in die nachfolgende Rückrufaufgabe verwendet). Diese 22 Zonen wurden nach 6 Hauptsektoren gruppiert (dargestellt mit den 6 Hauptfarben auf der Gedenkkarte in Abb. 1a). Die Explorationsreihenfolge dieser Hauptsektoren wurde zwischen den Teilnehmern ausgeglichen. Die Explorationsreihenfolge der Zonen innerhalb jedes Sektors wurde ebenfalls nach 6 verschiedenen Explorationslisten randomisiert (jeder dieser 6 Listen wurden 4 Teilnehmer zugewiesen). Jede Zone begann mit einer Einführungstafel, die den Inhalt der Zone beschreibt, die die Teilnehmer zuerst lesen sollten, bevor sie die Zone erkunden. Die Teilnehmer mussten dann jedes Bild erkunden, aus dem die Zone bestand. Sie taten dies, indem sie zuerst die Bildunterschrift darunter lasen und dann den Inhalt des Bildes so lange erkunden konnten, wie sie wollten, bevor sie zum nächsten Bild übergingen, bis sie ihre Tour beendeten, deren durchschnittliche Dauer 76 Minuten betrug (s.d. = 13.8). Beachten Sie, dass die Teilnehmer während dieser Gedenktour nicht wussten, dass ihre Erinnerungen am nächsten Tag getestet würden.

Rückrufaufgabe

Am nächsten Tag führten die Teilnehmer die Rückrufaufgabe durch, die in drei fMRT-Sitzungen von jeweils etwa 10 Minuten Länge unterteilt war. Jede Sitzung präsentierte kurze Sätze, die kurzen Auszügen entsprachen, die reale Bilder des Zweiten Weltkriegs beschreiben, die die Teilnehmer am Tag zuvor untersucht hatten (d. H. Zielsätze; durchschnittliche Wortzahl = 7,8, s.d. = 2,4) oder nicht untersucht hatten (d. H. Distraktorsätze; durchschnittliche Wortzahl = 7,7, s.d. = 2,1). Insgesamt wurden den Teilnehmern 119 Zielsätze und 63 Distraktorsätze zufällig präsentiert. Historische Ereignisse, die mit den Ablenkungssätzen verbunden waren, wurden so ausgewählt, dass sie sowohl inhaltlich als auch im relativen Anteil der Bilder pro Zone zu den in der Gedenkstätte gezeigten Bildern passten. Das Land, in dem die Veranstaltung stattfand, wurde ebenso wie das Jahr unter jedem Satz angezeigt. Die Teilnehmer waren sich der Nähe zwischen Distraktor und Zielsystem bewusst und wurden daher dringend aufgefordert, sich auf ihre Fähigkeit zu verlassen, sich vollständig zu erinnern und die zugehörigen Bilder zu visualisieren, um diese Aufgabe auszuführen. Nach Beginn jedes Cueing-Satzes gaben die Teilnehmer an, ob sie sich an das zugehörige Bild erinnern konnten oder nicht, indem sie mit dem rechten Zeigefinger Ja oder mit dem rechten Mittelfinger Nein drückten. Die Sätze erschienen 4,5 Sekunden lang zentriert auf grauem Hintergrund. Die Versuche wurden stochastisch nach einer Poisson-Verteilung (λ = 4) mit einem durchschnittlichen Interstimulusintervall von 4,2 s (Bereich = 1-10 s) mit 25% zusätzlichen Nullereignissen dargestellt und durch ein Fixierungskreuz getrennt. Genauigkeiten und Leistungen der Rückrufaufgabe sind in der ergänzenden Tabelle 2 beschrieben.

Bildanordnungsaufgabe

Außerhalb des Scanners führten die Teilnehmer eine Bildanordnungsaufgabe durch, die als Proxy für einzelne Schemata für die 119 Erinnerungsbilder verwendet wurde. Die Bilder mussten entsprechend ihrer historischen Nähe innerhalb von 1 bis 28 Kreisen positioniert werden. Diese Bildanordnungsaufgabe wurde in Javascript geschrieben, das in HTML-Code für die Internetnavigation eingebettet ist, Dies bietet eine große Flexibilität bei der Ausführung der Aufgabe: die Teilnehmer konnten mit einem sich bewegenden Hintergrund ähnlich wie bei Google Maps vergrößern oder verkleinern, sie konnten ein Bild vergrößern, indem sie darauf klickten (mit der Gedenkunterschrift darunter), die Gedenkunterschriften wurden beim Mouseover angezeigt, und die Teilnehmer konnten mehrere Bilder gleichzeitig auswählen und verschieben. Bilder wurden zunächst in einem großen Quadrat über den Kreisen platziert. Die Teilnehmer wurden angewiesen, jedes Bild zu überprüfen und sie in den Kreisen unten zu platzieren, wie sie durch jeden von ihnen ging. Sie wurden aufgefordert, alle Bilder, die sie für nahe oder ähnliche historische Ereignisse hielten, im selben Kreis zu gruppieren. Wenn sie die beschriebenen Bilder als unzusammenhängende Ereignisse empfanden, wurden sie angewiesen, sie in verschiedenen Kreisen zu platzieren. Die Teilnehmer konnten so viele Kreise verwenden, wie sie wollten, von einem einzelnen Kreis bis zu allen auf der Karte verfügbaren Kreisen. Die Anweisungen betonten, dass es absolut keine richtige Anzahl von Kreisen gab, die verwendet werden sollten, und dass sie frei waren, wie sie wollten. Die Teilnehmer wurden auch angewiesen, auf die Abstände zwischen den Kreisen und ihre relativen Positionen zu achten. Je mehr sie beurteilten, dass die Bilder mit verbundenen oder getrennten Ereignissen verbunden waren, desto näher oder weiter entfernt sollten ihre relativen Positionen über Kreise hinweg sein. Schließlich, als die Hauptanordnung für alle Bilder abgeschlossen war, mussten die Teilnehmer die Positionen der Bilder innerhalb jedes Kreises neu einstellen. Die euklidischen Abstände zwischen den Bildpositionen spiegelten dann die semantische Organisation eines gegebenen Individuums wider und könnten in einem RDM codiert werden.

MRT-Erfassungsparameter

MRT-Daten wurden mit einem 3 T Achieva-Scanner (Philips) am Brain Imaging Cyceron Centre in Caen erfasst. Alle Teilnehmer erhielten zunächst eine hochauflösende T1-gewichtete anatomische Volumenbildgebung unter Verwendung einer dreidimensionalen (3D) Fast Field Echo (FFE) -Sequenz (3D-T1-FFE sagittal; TR = 20 ms, TE = 4,6 ms, Flip-Winkel = 10 °, SENSE-Faktor = 2, 180 Scheiben, Schichtdicke = 1 mm, keine Lücke, Sichtfeld = 256 × 256 × 180 mm3, Matrix = 256 × 130 × 180). Dieser Akquisition folgten die Funktionssitzungen, die unter Verwendung einer aufsteigenden T2-Stern-EPI-Sequenz (MS-T2-Stern-FFE-EPI axial; TR = 2050 ms, TE = 30 ms, Flip-Winkel = 78°, 32 slices, slice thickness = 3 mm, 0,75 mm gap, matrix = 64 × 63 ×32, field of view = 192 × 192 × 119 mm3, 310 volumes per run) erfasst wurden.

MRT-Vorverarbeitung

Die Daten wurden mit statistischer parametrischer Kartierungssoftware (SPM12, Wellcome Department of Imaging Neuroscience) analysiert. Während der Vorverarbeitung wurden die Bilder zunächst räumlich neu ausgerichtet, um die Bewegung zu korrigieren, und dann um die zeitliche Verzögerung der Schichterfassung korrigiert. Nach der Coregistration mit dem T1-Strukturbild wurden die Funktionsbilder dann unter Verwendung der Parameter normalisiert, die aus der nichtlinearen Normalisierung einzelner T1-Bilder der grauen Substanz auf die T1-Vorlage des Montreal Neurological Institute abgeleitet wurden. Beachten Sie jedoch, dass für die RSA ungezogene und ungeglättete Bilder verwendet wurden. Die Bildnormalisierung war dennoch erforderlich, um das Vorwärtsdeformationsfeld und seine Inversion zu berechnen, Suchlichtbilder zu normalisieren bzw. mPFC-ROIs in den nativen Raum zurückzubrechen (siehe unten). Die Verwendung von ungeglätteten Bildern ist für RSA wichtig, da das feinkörnige räumliche Muster, das die Darstellungsgeometrie einer Region charakterisiert, erhalten bleibt.

Analyse der ersten Ebene

Die vorverarbeiteten Zeitreihen, die nativen Raumbildern entsprechen (d. h. nicht verzogene und nicht geglättete Bilder), wurden dann in jedem Voxel auf 1/128 Hz hochpassgefiltert. Regressoren in einem allgemeinen linearen Modell (GLM) für jedes Voxel wurden erstellt, indem eine Delta-Funktion (modelliert als 4,5 s kurze Epoche) zu Beginn des Stimulus für jede interessierende Bedingung mit einer kanonischen hämodynamischen Antwortfunktion (HRF) gefaltet wurde. Es wurde ein separater Ansatz mit den kleinsten Quadraten verwendet50,51, der darin bestand, für jede Studie einen separaten GLM zu schätzen. In jedem GLM wurde die interessierende Studie als ein Regressor modelliert, und alle anderen Studien wurden in fünf verschiedene Regressoren unterteilt, die Rückruf, Fehlalarm, Fehlalarm, Korrekturverweigerung und keine Reaktionsbedingungen entsprachen (siehe ergänzende Tabelle 2 für Verhaltensleistungen bei der Rückrufaufgabe). Dieser Ansatz wurde für Designs mit kurzen Interstimulusintervallen gefördert, wenn eine hohe Kollinearität zwischen den hämodynamischen Reaktionen auf aufeinanderfolgende Versuche besteht51. Weitere Regressoren ohne Interesse waren die sechs Neuausrichtungsparameter zur Berücksichtigung linearer Restbewegungsartefakte. Die Autokorrelation zwischen den GLM-Residuen wurde unter Verwendung des autoregressiven Prozesses erster Ordnung korrigiert, was zu vorweißen Daten nach eingeschränkter Maximum-Likelihood-Schätzung führte.

Regionen von Interesse

Die mPFC wurde anatomisch mit dem Automated Anatomical Labeling atlas52 definiert und in vmPFC- und dmPFC-ROIs aufgeteilt. Die dmPFC entsprach dem bilateralen Gyrus frontalis superior medialis des Automated Anatomical Labeling Atlas (Indizes 2601 und 2602). Die vmPFC-Maske umfasste den bilateralen frontoorbitalen medialen Gyrus (Indizes 2611 und 2612), den bilateralen Rectus (Indizes 2701 und 2702) und den ventralen Teil (Z-Koordinaten kleiner oder gleich Null) des bilateralen vorderen Cingulums (Indizes 4001 und 4002). Diese beiden ROIs sind in Fig. 3b. Diese beiden Maskenbilder wurden dann unter Verwendung der Umkehrung des Verformungsfelds, das während des Normalisierungsprozesses berechnet wurde, in den nativen Raum jedes Teilnehmers zurückgewickelt.

Repräsentative Ähnlichkeitsanalyse

Kontrastkarten einzelner Erinnerungen wurden dann für jedes abgerufene Bild berechnet und zur Berechnung von RDMs in unserem ROIs verwendet. Für jedes Individuum und jeden ROI wurden Gehirn-RDMs wie folgt berechnet: Für jedes Voxel wurde der Aktivitätsvektor über alle Bilder hinweg mittelzentriert und auf seine Standardabweichung skaliert (dh z-Score); dann wurden für jedes Bildpaar die Aktivitätsmuster in einem gegebenen ROI unter Verwendung einer räumlichen Korrelation verglichen, und die Unähnlichkeit wurde dann durch 1 minus der Korrelation gegeben. Auf der Verhaltensebene wurden aus den euklidischen Abständen zwischen allen möglichen Bildpaaren, die von den Teilnehmern auf dem zweidimensionalen Raumlayout angeordnet wurden, individuelle RDMs abgeleitet. Die oberen Dreiecksformen dieser Gehirn- oder Verhaltens-RDMs wurden dann extrahiert und mit den oberen Dreiecksformen von RDM-Modellen verglichen, die kollektive Schemata, semantische Distanzen (abgeleitet aus Wikipedia-Artikeln des Zweiten Weltkriegs; siehe unten), kontextuelle räumliche Distanzen (euklidische Distanzen der räumlichen Positionen der Bilder) und zeitliche Distanzen (Euklidische Distanzen der zeitlichen Rangfolge der Bilder während der Erforschung von Gedenkstätten) beschreiben. Diese Vergleiche zwischen Gehirn- / Verhaltens- und Modell-RDMs wurden unter Verwendung eines Regressionsmodells durchgeführt. Sowohl Regressoren als auch Daten wurden zunächst rangtransformiert, um auf nichtlineare monotone Beziehungen zu testen. Angesichts der Tatsache, dass kollektive, semantische (d. h. semantische) und kontextuelle (d. h. räumliche und zeitliche) Modell-RDMs nicht orthogonal sind und sich bis zu einem gewissen Grad überschneiden, hilft ein Regressionsmodell, die eindeutige Varianz zu klären, die jedem der Modellprädiktoren zuzuschreiben ist. Für jeden Teilnehmer wurde dieses Regressionsmodell für jedes Thema von Interesse wiederholt, und die zehn Wiederholungen des Themenmodells und des Modellregressionskoeffizienten wurden über diese Iterationen gemittelt. Alle Regressionsmodelle waren vollwertig, und der Varianzinflationsfaktor betrug für jeden Regressor weniger als 1,5, was die Identifizierbarkeit und Effizienz unserer Modelle bestätigt. Die Ergebnisse dieser Regressionsmodelle werden im Haupttext berichtet, aber wir berichten auch die Ergebnisse der Standard-Spearman-Korrelationen isoliert getestet, der Vollständigkeit halber, in Abb. 3c und in ergänzender Tabelle 1 für statistische Versuche. Nur korrekt zurückgerufene Elemente wurden in die Analyse der Aktivitätsmuster einbezogen. Schlussfolgerungen auf Gruppenebene wurden unter Verwendung nichtparametrischer Zufallseffektstatistiken durchgeführt, um sowohl die RDM-Verwandtschaft als auch Unterschiede zu testen, indem der Probandensatz mit 5.000 Iterationen gebootet wurde28. Für jedes Modell-RDM oder jedes Paar kontrastierter Modell-RDMs hatten wir keine Annahmen über die zugrunde liegende Verteilung und führten nichtparametrische statistische Tests mit zufälligen Effekten unter Verwendung eines Bootstrapping-Ansatzes durch. Wir führten einen Mittelwertvergleich bei jedem Bootstrap-Satz durch und schätzten den P-Wert als den Anteil der Bootstrap-Samples weiter in der Mitte als Null. Die erwarteten Anteile von Typ-I-Fehlern über mehrere Tests sowohl der RDM-Modellbezogenheit als auch des Modellvergleichs wurden unter Verwendung der FDR-Korrektur mit einem gewünschten FDR q = 0,05 und unter der Annahme einer positiven Abhängigkeit zwischen den Bedingungen kontrolliert34 [,53. Für den Test der RDM-Modellbezogenheit wurde die erwartete FDR unter Verwendung aller unkorrigierten einseitigen P-Werte getesteter Modelle berechnet. Für den Test des RDM-Modellvergleichs beschränkten wir die Korrektur auf unsere Haupthypothese und schlossen nur Vergleiche mit dem kollektiven Gedächtnis-RDM (in Bezug auf andere Referenzmodelle) ein, um die erwartete FDR unter Verwendung von zweischwänzigen P-Werten zu berechnen. Wir berichten über angepasste P-Werte und verwenden Bootstrapping-Iterationen, um 95% Perzentil-CIs zu bestimmen. Die in Fig. 3c spiegelt die Korrelation zwischen den Teilnehmern des Hirn-RDMs wider. Diese Korrelation wurde für jeden Teilnehmer als Korrelation zwischen dem Gehirn-RDM dieses Teilnehmers und dem durchschnittlichen Gehirn-RDM der verbleibenden Teilnehmer berechnet34. Die in Fig. 3c entspricht dem Mittelwert dieser einzelnen Korrelationen.

Suchlichtanalyse

Netze der weißen Substanz und Pialoberflächen des Kortex wurden aus T1-gewichteten Bildern rekonstruiert, die für jeden Teilnehmer mit dem Freesurfer-Softwarepaket Version 554,55 gesammelt wurden. Wir haben die MATLAB-Funktion rsa_defineSearchlight aus der RSA toolbox34 (https://github.com/rsagroup/rsatoolbox) verwendet, die ebenfalls auf den Toolbox-Funktionen56 (https://github.com/nno/surfing) basiert, um ein oberflächenbasiertes Suchlicht für beide Hemisphären zu definieren (unter Verwendung eines 40-Voxel-Suchlichts mit einem Radius von 10 mm). Voxel in der Nachbarschaft eines oder mehrerer Knoten der Oberfläche wurden unter Verwendung eines geodätischen Abstandsmaßes und durch Konstruieren virtueller Linien ausgewählt, die entsprechende Knoten auf den Oberflächen von Pial und weißer Substanz verbanden. Dieses Verfahren erzeugt einen Suchscheinwerfer, der der Oberflächenkrümmung folgt, wodurch die räumliche Verzerrung bei der Analyse von fMRT-Mustern verringert wird. Im Gegensatz zu volumetrisch definierten Quartieren entstanden Quartiere mit einer gekrümmten zylindrischen Form, die den Konturen der Sulci und Gyri jedes Einzelnen folgte. Sobald die Suchlichtstruktur für jeden Scheitelpunkt konstruiert und dem funktionalen Bildraum zugeordnet war, wurden Muster der abgerufenen Aktivität an jedem Voxel, aus dem das Suchlicht bestand, mittelwertzentriert und auf ihre Standardabweichungen skaliert, bevor die Unähnlichkeitsstruktur (1 abzüglich der räumlichen Korrelation) über alle paarweisen Vergleiche der abgerufenen Muster berechnet wurde. Die oberen Dreiecksformen dieser Searchlight-RDMs wurden dann extrahiert, rangtransformiert und unter Verwendung eines Regressionsmodells mit der rangtransformierten oberen Dreiecksform aller RDM-Modelle (kollektiv, semantisch und kontextuell) verglichen. Das Ergebnis dieser Suchlichtanalyse war eine Beta-Karte, ein Volumen, in dem jedes Voxel eine Statistik für das Suchlicht enthält, das auf dieses Voxel zentriert ist. Diese Beta-Karten der ersten Ebene für jedes Modell wurden auf die T1-Vorlage des Montreal Neurological Institute normalisiert und unter Verwendung eines Gaußschen Kernels mit 10 mm voller Breite bei halbem Maximum geglättet. Diese Beta-Karten für Standardraumteilnehmer wurden einer nichtparametrischen Zufallseffektanalyse der zweiten Ebene in FSL Version 5.0.1157 unterzogen. Um Mehrfachvergleiche zu korrigieren, wurde die Beta-Karte auf Gruppenebene einem maximalen Permutationstest unter Verwendung von schwellenfreiem Cluster-Enhancement58 (TFCE) unterzogen, das einen guten Kompromiss zwischen der zu empfindlichen Cluster-basierten Schwellwertbildung und der zu konservativen Voxel-basierten Korrektur des gesamten Gehirns bietet. Um die Verwandtschaft und Unterschiede des RDM-Modells zu testen, wurden TFCE-Karten dann korrigiert (Pcorrected < 0.05) für die familienweise Fehlerrate unter Verwendung von Standardpermutationstests, die in FSL mit der Randomize-Funktion (10,000-Permutationen) implementiert wurden. Die Ergebnisse der Searchlight-Analyse sind in Extended Data Fig. 1.

Beschreibung und Analyse des Korpus des kollektiven Gedächtnisses

Der Korpus wurde vom MATRICE-Projekt (http://www.matricememory.fr/?lang=en) gesammelt, einer multidisziplinären und technologischen Plattform, deren Ziel es ist, Werkzeuge sowie technologischen und theoretischen Hintergrund zum Verständnis der Beziehung zwischen kollektivem und individuellem Gedächtnis bereitzustellen. Die audiovisuellen Clips, aus denen ursprünglich das Korpus bestand, wurden beim Nationalen Audiovisuellen Institut aufbewahrt, einem der Hauptpartner des MATRICE-Projekts und einem öffentlichen Institut, dessen Ziel es ist, alle im französischen Fernsehen oder Radio ausgestrahlten audiovisuellen Produktionen zu archivieren. Für diese Studie haben wir alle Fernsehnachrichtenbulletins und Berichte (ohne Radiosendungen oder Dokumentationen), die von 1980 bis 2010 mit dem Zweiten Weltkrieg als gemeinsamem Thema ausgestrahlt wurden, in unser Korpus aufgenommen, was zu insgesamt 3.766 Dokumenten führte. Wir konzentrieren uns aus drei Gründen auf diesen speziellen Zeitraum. Erstens überschneiden sich die Jahre 1980 bis 2010 weitgehend mit den Lebenszeiten unserer Teilnehmer. Zweitens entspricht diese Periode der Etablierung einer neuen Erzählung für das französische kollektive Gedächtnis (dh eines neuen „Régime of Mémorialité“59). Dazu gehörten die Entstehung und Bestätigung der Shoah-Erinnerung sowie große Prozesse, in denen die Beteiligung des französischen Staates und seines Volkes und seiner damaligen Vertreter (z. B. Bousquet, Leguay, Touvier und Papon) an der Deportation und Ermordung von Juden anerkannt wurde. Drittens wurden dank der Fortschritte bei der automatischen Spracherkennung und der Verfügbarkeit elektronischer Texte, mit denen zeitgleiche Sprachmodelle zur Verarbeitung von nach 1980 aufgezeichneten Daten erstellt wurden, die 3.766 Audiodateien mithilfe von Sprach-zu-Text-Konvertierungsalgorithmen, die vom Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI; Labor für Ingenieurwissenschaften und Informatik), einem der Hauptpartner des MATRICE-Projekts, entwickelt wurden, in das XML-Format konvertiert.

Nach der Konvertierung in Text wurde unser Korpus zunächst manuell verarbeitet, um Segmente zu verwerfen, die nicht mit dem Zweiten Weltkrieg zusammenhängen (ausschließlich Abschnitte, die diesem Thema gewidmet sind). Während dieses Vorgangs wurden die automatischen Sprach-zu-Text-Transkriptionen zusätzlich von einem menschlichen Leser korrigiert. Nach dieser anfänglichen Vorverarbeitung wurde für jedes Dokument eine separate XML-Datei extrahiert. Diese Dateien wurden dann mit Textdatenanalysemethoden unter Verwendung der TXM-Software60 (http://textometrie.ens-lyon.fr/) in Verbindung mit dem TreeTagger morphosyntactic analyser61 (http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/) verarbeitet. TXM ermöglicht es dem Benutzer, jede Instanz eines Wortes (dh Token) mit seinem entsprechenden Lemma (der kanonischen Form einer Wortmenge) zu versehen und mit einer morphosyntaktischen Kennzeichnung jedes Wortes in einem Korpus fortzufahren. Der Korpus kann dann mithilfe von CQL-Anforderungen (Corpus Query Language) untersucht werden, um bestimmte grammatische Kategorien, Formulare, Lemmata oder Informationen, die an das Wort angehängt sind, zu markieren und abzurufen. Für jedes Substantiv-, Verb- oder Adjektivlemma im Korpus wurde zunächst automatisch eine Liste von CQL-Anforderungen generiert. Seltene Lemmata (weniger als zehn Vorkommen), Stoppwörter und gebräuchliche Verben (z. B. „Sein“ und „haben“) wurden dabei entfernt und nicht in nachfolgende Analysen einbezogen. Dieser Algorithmus würde beispielsweise den Korpus durchlaufen und eine eindeutige CQL-Abfrage (z. B. (lemma = „fight“%c)) erzeugen, die einer beliebigen Instanz des Verbs „fight“ im Korpus entspricht (dh „fight“, „fighting“ oder „fighting“). Der in dieser Anforderung enthaltene Modifikator % c wird verwendet, um den Zeichenfall assimilierter Lemmaformen (dh „fight“, „Fight“ oder „FIGHT“) zu neutralisieren. Eine anfängliche Liste von etwa 6.500 CQL-Anfragen wurde auf diese Weise automatisch generiert. Diese Liste wurde manuell überprüft, um CQL-Anforderungen zu entfernen, die durch falsche Transkription erzeugt wurden, um gelegentlich bestimmte Anforderungen unter einer einzigen Entität zu gruppieren (z. B. (lemma = „drama“%c) | (lemma = „dramatic“%c)), um Bigrams gegebenenfalls zusammenzuführen (z. B. (lemma = „chief“%c)()?(lemma = „Staat“%c) für „Staatsoberhaupt“) oder um sich an verschiedene orthographische Formen anzupassen (zum Beispiel (lemma = „Gorbatchev“%c) |(lemma = „Gorbatchov“%c)). Nach dieser ersten Prüfung und Anpassung blieben insgesamt 6.240 Anfragen übrig, um die 1.431.790 Token, aus denen unser Korpus besteht, zusammenzufassen.

Eine Lemma-x-Dokumenthäufigkeitsmatrix, die die Anzahl der Vorkommen zählt, wurde extrahiert und einer LDA-Analyse unterzogen, die mit dem Machine Learning for LanguagE Toolkit (MALLET; http://mallet.cs.umass.edu/topics.php) durchgeführt wurde. Themenmodelle26,29,30 Bedenken Sie, dass Dokumente durch Mischungen von Themen generiert werden. In diesem Zusammenhang entspricht ein Thema der Verteilung der Wahrscheinlichkeiten über alle Wörter, die in allen Dokumenten vorhanden sind (wie wahrscheinlich ist es, dass ein bestimmtes Wort einem Thema zugeordnet wird). Aus dieser Perspektive kann ein Dokument generiert werden, indem eine Wahrscheinlichkeitsverteilung über Themen zugewiesen wird. Für jede Instanz in einem Dokument wird ein Thema in Abhängigkeit von der Wahrscheinlichkeitsverteilung des vorherigen Themas ausgewählt, und aus diesem Thema wird ein Wort gezeichnet. MALLET verwendet den Gibbs-Stichprobenalgorithmus, um diesen Prozess umzukehren und auf die Themengruppe, die für die Generierung einer Sammlung von Dokumenten verantwortlich war, und deren Wahrscheinlichkeiten über Wörter abzuleiten.

Wir trainierten zuerst Themenmodelle auf dem Korpus der Nachrichtenbulletins und Berichte des Zweiten Weltkriegs mit der MALLET Train-Topic Engine (siehe Erweiterte Daten Abb. 2 zur Veranschaulichung der mit dieser Technik erstellten Themen). Wir variierten die Anzahl der zulässigen Themen von 2 bis 100 in Schritten von 1 und setzten den Alpha-Parameter auf 50 / N Themen und den Start-Beta-Parameter auf 0,1 (wie in anderen Arbeiten vorgeschlagen, die einen großen Textkorpus für semantische Zwecke modellieren62). Für jede Anzahl von Themen haben wir 500 Iterationen verwendet, um die Wahrscheinlichkeiten für Word- und Dokumentthemen zu schätzen. Wir haben dann das MALLET Inferencer-Tool verwendet, um das LDA-Modell an die Erinnerungsbilder anzupassen und deren Themenwahrscheinlichkeiten abzuschätzen. Zu diesem Zweck wurde jedes Bild als neues Dokument behandelt und mit Schlagwörtern (auch lemmatisiert) versehen, die direkt aus den Gedenkunterschriften unter den Bildern abgeleitet wurden. Insgesamt 449 Lemmata wurden verwendet, um die Gedenkbilder zu beschreiben. Von diesen Lemmata wurden 428 auch in der Liste von 6.240 Lemmata gefunden, die den Korpus von Nachrichtenbulletins und Berichten beschreiben. Der Themeninferenzprozess führte somit zu einer Wahrscheinlichkeitsverteilungsmatrix von 119 Bildern x N Themen, die die posteriore Wahrscheinlichkeit eines Themas bei einem Bild beschreibt.

Ein 119 Bild x 119 Bild RDM wurde dann für jede Anzahl geschätzter Themen unter Verwendung der Abstände zwischen den Verteilungen der Themenwahrscheinlichkeiten für jedes Bildpaar berechnet (hier basierend auf dem Cosinusabstand, der ein symmetrisches Maß für die Ähnlichkeit zwischen zwei Themenvektoren liefert). Angesichts der Zufälligkeit, die der Gibbs-Stichprobenalgorithmus während der Parameterschätzung einführen kann, haben wir den gesamten Prozess jedoch zehnmal wiederholt, was zu einem 3D-RDM von 119 Bildern x 119 Bildern x 10 Wiederholungen für jede Anzahl geschätzter Themen führte. Die Messungen der Ähnlichkeit zwischen Gehirn- oder Verhaltens-RDMs und kollektiven RDMs (Beta-Koeffizienten des Regressionsmodells oder Spearman-Korrelationskoeffizienten) wurden über diese zehn Wiederholungen der Themenmodellierung gemittelt. Um den gesamten Prozess für eine bestimmte Anzahl von Themen zusammenzufassen: (1) Wir haben ein Themenmodell auf dem Korpus der französischen Fernsehnachrichten und -berichte trainiert; (2) Wir passen dieses Themenmodell an die Gedenkbilder und ihre Bildunterschriften an und behandeln jedes Bild als neues Dokument; (3) eine 119-Bild-x-N-Themenmatrix, die die posteriore Wahrscheinlichkeit eines Themas mit einem Bild beschreibt, wurde extrahiert und in ein 119 × 119-RDM transformiert; und (4) Dieser Prozess wurde zehnmal wiederholt, und für jede Themennummer wurde die durchschnittliche Ähnlichkeit mit Gehirn- oder Verhaltens-RDMs in diesen zehn Fällen berechnet.

Validierung des kollektiven Gedächtnismodells und Auswahl der Themennummer

Wir haben versucht, die Struktur gemeinsamer Repräsentationen über Individuen hinweg zu quantifizieren und solche gemeinsamen Schemata mit unserem kollektiven Gedächtnismodell verglichen. Dieses Verfahren würde es uns auch ermöglichen, unabhängig voneinander eine optimale Anzahl von Themen auszuwählen, um die kollektive Struktur von Bildern zu beschreiben, die dem gemeinsamen Speicher am besten entspricht. Zu diesem Zweck führten 54 französische Muttersprachler (23 Männer, 31 Frauen) zwischen 20 und 39 Jahren (Mittelwert = 27, 3 Jahre; s.d. = 5, 6) die Bildanordnungsaufgabe durch. Diese Aufgabe wurde an genau denselben 119 Gedenkbildern durchgeführt, aber im Gegensatz zu unseren MRT-Teilnehmern, die das Denkmal am Tag zuvor besucht hatten, waren diese neuen Teilnehmer mit dem Denkmal völlig unbekannt. Aus den euklidischen Abständen zwischen den Bildern haben wir 54 individuelle RDMs abgeleitet. Wir haben dann DISTATIS33 durchgeführt, um die gemeinsame Struktur der Repräsentationen zwischen diesen Kontrollpersonen zu erfassen. DISTATIS ist ideal geeignet, um die beste Übereinstimmung oder den besten Kompromiss über mehrere Distanzmatrizen hinweg zu berechnen. Die Implementierung von DISTATIS in MATLAB finden Sie unter https://www.utdallas.edu/~herve/ , aber in Kürze: (1) Jedes der 54 RDMs wurde nach Doppelzentrierung und Normalisierung auf seinen ersten Eigenwert zunächst in eine produktübergreifende Matrix transformiert; (2) die Kosinusähnlichkeitsstruktur aller paarweisen Vergleiche der 54 normalisierten Kreuzproduktmatrizen wurde unter Verwendung des RV-Koeffizienten berechnet; (3) Die RV-Koeffizientenmatrix, die die Beziehungen zwischen RDMs beschreibt, wurde einer Eigenzerlegung unterzogen, und die Kompromissmatrix entsprach der Summe der normalisierten Kreuzproduktmatrizen, die mit ihrem ersten Eigenwert gewichtet waren; (4) Die Eigenzerlegung des Kompromisses erzeugte Faktorbewertungen, die die Position jedes der 119 Bilder in einem N-dimensionalen Kompromissraum beschrieben; und (5) Die Entfernungskorrelationsmatrix dieser mehrdimensionalen Kompromissräume entsprach dann der besten Übereinstimmung über alle 54 individuellen RDMs, die aus der Verhaltensbildanordnungsaufgabe abgeleitet wurden. Diese Distanzkorrelationsmatrix kann als ein gemeinsames Schema betrachtet werden, das die gemeinsame semantische Organisation zwischen Individuen widerspiegelt. Die kollektiven RDMs, die aus dem Korpus von Fernsehnachrichtenbulletins und -berichten extrahiert wurden, ähnelten der Struktur des gemeinsam genutzten Gedächtnisses, die über Kontrollpersonen hinweg gemessen wurde (Abb. 2c). Diese Ähnlichkeit zwischen kollektivem und geteiltem Gedächtnis wurde durch Bins von fünf Themen gemittelt und erreichte ihr Maximum, wenn sechs bis zehn Themen während der Themenentdeckung einbezogen wurden. Infolgedessen wurden alle nachfolgenden Analysen mit kollektivem oder semantischem Gedächtnis unter Verwendung von sechs bis zehn Themen durchgeführt (und Ähnlichkeitsmaße zwischen Gehirn- oder Verhaltens-RDMs und kollektivem oder semantischem RDMs wurden innerhalb dieser ausgewählten Anzahl von Themen gemittelt).

Aufbau eines Kontrollmodells der semantischen Domäne des Zweiten Weltkriegs

Wir haben französische Wikipedia-Artikel zum Zweiten Weltkrieg als Benchmark-Modell für die spezifischen semantischen Beziehungen zwischen Wörtern im Zusammenhang mit dem Zweiten Weltkrieg verwendet und ein Themenmodell trainiert, das wir dann an die Gedenkbilder anpassen. Dieser Korpus (http://redac.univ-tlse2.fr/corpus/wikipedia.html) umfasste 664.982 Artikel, die bis Juni 2008 bearbeitet wurden, darunter 2.643 Artikel, die sich speziell auf den Zweiten Weltkrieg bezogen. Er wurde zuvor aus der ursprünglichen französischen Version von Wikipedia-Artikeln (http://dumps.wikimedia.org/) extrahiert und mit demselben morphosyntaktischen Tagging-tool61 verarbeitet, mit dem unser Korpus französischer Fernsehnachrichten zum Zweiten Weltkrieg verarbeitet wurde. Nachdem wir den Korpus in TXM importiert hatten, wendeten wir genau dieselbe Analysemethode an, mit der wir zuvor das Modell des kollektiven Gedächtnisses erstellt hatten (siehe Kollektive speicherkorpus Beschreibung und Analyse).

Berichtszusammenfassung

Weitere Informationen zum Forschungsdesign finden Sie in der Nature Research Reporting Summary, die mit diesem Artikel verknüpft ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Previous post Laurie Money Biografie
Next post Olive Branch Municipal Court Änderungen am Zeitplan (aktualisiert März 19, 2020)