pamięć zbiorowa kształtuje organizację indywidualnych wspomnień w środkowej korze przedczołowej

uczestnicy MRI

dwudziestu czterech praworęcznych native speakerów języka francuskiego w wieku od 22 do 39 lat (średnia = 28,6 lat; S.d. = 4,4) zostało opłaconych do udziału (11 mężczyzn, 13 kobiet). Nie zgłaszano w wywiadzie zaburzeń neurologicznych, medycznych, wzrokowych lub pamięci. Badanie zostało zatwierdzone przez Regionalny Komitet etyki badań (Comité de Protection des Personnes Nord-Ouest III, sponsor ID: C13-46, RCB ID: 2014-A00126-41, clinicaltrial.gov numer rejestracyjny: NCT02172677). Początkowo rekrutowano również dwóch dodatkowych uczestników do ustalania i dostosowywania projektu (ale nie poddano ich analizie). Jeden z uczestników został zastąpiony bez dalszych analiz z powodu ważnych artefaktów MRI uniemożliwiających analizę obrazu. Wszyscy uczestnicy wyrazili pisemną zgodę przed uczestnictwem. Uczestnicy zostali poproszeni o nie spożywanie psychostymulantów, narkotyków lub alkoholu przed lub w trakcie okresu eksperymentalnego. Nie zastosowano metod statystycznych do wstępnego określenia wielkości próby, ale wielkość próby zastosowana w tym badaniu (N = 24) jest porównywalna z poprzednimi badaniami fMRI z zastosowaniem RSA.

materiały i procedura eksploracji pamięci

119 zdjęć wybranych z obszaru wojny światowej, wojny totalnej w Muzeum Pamięci w Caen. Każdy pokaz został sfotografowany w Miejscu Pamięci przy użyciu profesjonalnego aparatu cyfrowego i profesjonalnego oświetlenia. Obrazy te zostały następnie dostosowane do kontrastu i oświetlenia, a zewnętrzny kontur został przycięty za pomocą oprogramowania do przetwarzania obrazu.

każdy z uczestników zwiedzał Miejsce Pamięci pod koniec popołudnia, tuż przed zamknięciem drzwi pomnika. Zapewniło to, że inni goście nie będą zakłócać zwiedzania uczestników. Uczestnicy otrzymali najpierw ogólne instrukcje dotyczące eksperymentu, a każdy z nich został wyposażony w mobilny system śledzenia wzroku (Applied Science Laboratory) składający się z okularów i małego urządzenia do przechowywania podłączonego do okularów i przenoszonego jako plecak. Okulary te zostały zamontowane z małą kamerą filmującą wizualną eksplorację uczestnika, która była nagrywana i transmitowana na laptopie Eksperymentatora. Chociaż nie przedstawiamy tych danych dotyczących śledzenia wzroku, które wykraczają poza zakres obecnego artykułu, możemy w ten sposób śledzić eksplorację uczestników bez ich śledzenia, a tym samym zapewnić, że przestrzegają oni poniższych instrukcji.

uczestnicy mieli zbadać ograniczoną przestrzeń miejsca pamięci i otrzymać mapę opisującą układ przestrzenny (patrz Rys. 1a). Przestrzeń ta składała się w sumie z 119 zdjęć, każdy z podpisem pod spodem, i została zorganizowana według 22 stref tematycznych (numery stref są wskazane w kręgach na Rys. 1a). Dwie inne strefy zostały włączone na samym początku i na samym końcu trasy dla efektów recency i primacy. Te strefy wypełniacza były zawsze takie same, a ich zdjęcia nie zostały uwzględnione w późniejszym protokole eksperymentalnym (i były używane tylko do szkolenia i zapoznania się z kolejnym zadaniem przypominania). Te 22 strefy zostały pogrupowane według 6 głównych sektorów (zilustrowanych 6 głównymi kolorami na mapie pamięci na Rys. 1a). Kolejność eksploracji tych głównych sektorów była równoważona przez uczestników. Kolejność eksploracji stref w każdym sektorze była również randomizowana według 6 różnych list eksploracyjnych (do każdej z tych 6 list przydzielono 4 uczestników). Każda strefa rozpoczęła się od tablicy wprowadzającej opisującej zawartość strefy, którą uczestnicy zostali poinstruowani, aby najpierw przeczytać przed zwiedzaniem strefy. Następnie uczestnicy musieli zbadać każdy obraz komponujący strefę. Zrobili to, najpierw czytając podpis pod spodem, a następnie mogli swobodnie odkrywać treść zdjęcia tak długo, jak chcieli, zanim przejdą do następnego zdjęcia, dopóki nie zakończą swojej wycieczki, której średni czas trwania wynosił 76 minut (S.d. = 13.8). Pamiętaj, że podczas tej wycieczki uczestnicy nie byli świadomi, że ich wspomnienia zostaną przetestowane następnego dnia.

Recall task

następnego dnia uczestnicy wykonali zadanie recall, które zostało podzielone na trzy sesje fMRI, każda o długości około 10 minut. Każda sesja prezentowała krótkie zdania odpowiadające krótkim fragmentom opisującym prawdziwe obrazy z II Wojny Światowej, które uczestnicy zgłębiali (czyli zdania docelowe; średnia liczba słów = 7,8, s.d. = 2,4) lub nie zgłębiali (czyli zdania rozpraszające; średnia liczba słów = 7,7, S.d. = 2,1) dzień wcześniej. Łącznie zaprezentowano uczestnikom losowo 119 zdań docelowych i 63 zdań rozpraszających. Wydarzenia historyczne związane ze zdaniami rozpraszającymi zostały dobrane tak, aby pasowały do zdjęć wyświetlanych w Miejscu Pamięci zarówno pod względem treści, jak i względnej proporcji zdjęć na strefę. Kraj, w którym wydarzenie miało miejsce, był również wyświetlany pod każdym zdaniem, podobnie jak rok. Uczestnicy byli świadomi bliskości między zdaniami rozpraszającymi i docelowymi, dlatego byli zachęcani do polegania na ich zdolności do pełnego przypomnienia i wizualizacji powiązanych obrazów, aby wykonać to zadanie. Po wystąpieniu każdego zdania cueing uczestnicy zgłaszali, czy mogą przypomnieć sobie powiązany obraz, naciskając tak prawym palcem wskazującym, czy nie prawym środkowym palcem. Zdania ukazywały się przez 4,5 s na szarym tle. Badania zostały przedstawione w sposób stochastyczny zgodnie z rozkładem Poissona (λ = 4) ze średnim interwałem interstimulusowym 4,2 s (zakres = 1-10 s) z dodatkowymi zdarzeniami zerowymi 25% i zostały rozdzielone przez krzyż fiksacyjny. Dokładność i wydajność zadania wycofania są opisane w dodatkowej Tabeli 2.

zadanie aranżacji obrazu

poza skanerem uczestnicy wykonali zadanie aranżacji obrazu, używane jako pośrednik dla poszczególnych schematów, na 119 obrazach pamiątkowych. Obrazy musiały być umieszczone w obrębie od 1 do 28 okręgów zgodnie z ich historyczną bliskością. To zadanie aranżacji obrazu zostało napisane w Javascript osadzonym w kodzie HTML do nawigacji w Internecie, oferując tym samym dużą elastyczność w realizacji zadania: uczestnicy mogli powiększać lub pomniejszać ruchome tło podobne do Map Google, mogli powiększać zdjęcie, klikając na nie (z podpisem pod Pomnikiem), napisy pomnika pojawiały się na podkładce pod myszką, a uczestnicy mogli wybierać i przenosić wiele zdjęć jednocześnie. Obrazy były początkowo umieszczone w dużym kwadracie nad kręgami. Uczestnicy zostali poinstruowani, aby przejrzeć każde zdjęcie i umieścić je w kręgach poniżej, gdy przechodzili przez każde z nich. Kazano im grupować w tym samym kręgu wszelkie obrazy, które uważali za opisane bliskie lub podobne wydarzenia historyczne. Jeśli poczuli, że zdjęcia opisują różne wydarzenia, zostali poinstruowani, aby umieścić je w różnych kręgach. Uczestnicy mogli korzystać z dowolnej liczby kół, od jednego koła do wszystkich kół dostępnych na mapie. Instrukcje podkreślały, że nie ma absolutnie odpowiedniej liczby okręgów, które można by wykorzystać, i że mogą one postępować zgodnie z ich życzeniem. Uczestnicy zostali również poinstruowani, aby zwracać uwagę na odległości między kręgami i ich względne pozycje. Im bardziej sądzili, że zdjęcia są powiązane ze zdarzeniami połączonymi lub odłączonymi, tym bliżej lub dalej powinny znajdować się ich względne pozycje w kręgach. Wreszcie, po zakończeniu głównego układu dla wszystkich zdjęć, uczestnicy musieli dostosować pozycje zdjęć w każdym okręgu. Euklidesowe odległości między pozycjami obrazu odzwierciedlały wtedy semantyczną organizację danej osoby i mogły być zakodowane w RDM.

parametry akwizycji MRI

dane MRI uzyskano za pomocą skanera 3 T Achieva (Philips) w centrum obrazowania mózgu Cyceron w Caen. Wszyscy uczestnicy po raz pierwszy przeszli obrazowanie anatomiczne objętościowe o wysokiej rozdzielczości z użyciem trójwymiarowej (3D) sekwencji szybkiego ECHA pola (FFE) (3D-T1-FFE sagittal; TR = 20 ms, TE = 4,6 ms, kąt odbicia = 10°, współczynnik zmysłu = 2, 180 plastrów, Grubość plastra = 1 mm, brak szczeliny, pole widzenia = 256 × 256 × 180 mm3, matryca = 256 × 130 × 180). Po tym przejęciu przeprowadzono sesje funkcjonalne, które uzyskano przy użyciu rosnącej sekwencji EPI Gwiazdy T2 (MS-T2-star-FFE-EPI axial; TR = 2050 ms, TE = 30 ms, kąt odwrócenia = 78°, 32 plastry, Grubość plastra = 3 mm, Odstęp 0,75 mm, matryca = 64 × 63 × 32, pole widzenia = 192 × 192 × 119 mm3, 310 objętości na run).

wstępne przetwarzanie MRI

dane analizowano przy użyciu Statystycznego oprogramowania do mapowania parametrycznego (SPM12, Wellcome Department of Imaging Neuroscience). Podczas wstępnego przetwarzania obrazy zostały najpierw przestrzennie wyrównane, aby skorygować ruch, a następnie skorygowano opóźnienie czasowe akwizycji plastra. Po koregistracji z obrazem strukturalnym T1 obrazy funkcjonalne zostały znormalizowane przy użyciu parametrów pochodzących z nieliniowej normalizacji pojedynczych obrazów T1 materii szarej do szablonu T1 Instytutu neurologicznego w Montrealu. Należy jednak pamiętać, że w przypadku RSA wykorzystano obrazy nieuszlifowane i nieuszlifowane. Normalizacja obrazu była jednak potrzebna, aby obliczyć pole deformacji do przodu i jego inwersję, normalizować obrazy reflektorów lub zawinąć z powrotem Roi mPFC do natywnej przestrzeni (patrz poniżej), odpowiednio. Użycie niezmontowanych obrazów jest ważne dla RSA, ponieważ zachowuje drobnoziarnisty wzór przestrzenny, który charakteryzuje geometrię reprezentacyjną regionu.

Analiza pierwszego poziomu

wstępnie przetworzony szereg czasowy, odpowiadający natywnym obrazom przestrzeni (tj. obrazom nieuszkodzonym i nieuszkodzonym), został następnie przefiltrowany wysoko-przebiegowo do 1/128 Hz w każdym wokselu. Regresory w ogólnym modelu liniowym (GLM) dla każdego woksela zostały utworzone przez splątanie funkcji delta (modelowanej jako krótki czas 4,5 s) na początku bodźca dla każdego stanu zainteresowania z kanoniczną funkcją odpowiedzi hemodynamicznej (HRF). Zastosowano oddzielne podejście o najmniejszych kwadratach50, 51, które polegało na oszacowaniu oddzielnego GLM dla każdej próby. W każdym GLM badanie będące przedmiotem zainteresowania było modelowane jako jeden regresor, a wszystkie pozostałe badania zostały podzielone na pięć różnych regresorów odpowiadających przypomnieniu, chybieniu, fałszywym alarmom, odrzuceniu korekcji i warunkom braku odpowiedzi (Patrz dodatkowa Tabela 2 dotycząca wyników behawioralnych w zadaniu wycofania). Podejście to było promowane w przypadku projektów z krótkimi interwałami interstymulusowymi, gdy istnieje wysoki poziom koliniowości między reakcjami hemodynamicznymi na kolejne próby51. Kolejnymi regresorami, które nie były interesujące, były sześć parametrów wyrównania uwzględniających liniowe artefakty ruchu resztkowego. Autokorelację pomiędzy pozostałościami GLM korygowano stosując proces autoregresji pierwszego rzędu, co skutkowało wstępnymi danymi po ograniczonym oszacowaniu maksymalnego prawdopodobieństwa.

regiony zainteresowania

mPFC zostało zdefiniowane anatomicznie przy użyciu automatycznego etykietowania anatomicznego atlas52 i zostało podzielone na Vmpfc i dmPFC ROIs. DmPFC odpowiadało obustronnemu zakrętowi czołowemu przyśrodkowemu z Atlasu automatycznego oznaczania anatomicznego (indeksy 2601 i 2602). Maska vmPFC obejmowała obustronny przedni zakręt przyśrodkowy (indeksy 2611 i 2612), obustronny rectus (indeksy 2701 i 2702) i część brzuszną (współrzędne z niższe lub równe zero) obustronnego przedniego cingulum (indeksy 4001 i 4002). Te dwa Roi są pokazane na Fig. 3b. Te dwa obrazy maski zostały następnie zawinięte z powrotem do natywnej przestrzeni każdego uczestnika za pomocą odwrotności pola deformacji obliczonego podczas procesu normalizacji.

Analiza podobieństwa Reprezentacyjnego

mapy kontrastu poszczególnych wspomnień zostały następnie obliczone dla każdego przywołanego obrazu i użyte do obliczenia RDM w naszym Roi. Dla każdego osobnika i każdego zwrotu z inwestycji, RDM mózgu obliczano w następujący sposób: dla każdego woksela wektor aktywności na przywołanych obrazach był średniośrodkowy i skalowany do odchylenia standardowego (to jest wynik z); następnie, dla każdej pary obrazów, wzorce aktywności w danym ROI porównano za pomocą korelacji przestrzennej, a odmienność została następnie podana przez 1 minus korelacja. Na poziomie behawioralnym poszczególne RDM wywodziły się z odległości euklidesowych pomiędzy wszystkimi możliwymi parami obrazów ułożonych przez uczestników na dwuwymiarowym układzie przestrzennym. Następnie wyodrębniono górne trójkątne formy tych mózgowych lub behawioralnych RDM i porównano z górnymi trójkątnymi formami modeli RDM opisujących Schematy zbiorowe, odległości semantyczne (pochodzące z artykułów z II Wojny Światowej w Wikipedii; patrz poniżej), odległości przestrzenne kontekstowe (odległości Euklidesowe pozycji przestrzennych obrazów) i odległości czasowe (odległości Euklidesowe rzędu czasowego zdjęć podczas eksploracji pamięci). Te porównania między RDM mózgu / behawioralnym i modelowym uzyskano za pomocą modelu regresji. Zarówno regresory, jak i dane były początkowo transformowane w celu badania nieliniowych relacji monotonicznych. Biorąc pod uwagę, że kolektywne, semantyczne (to jest Wikipedia) i kontekstowe (to jest przestrzenne i czasowe) modele RDM nie są ortogonalne i nakładają się w pewnym stopniu, model regresji pomaga wyjaśnić wyjątkową wariancję przypisaną każdemu z predyktorów modelu. Dla każdego uczestnika ten model regresji został powtórzony dla każdego interesującego tematu, a dziesięć powtórzeń modelu tematu i współczynnika regresji modelu zostało uśrednionych w tych iteracjach. Wszystkie Modele regresji były pełnowartościowe, a współczynnik inflacji wariancji był mniejszy niż 1,5 dla każdego regresora, potwierdzając identyfikowalność i skuteczność naszych modeli. Wyniki tych modeli regresji przedstawiono w tekście głównym, ale również wyniki standardowych korelacji Spearmana testowanych osobno, ze względu na kompletność, na Fig. 3c oraz w dodatkowej Tabeli 1 dla badań statystycznych. W analizie wzorców aktywności uwzględniono tylko elementy poprawnie przywołane. Wnioskowania na poziomie grupowym przeprowadzono przy użyciu nieparametrycznych statystyk efektów losowych w celu sprawdzenia zarówno zależności RDM, jak i różnic poprzez bootstrapping zestawu przedmiotów z 5000 iteracjami28. Dla każdego modelu RDM lub każdej pary kontrastowych modeli RDM nie mieliśmy założeń dotyczących podstawowej dystrybucji i przeprowadziliśmy nieparametryczne testy statystyczne z efektami losowymi przy użyciu podejścia bootstrapping. Przeprowadziliśmy średnie porównanie dla każdego zestawu bootstrap i oszacowaliśmy wartość P jako odsetek próbek bootstrap dalej w ogonie niż zero. Oczekiwane proporcje błędów typu I w wielu testach zarówno relacji modelu RDM, jak i porównania modeli były kontrolowane za pomocą korekcji FDR, przy pożądanym FDR q = 0,05 i przy założeniu pozytywnej zależności między warunkami34[,53. W celu przetestowania zależności modelu RDM, oczekiwany FDR został obliczony przy użyciu wszystkich nieskorygowanych jednostajnych wartości p testowanych modeli. Do testu porównywania modeli RDM ograniczyliśmy korektę do naszej głównej hipotezy i uwzględniliśmy tylko porównania z użyciem RDM pamięci zbiorowej (w odniesieniu do innych modeli referencyjnych)w celu obliczenia oczekiwanego FDR, przy użyciu dwuargumentowych wartości P. Raportujemy skorygowane wartości P i używamy iteracji ROZRUCHOWYCH, aby określić 95% percentyla CIs. Pułap hałasu przedstawiony na Rys. 3c odzwierciedla korelację między uczestnikami RDM mózgu. Korelacja ta została obliczona dla każdego uczestnika jako korelacja między RDM mózgu tego uczestnika a średnim RDM mózgu pozostałych uczestników34. Sufit hałasu przedstawiony na Rys. 3c odpowiada średniej tych indywidualnych korelacji.

Analiza Searchlight

siatki istoty białej i pialowych powierzchni kory zostały zrekonstruowane z obrazów ważonych T1 zebranych dla każdego uczestnika za pomocą pakietu oprogramowania Freesurfer w wersji 554,55. Użyliśmy funkcji RSA_DEFINESEARCHLIGHT MATLAB z RSA toolbox34 (https://github.com/rsagroup/rsatoolbox), która również opiera się na funkcjach surfing toolbox 56 (https://github.com/nno/surfing), aby zdefiniować reflektor powierzchniowy dla obu półkul (używając reflektora 40-wokselowego o promieniu 10 mm). Woksele w sąsiedztwie jednego lub kilku węzłów powierzchni wybierane były za pomocą geodezyjnej miary odległości i konstruowania wirtualnych linii łączących odpowiednie węzły na powierzchniach pial i materii białej. Procedura ta wytwarza reflektor po krzywiźnie powierzchni, zmniejszając tym samym odchylenie przestrzenne podczas analizy wzorców fMRI. W przeciwieństwie do dzielnic zdefiniowanych wolumetrycznie, skutkowało to powstaniem dzielnic o zakrzywionym cylindrycznym kształcie, które podążały za konturami sulci i gyri każdego osobnika. Gdy struktura Reflektora dla każdego wierzchołka została skonstruowana i odwzorowana na funkcjonalną przestrzeń obrazu, wzorce przywołanej aktywności na każdym wokselu składającym się na reflektor były wyśrodkowane i skalowane do ich standardowych odchyleń przed obliczeniem struktury odmienności (1 minus korelacja przestrzenna) we wszystkich parach porównań przywołanych wzorców. Górne trójkątne formy tych reflektorów RDM zostały następnie wyodrębnione, przekształcone w rangi i porównane za pomocą modelu regresji do przekształconej w rangi górnej trójkątnej formy wszystkich modeli RDM (kolektywnych, semantycznych i kontekstowych). W wyniku tej analizy reflektorów stworzono mapę beta, objętość, w której każdy woksel zawiera statystykę reflektorów skupioną na tym wokselu. Te mapy beta pierwszego poziomu dla każdego modelu zostały znormalizowane do szablonu T1 Instytutu neurologicznego w Montrealu i wygładzone przy użyciu 10 mm pełnej szerokości przy połowie maksimum jądra Gaussa. Te mapy beta uczestników przestrzeni standardowej zostały poddane nieparametrycznej analizie efektów losowych drugiego poziomu w wersji FSL 5.0.1157. Aby skorygować wielokrotne porównania, mapę beta na poziomie grupy poddano maksymalnemu testowi permutacji przy użyciu bezstopniowego ulepszenia klastra58 (TFCE), co stanowi dobry kompromis między nadmiernie czułym progowaniem opartym na klastrze a zbyt konserwatywną korekcją opartą na wokselach całego mózgu. Aby przetestować relatedness modelu RDM i różnice, mapy TFCE zostały następnie skorygowane (Pcorrected < 0.05) dla poziomu błędu rodziny przy użyciu standardowych testów permutacji zaimplementowanych w FSL z funkcją randomize (10 000 permutacji). Wyniki analizy searchlight przedstawiono w danych rozszerzonych rys. 1.

opis i analiza korpusu pamięci zbiorowej

korpus został zebrany przez projekt MATRICE (http://www.matricememory.fr/?lang=en), multidyscyplinarną i technologiczną platformę, której celem jest dostarczenie narzędzi oraz zaplecza technologicznego i teoretycznego do zrozumienia relacji między pamięcią zbiorową a indywidualną. Klipy audio-wizualne początkowo tworzące korpus przechowywane były w Narodowym Instytucie Audiowizualnym, jednym z głównych partnerów projektu MATRICE oraz w Instytucie publicznym, którego celem jest archiwizacja wszystkich produkcji audiowizualnych emitowanych we francuskiej telewizji lub radiu. Do tego badania włączyliśmy do naszego korpusu wszystkie biuletyny informacyjne i reportaże telewizyjne (nie wliczając programów radiowych ani filmów dokumentalnych) nadawane w latach 1980-2010 z II wojną światową jako wspólnym tematem, prowadząc w sumie do 3766 dokumentów. Skupiamy się na tym konkretnym okresie z trzech powodów. Po pierwsze, lata 1980-2010 w dużej mierze pokrywają się z życiem naszych uczestników. Po drugie, okres ten odpowiada ustanowieniu nowej narracji dla francuskiej pamięci zbiorowej (czyli nowego „Régime of Mémorialité”59). Było to związane z powstaniem i afirmacją pamięci o Shoah, a także z poważnymi procesami uznającymi udział państwa francuskiego i jego mieszkańców oraz ich ówczesnych przedstawicieli (np. Bousqueta, Leguaya, Touviera i Papona) w deportacjach i zabijaniu Żydów. Po trzecie, dzięki postępom w automatycznym rozpoznawaniu mowy i dostępności tekstów elektronicznych, za pomocą których zbudowano współczesne modele językowe do przetwarzania danych zarejestrowanych po 1980 roku, 3766 plików audio zostało przekonwertowanych do formatu XML przy użyciu algorytmów konwersji mowy na tekst opracowanych przez Laboratoire d 'informatique pour la Mécanique et les Sciences de l’ Ingénieur (LIMSI; Engineering Sciences and Computer Science Lab), jednego z głównych partnerów projektu MATRICE.

po konwersji na tekst, nasz korpus został początkowo ręcznie przetworzony, aby odrzucić segmenty niezwiązane z II wojną światową (wyłącznie z sekcjami poświęconymi temu tematowi). Podczas tej operacji automatyczna transkrypcja mowy na tekst została dodatkowo skorygowana przez człowieka. Po tym wstępnym przetworzeniu wyodrębniono oddzielny plik XML dla każdego dokumentu. Pliki te były następnie przetwarzane z metod analizy danych tekstowych przy użyciu oprogramowania txm60 (http://textometrie.ens-lyon.fr/) połączony z TreeTagger morphosyntactic analyser61 (http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/). TXM pozwala użytkownikowi na przypisanie każdej instancji słowa (tj. tokena) do odpowiadającego mu lematu (kanonicznej formy zbioru słów) i przejście do morfosyntaktycznego etykietowania każdego słowa w korpusie. Korpus może być następnie badany za pomocą żądań Corpus Query Language (CQL), aby oznaczyć i pobrać określone kategorie gramatyczne, formy, Lemmy lub wszelkie informacje dołączone do słowa. Lista żądań CQL została najpierw automatycznie wygenerowana dla każdego rzeczownika, czasownika lub przymiotnika lematu w korpusie. Rzadkie Lemmy (mniej niż dziesięć wystąpień), słowa stop i czasowniki pospolite (na przykład „być” i „mieć”) zostały usunięte w procesie i nie zostały uwzględnione w późniejszych analizach. Na przykład, algorytm ten przechodzi przez korpus i wytwarza unikalne zapytanie CQL (na przykład (lemma = „fight”%c)) odpowiadające dowolnej instancji czasownika ” fight „w korpusie (to znaczy” fight”,” fighted „lub”fighting”). Modyfikator % c zawarty w tym żądaniu służy do zneutralizowania przypadku postaci asymilowanych form lematów (czyli „walcz”,” walcz ” lub „walcz”). W ten sposób automatycznie wygenerowano początkową listę około 6500 żądań CQL. Ta lista została ręcznie sprawdzona, aby usunąć żądania CQL wywołane nieprawidłową transkrypcją, czasami grupować pewne żądania pod jedną całość (na przykład, (lemma = „drama” %c)|(lemma = „dramatic”%c)), w razie potrzeby scalić bigramy (na przykład, (lemma = „chief”%C) ()?(lemma = „stan” %c) dla „szefa państwa”) lub dostosować się do różnych form ortograficznych (na przykład (lemma = „Gorbatchev „%C)|(lemma = „Gorbatchov” %c)). Po tym wstępnym sprawdzeniu i dostosowaniu pozostało 6240 zapytań podsumowujących 1 431 790 tokenów tworzących nasz korpus.

wyodrębniono macierz częstotliwości dokumentu lemma x liczącą liczbę wystąpień i poddano analizie LDA wykonanej przy użyciu zestawu narzędzi Machine Learning for LanguagE Toolkit (MALLET; http://mallet.cs.umass.edu/topics.php). Modele tematów26, 29, 30 uważają, że dokumenty są generowane przez mieszaniny tematów. W tym kontekście, temat odpowiada rozkładowi prawdopodobieństwa na wszystkie słowa obecne we wszystkich dokumentach (jak prawdopodobne jest, że dane słowo będzie związane z tematem). Z tej perspektywy dokument można wygenerować, przypisując rozkład prawdopodobieństwa na tematy. Dla każdego przypadku w dokumencie, temat jest wybierany w zależności od jego poprzedniego rozkładu prawdopodobieństwa tematu, a słowo jest pobierane z tego tematu. MALLET wykorzystuje algorytm próbkowania Gibbsa, aby odwrócić ten proces, wnioskując o Zestaw tematów, które były odpowiedzialne za generowanie zbioru dokumentów i ich prawdopodobieństwa nad słowami.

po raz pierwszy wytrenowaliśmy modele tematyczne w biuletynach informacyjnych i raportach z II Wojny Światowej za pomocą silnika tematycznego pociągu młotka (Patrz rozszerzone dane rys. 2 za ilustrację tematów stworzonych tą techniką). Zmieniliśmy dozwoloną liczbę tematów od 2 do 100, w przyrostach co 1, ustawiając parametr alfa na 50 / N tematów, a początkowy parametr beta na 0,1(jak sugerowano w innych pracach modelujących duży korpus tekstów do celów semantycznych62). Dla każdej liczby tematów wykorzystaliśmy 500 iteracji do oszacowania prawdopodobieństwa tematów Worda i dokumentu. Następnie użyliśmy narzędzia MALLET inferencer, aby dopasować model LDA do zdjęć pamiątkowych i oszacować ich prawdopodobieństwo tematu. W tym celu każdy obraz został potraktowany jako nowy dokument i opatrzony słowami kluczowymi (również lemmatized), które zostały bezpośrednio zaczerpnięte z napisów pamięci pod zdjęciami. Do opisania pamiątkowych obrazów użyto łącznie 449 LEMM. Spośród tych lematów 428 znalazło się również na liście 6240 lematów opisujących korpus biuletynów informacyjnych i raportów. Proces wnioskowania tematu doprowadził w ten sposób do macierzy rozkładu prawdopodobieństwa 119 obrazów x n tematów, opisujących prawdopodobieństwo tylnego tematu danego obrazu.

a 119 obraz x 119 obraz RDM został następnie obliczony dla każdej liczby szacowanych tematów za pomocą odległości między rozkładami prawdopodobieństwa tematu dla każdej pary obrazów (w oparciu o odległość cosinusa, która zapewnia symetryczną miarę podobieństwa między dwoma wektorami tematu). Jednak biorąc pod uwagę losowość, którą algorytm próbkowania Gibbsa może wprowadzić podczas estymacji parametrów, powtórzyliśmy cały proces dziesięć razy, prowadząc do powtórzenia 3D 119 obrazu x 119 obrazu x 10 RDM dla każdej liczby szacowanych tematów. Pomiary podobieństwa między RDM mózgu lub behawioralnym a RDM zbiorowym (współczynniki beta modelu regresji lub współczynniki korelacji Spearmana) były uśredniane w tych dziesięciu powtórzeniach modelowania tematu. Podsumowując cały proces, dla określonej liczby tematów: (1) wyszkoliliśmy model tematyczny na biuletynach i raportach francuskiej telewizji; (2) dopasowujemy ten model tematyczny do zdjęć pamięci i ich podpisów, traktując każde zdjęcie jako nowy dokument; (3) matryca tematyczna o wymiarach 119 × N, opisująca prawdopodobieństwo wystąpienia danego tematu na obrazie, została wyodrębniona i przekształcona w RDM o wymiarach 119 × 119; oraz (4) proces ten powtórzono dziesięć razy, a dla każdego numeru tematu obliczono średnie podobieństwo do RDM mózgu lub behawioralnego w tych dziesięciu instancjach.

Walidacja modelu pamięci zbiorowej i wybór numeru tematu

staraliśmy się obliczyć strukturę wspólnych reprezentacji między jednostkami i porównaliśmy takie wspólne Schematy z naszym modelem pamięci zbiorowej. Ta procedura pozwoliłaby nam również samodzielnie wybrać optymalną liczbę tematów do opisania zbiorowej struktury obrazów, która najlepiej odpowiada pamięci współdzielonej. W tym celu 54 native speakerów języka francuskiego (23 mężczyzn, 31 kobiet) w wieku od 20 do 39 lat (średnia = 27,3 lat; S.d. = 5,6) wykonało zadanie aranżacji obrazu. Zadanie to zostało wykonane na dokładnie tych samych 119 pamiątkowych zdjęciach, ale w przeciwieństwie do naszych uczestników MRI, którzy odwiedzili Miejsce Pamięci Dzień wcześniej, ci nowi uczestnicy byli zupełnie obeznani z miejscem pamięci. Z odległości euklidesowych pomiędzy obrazami wyodrębniliśmy 54 pojedyncze RDM. Następnie wykonaliśmy DISTATIS33, aby uchwycić wspólną strukturę reprezentacji między tymi osobami kontrolnymi. DISTATIS idealnie nadaje się do obliczania najlepszego porozumienia lub kompromisu dla wielu macierzy odległości. Implementację DISTATIS w MATLAB można znaleźć pod adresem https://www.utdallas.edu/~herve/, ale w skrócie: (1) każdy z 54 RDM został najpierw przekształcony w macierz cross-product po podwójnym centrowaniu i normalizacji do pierwszej wartości własnej; (2) strukturę podobieństwa cosinusowego wszystkich porównań par 54 znormalizowanych macierzy iloczynu krzyżowego obliczono przy użyciu współczynnika RV; (3) macierz współczynnika RV opisującą relacje między RDMs poddano dekompozycji eigena, a macierz kompromisu odpowiadała sumie znormalizowanych macierzy iloczynu krzyżowego ważonej ich pierwszą wartością własną; (4) dekompozycja eigena wyników współczynnika wytworzonego kompromisem, która opisywała położenie każdego ze 119 obrazów w n-wymiarowej przestrzeni kompromisu; oraz (5) matryca korelacji odległości tych wielowymiarowych przestrzeni kompromisowych odpowiadała wówczas najlepszemu porozumieniu we wszystkich 54 pojedynczych RDM pochodzących z zadania behawioralnego układu obrazów. Ta matryca korelacji odległości może być postrzegana jako wspólny schemat odzwierciedlający wspólną organizację semantyczną między jednostkami. Zbiorowe RDM wydobyte z korpusu biuletynów informacyjnych i raportów telewizyjnych były podobne do struktury pamięci współdzielonej mierzonej przez jednostki kontrolne (rys. 2c). To podobieństwo między pamięcią zbiorową a współdzieloną było uśrednione przez pięć tematów i osiągnęło swoje maksimum, gdy podczas odkrywania tematu uwzględniono od sześciu do dziesięciu tematów. W rezultacie wszystkie późniejsze analizy dotyczące pamięci zbiorowej lub semantycznej zostały przeprowadzone przy użyciu sześciu do dziesięciu tematów (a miary podobieństwa między RDM mózgu lub behawioralnym a RDM kolektywnym lub semantycznym były uśredniane w tej wybranej liczbie tematów).

budowa modelu kontrolnego semantycznej domeny II Wojny Światowej

wykorzystaliśmy artykuły Francuskiej Wikipedii odwołujące się do II wojny światowej jako model porównawczy specyficznych związków semantycznych między słowami związanymi z II wojną światową i wytrenowaliśmy model tematyczny, który następnie dopasowujemy do zdjęć pamięci. Ten korpus (http://redac.univ-tlse2.fr/corpus/wikipedia.html) zawierał 664 982 artykuły edytowane do czerwca 2008 r., wśród których 2 643 artykuły były szczególnie związane z II wojną światową, a wcześniej zostały wyodrębnione z Zrzutu francuskiej wersji artykułów Wikipedii (http://dumps.wikimedia.org/) i przetworzone przy użyciu tego samego narzędzia do znakowania morfosyntaktycznego61 używanego do przetwarzania naszego korpusu francuskich wiadomości telewizyjnych o II wojnie światowej.po zaimportowaniu korpusu do TXM zastosowaliśmy dokładnie tę samą metodę analizy, której wcześniej użyliśmy do skonstruowania modelu pamięci zbiorowej (patrz zbiorcze opis i analiza korpusu pamięci).

podsumowanie sprawozdania

więcej informacji na temat projektu badawczego można znaleźć w podsumowaniu sprawozdania z badań przyrodniczych połączonym z tym artykułem.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Previous post Laurie Money biografia
Next post Olive Branch Municipal Court zmienia harmonogram (zaktualizowany Marzec 19, 2020)