La memoria colectiva da forma a la organización de los recuerdos individuales en la corteza prefrontal medial

Participantes de RMN

Veinticuatro diestros hablantes nativos de francés entre 22 y 39 años (media = 28,6 años; d.c. = 4,4) fueron pagados para participar (11 hombres, 13 mujeres). No tenían antecedentes de trastornos neurológicos, médicos, visuales o de memoria. El estudio fue aprobado por el Comité regional de ética en investigación (Comité de Protection des Personnes Nord-Ouest III, número de patrocinador: C13-46, número de RCB: 2014-A00126-41, clinicaltrial.gov número de registro: NCT02172677). También se contrató inicialmente a otros dos participantes para que establecieran y ajustaran el diseño (pero no se analizaron). Un participante fue reemplazado sin más análisis debido a importantes artefactos de resonancia magnética que impedían el análisis de imágenes. Todos los participantes dieron su consentimiento por escrito antes de participar. Se pidió a los participantes que no consumieran psicoestimulantes, drogas o alcohol antes o durante el período experimental. No se utilizaron métodos estadísticos para predeterminar el tamaño de la muestra, pero el tamaño de la muestra utilizado en este estudio (N = 24) es comparable con el de estudios previos de IRMF utilizando ASR.

Procedimiento de exploración de materiales y Monumentos

Los estímulos fueron 119 imágenes seleccionadas del área Guerra Mundial, Guerra Total en el Museo Memorial de Caen. Cada exhibición fue fotografiada en el Monumento con una cámara digital profesional e iluminación profesional. Estas imágenes se ajustaron para el contraste y la iluminación, y el contorno externo se recortó, utilizando un software de procesamiento de imágenes.

Cada participante exploró el Monumento al final de la tarde, justo antes de que se cerrara la puerta del Monumento. Esto garantizó que otros visitantes no interrumpieran los recorridos de los participantes. Los participantes recibieron primero instrucciones generales sobre el experimento y cada uno de ellos estaba equipado con un sistema móvil de seguimiento ocular (Laboratorio de Ciencias Aplicadas) que consistía en gafas y un pequeño dispositivo de almacenamiento conectado a las gafas y transportado como mochila. Estas gafas se montaron con una pequeña cámara que filmaba la exploración visual del participante, que se grabó y transmitió en la computadora portátil del experimentador. Aunque no presentamos estos datos de seguimiento ocular, que van más allá del alcance del presente documento, pudimos rastrear la exploración de los participantes sin seguirlos, y así asegurarnos de que cumplían con las siguientes instrucciones.

Se les dijo a los participantes que exploraran un espacio restringido del Monumento y se les dio un mapa que describía el diseño espacial (ver Fig. 1a). Este espacio comprendía un total de 119 imágenes, cada una con un pie de foto debajo, y se organizó de acuerdo con 22 zonas temáticas (los números de zona se indican en los círculos de la Fig. 1a). Se incluyeron otras dos zonas al principio y al final de la gira para efectos de actualidad y primacía. Estas zonas de relleno eran siempre las mismas, y sus imágenes no se incluyeron en el protocolo experimental posterior (y solo se usaron para entrenamiento y familiarización con la tarea de recuperación posterior). Estas 22 zonas se agruparon de acuerdo con 6 sectores principales (ilustrados con los 6 colores principales en el mapa Conmemorativo de la Fig. 1a). El orden de exploración de estos sectores principales se compensó entre los participantes. El orden de exploración de las zonas dentro de cada sector también se aleatorizó de acuerdo con 6 listas de exploración diferentes (se asignaron 4 participantes a cada una de estas 6 listas). Cada zona comenzó con un tablero de introducción que describía el contenido de la zona que los participantes debían leer primero antes de explorar la zona. Los participantes tuvieron que explorar cada imagen que componía la zona. Lo hicieron leyendo primero el pie de foto de abajo, y luego fueron libres de explorar el contenido de la imagen todo el tiempo que quisieran antes de pasar a la siguiente imagen hasta que completaron su recorrido, cuya duración promedio fue de 76 minutos (s. d. = 13.8). Tenga en cuenta que durante este recorrido conmemorativo, los participantes no sabían que sus recuerdos se pondrían a prueba al día siguiente.

Tarea de recuperación

Al día siguiente, los participantes realizaron la tarea de recuperación, que se dividió en tres sesiones de resonancia magnética, cada una de aproximadamente 10 minutos de duración. Cada sesión presentó oraciones cortas que correspondían a fragmentos cortos que describían imágenes reales de la Segunda Guerra Mundial que los participantes habían explorado (es decir, oraciones objetivo; recuento promedio de palabras = 7.8, d.s. = 2.4) o que no habían explorado (es decir, oraciones distractoras; recuento promedio de palabras = 7.7, d.s. = 2.1) el día anterior. En total, se presentaron aleatoriamente a los participantes 119 oraciones objetivo y 63 oraciones distractoras. Los eventos históricos asociados con las frases distractoras se seleccionaron para que coincidieran con las imágenes mostradas en el Monumento en términos de contenido y proporción relativa de imágenes por zona. El país en el que tuvo lugar el evento también se mostraba debajo de cada frase, al igual que el año. Los participantes eran conscientes de la proximidad entre las frases distractoras y objetivo y, por lo tanto, se les alentó encarecidamente a confiar en su capacidad para recordar y visualizar completamente las imágenes asociadas para realizar esta tarea. Después del inicio de cada frase de indicación, los participantes informaron si podían o no recordar la imagen asociada presionando sí con su dedo índice derecho o no con su dedo medio derecho. Las frases aparecían para 4.5 s centradas en un fondo gris. Los ensayos se presentaron de forma estocástica de acuerdo con una distribución de Poisson (λ = 4) con un intervalo interstímulo promedio de 4,2 s (rango = 1-10 s) con un 25% de eventos nulos adicionales y se separaron mediante una cruz de fijación. Las precisiones y el rendimiento de la tarea de recuperación se describen en la Tabla complementaria 2.

Tarea de disposición de imágenes

Fuera del escáner, los participantes realizaron una tarea de disposición de imágenes, utilizada como proxy para esquemas individuales, en las 119 imágenes conmemorativas. Las imágenes tenían que colocarse entre 1 y 28 círculos de acuerdo con su proximidad histórica. Esta tarea de disposición de imágenes se escribió en Javascript incrustado en código HTML para la navegación por Internet, lo que ofrece una gran flexibilidad en la ejecución de la tarea: los participantes podían acercarse o alejarse con un fondo en movimiento similar a Google Maps, podían ampliar una imagen haciendo clic en ella (con el pie de foto conmemorativo debajo), los pies de foto conmemorativos aparecían al pasar el ratón, y los participantes podían seleccionar y mover varias imágenes a la vez. Las imágenes se colocaron inicialmente en un gran cuadrado por encima de los círculos. Se instruyó a los participantes para que revisaran cada imagen y las colocaran en los círculos de abajo a medida que pasaban por cada una de ellas. Se les dijo que agruparan en el mismo círculo todas las imágenes que sintieran que describían eventos históricos cercanos o similares. Si sentían que las imágenes describían eventos desconectados, se les instruía que las colocaran en diferentes círculos. Los participantes eran libres de usar tantos círculos como quisieran, desde un solo círculo hasta todos los círculos disponibles en el mapa. Las instrucciones enfatizaban que no había absolutamente ningún número correcto de círculos para ser utilizados, y que eran libres de proceder como desearan. También se instruyó a los participantes a prestar atención a las distancias entre los círculos y sus posiciones relativas. Cuanto más juzgaban que las imágenes estaban vinculadas a eventos conectados o desconectados, más cerca o más lejos deberían estar sus posiciones relativas a través de los círculos. Finalmente, cuando se completó la disposición principal para todas las imágenes, los participantes tuvieron que reajustar las posiciones de las imágenes dentro de cada círculo. Las distancias euclidianas entre las posiciones de la imagen reflejaban la organización semántica de un individuo dado y podían codificarse en un RDM.

Parámetros de adquisición de RMN

Los datos de RMN se obtuvieron en un escáner Achieva de 3 T (Philips) en el centro de imágenes cerebrales Cyceron en Caen. Todos los participantes se sometieron por primera vez a imágenes de volumen anatómico ponderadas en T1 de alta resolución utilizando una secuencia tridimensional (3D) de eco de campo rápido (FFE) (sagital 3D-T1-FFE; TR = 20 ms, TE = 4,6 ms, ángulo de giro = 10°, factor de sentido = 2, 180 cortes, grosor del corte = 1 mm, sin espacio, campo de visión = 256 × 256 × 180 mm3, matriz = 256 × 130 × 180). A esta adquisición le siguieron las sesiones funcionales, que se adquirieron utilizando una secuencia ascendente de EPI T2-estrella (MS-T2-estrella-FFE-EPI axial; TR = 2050 ms, TE = 30 ms, ángulo de giro = 78°, 32 rebanadas, grosor de rebanada = 3 mm, espacio de 0,75 mm, matriz = 64 × 63 × 32, campo de visión = 192 × 192 × 119 mm3, 310 volúmenes por tirada).

Preprocesamiento de IRM

Los datos se analizaron utilizando un software de Mapeo Paramétrico Estadístico (SPM12, Wellcome Department of Imaging Neuroscience). Durante el preprocesamiento, las imágenes primero se realinearon espacialmente para corregir el movimiento y luego se corrigieron para el retraso temporal de adquisición de cortes. Después del corregistro con la imagen estructural T1, las imágenes funcionales se normalizaron utilizando los parámetros derivados de la normalización no lineal de imágenes T1 de materia gris individuales a la plantilla T1 del Instituto Neurológico de Montreal. Tenga en cuenta, sin embargo, que las imágenes no onduladas y no grabadas se utilizaron para el RSA. Sin embargo, la normalización de la imagen era necesaria para calcular el campo de deformación hacia adelante y su inversión, para normalizar las imágenes de reflectores o para envolver los ROI mPFC hacia atrás en el espacio nativo (ver más abajo), respectivamente. El uso de imágenes sin tocar es importante para RSA, ya que preserva el patrón espacial de grano fino que caracteriza la geometría de representación de una región.

Análisis de primer nivel

Las series temporales preprocesadas, correspondientes a imágenes de espacio nativo (es decir, imágenes no deformadas y no enmohecidas), se filtraron de paso alto a 1/128 Hz en cada voxel. Los regresores en un modelo lineal general (GLM) para cada voxel se crearon convolviendo una función delta (modelada como 4,5 s de corta época) al inicio del estímulo para cada condición de interés con una función de respuesta hemodinámica canónica (HRF). Se utilizó un enfoque por separado de mínimos cuadrados50,51, que consistió en estimar un GLM separado para cada ensayo. En cada GLM, el ensayo de interés se modeló como un regresor, y todos los demás ensayos se dividieron en cinco regresores distintos correspondientes a condiciones de recuperación, omisión, falsas alarmas, rechazo de corrección y ausencia de respuesta (véase la Tabla complementaria 2 para el desempeño conductual en la tarea de recuperación). Este enfoque se ha promovido para diseños con intervalos interstímulos cortos, cuando hay un alto nivel de colinealidad entre las respuestas hemodinámicas a ensayos sucesivos 51. Otros regresores sin interés fueron los seis parámetros de realineación para tener en cuenta los artefactos de movimiento residual lineal. La autocorrelación entre los residuos de GLM se corrigió utilizando el proceso autorregresivo de primer orden, lo que resultó en datos blanqueados previamente después de una estimación de máxima verosimilitud restringida.

Regiones de interés

El mPFC se definió anatómicamente utilizando el Etiquetado Anatómico Automatizado atlas52 y se dividió en ROI de vmPFC y dmPFC. El dmPFC correspondió a la circunvolución medial superior frontal bilateral del atlas de Etiquetado Anatómico Automatizado (índices 2601 y 2602). La máscara vmPFC incluía el giro medial frontoorbital bilateral (índices 2611 y 2612), el recto bilateral (índices 2701 y 2702) y la porción ventral (coordenadas Z inferiores o iguales a cero) del cíngulo anterior bilateral (índices 4001 y 4002). Estos dos ROI se muestran en la Fig. 3b. Estas dos imágenes de máscara se envolvieron en el espacio nativo de cada participante utilizando el inverso del campo de deformación calculado durante el proceso de normalización.

Análisis de similitud representacional

A continuación, se calcularon mapas de contraste de memorias individuales para cada imagen recuperada y se utilizaron para calcular los RDM en nuestros ROI. Para cada individuo y para cada ROI, los RDM cerebrales se calcularon de la siguiente manera: para cada voxel, el vector de actividad a través de las imágenes recordadas se centró en la media y se escaló a su desviación estándar (es decir, puntuación z); luego, para cada par de imágenes, los patrones de actividad en un ROI determinado se compararon utilizando correlación espacial, y la disimilitud se dio por 1 menos la correlación. A nivel de comportamiento, los RDM individuales se derivaron de las distancias euclidianas entre todos los pares posibles de imágenes dispuestas por los participantes en el diseño espacial bidimensional. Las formas triangulares superiores de estos RDM cerebrales o conductuales se extrajeron y compararon con las formas triangulares superiores de los modelos RDM que describen esquemas colectivos, distancias semánticas (derivadas de artículos de Wikipedia de la Segunda Guerra Mundial; ver más abajo), distancias espaciales contextuales (distancias euclidianas de las posiciones espaciales de las imágenes) y distancias temporales (distancias euclidianas del orden de rango temporal de las imágenes durante la exploración conmemorativa). Estas comparaciones entre el cerebro / comportamiento y el modelo de EMRD se lograron utilizando un modelo de regresión. Tanto los regresores como los datos se transformaron inicialmente para probar relaciones monótonas no lineales. Dado que los RDM de modelos colectivos, semánticos (es decir, Wikipedia) y contextuales (es decir, espaciales y temporales) no son ortogonales y se superponen en cierta medida, un modelo de regresión ayuda a aclarar la varianza única atribuible a cada uno de los predictores del modelo. Para cada participante, este modelo de regresión se reiteró para cada tema de interés, y las diez repeticiones del modelo de tema y el coeficiente de regresión del modelo se promediaron a lo largo de estas iteraciones. Todos los modelos de regresión fueron de rango completo y el factor de inflación de varianza fue inferior a 1,5 para cada regresor, lo que confirma la identificabilidad y eficiencia de nuestros modelos. Los resultados de estos modelos de regresión se reportan en el texto principal, pero también se reportan los resultados de las correlaciones estándar de Spearman probadas aisladamente, en aras de la integridad, en la Fig. 3c y en el Cuadro complementario 1 para las pruebas estadísticas. En el análisis de los patrones de actividad solo se incluyeron los elementos que se recuperaron correctamente. Las inferencias a nivel de grupo se llevaron a cabo utilizando estadísticas de efectos aleatorios no paramétricos para probar tanto la relación con RDM como las diferencias mediante el arranque del conjunto de sujetos con 5.000 iteraciones28. Para cada modelo RDM o cada par de modelos RDM contrastados, no teníamos suposiciones sobre la distribución subyacente y realizamos pruebas estadísticas de efectos aleatorios no paramétricos utilizando un enfoque de arranque. Realizamos una comparación de medias en cada conjunto de bootstrap y estimamos el valor de P como la proporción de muestras de bootstrap más en las colas que cero. Las proporciones esperadas de errores de tipo I a través de múltiples pruebas de correlación de modelos RDM y comparación de modelos se controlaron utilizando la corrección FDR, con un FDR deseado q = 0,05 y asumiendo una dependencia positiva entre condiciones34[,53. Para la prueba de la relación del modelo RDM, el FDR esperado se calculó utilizando todos los valores de P de una cola no corregidos de los modelos probados. Para la prueba de comparación de modelos RDM, restringimos la corrección a nuestra hipótesis principal y solo incluimos comparaciones que involucran la memoria colectiva RDM (con respecto a otros modelos de referencia) para calcular el FDR esperado, utilizando valores de P de dos colas. Reportamos valores de P ajustados y usamos iteraciones de arranque para determinar el CIs del percentil del 95%. El techo de ruido reportado en la Fig. 3c refleja la correlación entre los participantes de los RDMs cerebrales. Esta correlación se calculó para cada participante como la correlación entre el RDM cerebral de ese participante y el RDM cerebral promedio de los participantes permanentes34. El techo de ruido representado en la Fig. 3c corresponde al promedio de estas correlaciones individuales.

Análisis de reflectores

Las mallas de la materia blanca y las superficies piales de la corteza se reconstruyeron a partir de imágenes ponderadas en T1 recolectadas para cada participante utilizando el paquete de software Freesurfer versión 554,55. Utilizamos la función rsa_defineSearchlight MATLAB de RSA toolbox34 (https://github.com/rsagroup/rsatoolbox), que también se basa en las funciones de la caja de herramientas de navegación 56 (https://github.com/nno/surfing), para definir un reflector basado en superficie para ambos hemisferios (utilizando un reflector de 40 vóxeles con un radio de 10 mm). Se seleccionaron vóxeles en la vecindad de uno o más nodos de la superficie utilizando una medida de distancia geodésica y construyendo líneas virtuales que conectaban los nodos correspondientes en las superficies pial y de materia blanca. Este procedimiento produce un reflector que sigue la curvatura de la superficie, reduciendo así el sesgo espacial durante el análisis de los patrones de IRMF. En contraste con los barrios definidos volumétricamente, esto dio lugar a barrios con una forma cilíndrica curva que seguía los contornos de los surcos y giros de cada individuo. Una vez que se construyó la estructura del reflector para cada vértice y se asignó al espacio de imagen funcional, los patrones de actividad recordada en cada voxel que componía el reflector se centraron en la media y se escalaron a sus desviaciones estándar antes de calcular la estructura de disimilitud (1 menos la correlación espacial) en todas las comparaciones de pares de patrones recordados. Las formas triangulares superiores de estos RDM de reflectores se extrajeron, transformaron por rango y compararon utilizando un modelo de regresión con la forma triangular superior transformada por rango de todos los modelos RDM (colectivos, semánticos y contextuales). El resultado de este análisis de reflector creó un mapa beta, un volumen en el que cada voxel contiene una estadística para el reflector centrado en ese voxel. Estos mapas beta de primer nivel para cada modelo se normalizaron a la plantilla T1 del Instituto Neurológico de Montreal y se suavizaron utilizando un núcleo gaussiano de 10 mm de ancho completo a la mitad del máximo. Estos mapas beta de participantes del espacio estándar se sometieron a un análisis de efectos aleatorios no paramétricos de segundo nivel en la versión 5.0.1157 de FSL. Para corregir comparaciones múltiples, el mapa beta a nivel de grupo se sometió a pruebas de permutación máxima utilizando la mejora de clústeres sin umbral 58 (TFCE), que ofrece un buen compromiso entre el umbral basado en clústeres excesivamente sensible y la corrección basada en vóxeles de cerebro completo demasiado conservadora. Para probar la relación y las diferencias del modelo RDM, se corrigieron los mapas TFCE (Pcorrected < 0,05) para la tasa de error familiar utilizando pruebas de permutación estándar implementadas en FSL con la función randomize (10.000 permutaciones). Los resultados del análisis del reflector se presentan en Datos extendidos Fig. 1.

Descripción y análisis del corpus de memoria colectiva

El corpus fue recogido por el proyecto MATRICE (http://www.matricememory.fr/?lang=en), una plataforma multidisciplinar y tecnológica, cuyo objetivo es proporcionar herramientas y antecedentes tecnológicos y teóricos para comprender la relación entre la memoria colectiva y la individual. Los clips audiovisuales que componían inicialmente el corpus se almacenaron en el Instituto Nacional del Audiovisual, uno de los principales socios del proyecto MATRICE y un instituto público cuyo objetivo es archivar todas las producciones audiovisuales transmitidas por la televisión o la radio francesas. Para este estudio, incluimos en nuestro corpus todos los boletines de noticias e informes de televisión (sin incluir programas de radio ni documentales) emitidos desde 1980 hasta 2010 con la Segunda Guerra Mundial como tema común, lo que llevó a un total de 3.766 documentos. Nos centramos en este período de tiempo en particular por tres razones. En primer lugar, de 1980 a 2010 se superpone en gran medida con la vida de nuestros participantes. En segundo lugar, este período corresponde al establecimiento de una nueva narrativa para la memoria colectiva francesa (es decir, un nuevo «Régimen de Memoria»59). Esto incluyó el surgimiento y la afirmación de la memoria de la Shoah, así como importantes juicios que reconocían la participación del Estado francés y su pueblo, y sus representantes en ese momento (por ejemplo, Bousquet, Leguay, Touvier y Papon), en la deportación y el asesinato de judíos. En tercer lugar, gracias a los avances en el reconocimiento automático de voz y la disponibilidad de textos electrónicos con los que se construyeron modelos de lenguaje contemporáneos para procesar datos registrados después de 1980, los 3.766 archivos de audio se convirtieron a formato XML mediante algoritmos de conversión de voz a texto desarrollados por el Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI), uno de los principales socios del proyecto MATRICE.

Una vez convertido a texto, nuestro corpus se procesaba inicialmente manualmente para descartar segmentos no relacionados con la Segunda Guerra Mundial (manteniendo exclusivamente secciones dedicadas a este tema). Durante esta operación, las transcripciones automáticas de voz a texto fueron corregidas adicionalmente por un lector humano. Después de este preprocesamiento inicial, se extrajo un archivo XML separado para cada documento. Estos archivos se procesaron con metodologías de análisis de datos textuales utilizando el software TXM60 (http://textometrie.ens-lyon.fr/) conectado con el analizador morfosintáctico treetagger61 (http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/). TXM permite al usuario anotar cada instancia de una palabra (es decir, token) a su lema correspondiente (la forma canónica de un conjunto de palabras) y proceder a un etiquetado morfosintáctico de cada palabra en un corpus. El corpus se puede explorar mediante solicitudes de Lenguaje de Consulta de Corpus (CQL) para etiquetar y recuperar categorías gramaticales específicas, formularios, lemas o cualquier información adjunta a la palabra. Primero se generó automáticamente una lista de solicitudes CQL para cada sustantivo, verbo o lema adjetivo en el corpus. Los lemas raros (menos de diez ocurrencias), las palabras stop y los verbos comunes (por ejemplo, «be» y «have») se eliminaron en el proceso y no se incluyeron en los análisis posteriores. Por ejemplo, este algoritmo pasaría por el corpus y produciría una consulta CQL única (por ejemplo, (lemma = «luchar»%c)) correspondiente a cualquier instancia del verbo «luchar» en el corpus (es decir, «luchar», «luchar» o «luchar»). El modificador % c incorporado en esta solicitud se usa para neutralizar el caso de caracteres de formas de lema asimiladas (es decir, «luchar», «Luchar» o «LUCHAR»). De esta manera se generó automáticamente una lista inicial de aproximadamente 6.500 solicitudes CQL. Esta lista se comprobó manualmente para eliminar solicitudes CQL producidas por transcripción incorrecta, para agrupar ocasionalmente ciertas solicitudes bajo una sola entidad (por ejemplo, (lemma = «drama»%c)|(lemma = «dramático»%c)), para fusionar bigramas cuando sea apropiado (por ejemplo, (lemma = «jefe»%c) ()?(lema = «estado»%c) por «jefe de estado») o para ajustar a diferentes ortográfica formas (por ejemplo, el lema = «Gorbatchev»%c)|lema = «Gorbatchov»%c)). Después de esta comprobación y ajuste iniciales, quedaron un total de 6.240 solicitudes para resumir los 1.431.790 tokens que componen nuestro corpus.

Se extrajo una matriz de frecuencia de documento lemma x que cuenta el número de ocurrencias y se sometió a un análisis de LDA realizado utilizando el kit de herramientas Machine Learning for LanguagE (MALLET; http://mallet.cs.umass.edu/topics.php). Modelos de temáticos26, 29, 30 consideran que los documentos se generan mediante mezclas de temas. En este contexto, un tema corresponde a la distribución de probabilidades entre todas las palabras presentes en todos los documentos (la probabilidad de que una palabra determinada se asocie con un tema). Desde esta perspectiva, se puede generar un documento asignando una distribución de probabilidad sobre temas. Para cada instancia de un documento, se elige un tema en función de su distribución de probabilidad de tema anterior, y se extrae una palabra de ese tema. MALLET utiliza el algoritmo de muestreo de Gibbs para invertir este proceso, inferiendo el conjunto de temas que fueron responsables de generar una colección de documentos y sus probabilidades sobre las palabras.

Primero entrenamos modelos de temas en el corpus de boletines de noticias e informes de la Segunda Guerra Mundial utilizando el motor de temas de tren de MAZO (consulte Datos extendidos Fig. 2 para una ilustración de los temas creados con esta técnica). Variamos el número de temas permitidos de 2 a 100, en incrementos de 1, estableciendo el parámetro alfa en 50/N temas y el parámetro beta inicial en 0,1 (como se sugiere en otros trabajos que modelan un gran corpus de textos con fines semánticos62). Para cada número de temas, utilizamos 500 iteraciones para estimar las probabilidades de tema de word y documento. Luego utilizamos la herramienta de inferenciador de mazo para ajustar el modelo LDA a las imágenes conmemorativas y estimar sus probabilidades de tema. Para ello, cada imagen se trataba como un nuevo documento y se etiquetaba con palabras clave (también lematizadas), que se derivaban directamente de los subtítulos conmemorativos debajo de las imágenes. Se utilizó un total de 449 lemas para describir las imágenes conmemorativas. De estos lemas, también se encontraron 428 en la lista de 6.240 lemas que describen el corpus de boletines de noticias e informes. El proceso inferencial del tema condujo a una matriz de distribución de probabilidad de 119 imágenes x N temas, describiendo la probabilidad posterior de un tema dado a una imagen.

Se calculó un RDM de imagen 119 x 119 para cada número de temas estimados utilizando las distancias entre las distribuciones de probabilidades de temas para cada par de imágenes (basado aquí en la distancia del coseno, que proporciona una medida simétrica de la similitud entre dos vectores de temas). Sin embargo, dada la aleatoriedad que el algoritmo de muestreo de Gibbs puede introducir durante la estimación de parámetros, reiteramos todo el proceso diez veces, lo que conduce a una imagen 3D de 119 x 119 imágenes x 10 repeticiones RDM para cada número de temas estimados. Las mediciones de la similitud entre los MCD cerebrales o conductuales y los MCD colectivos (coeficientes beta del modelo de regresión o coeficientes de correlación de Spearman) se promediaron a través de esas diez repeticiones de modelado temático. Para resumir todo el proceso, para un número determinado de temas: (1) capacitamos un modelo de tema en el corpus de boletines de noticias e informes de la televisión francesa; (2) ajustamos este modelo de tema a las imágenes conmemorativas y sus subtítulos, tratando cada imagen como un nuevo documento; (3) se extrajo una matriz de tema de 119 imágenes x N, que describe la probabilidad posterior de un tema dado a una imagen, y se transformó en un RDM de 119 × 119; y (4) este proceso se reiteró diez veces, y para cada número de tema, se calculó la similitud promedio con el RDM cerebral o conductual en esas diez instancias.

Validación del modelo de memoria colectiva y selección del número de tema

Buscamos cuantificar la estructura de las representaciones compartidas entre individuos y comparar dichos esquemas compartidos con nuestro modelo de memoria colectiva. Este procedimiento también nos permitiría seleccionar de forma independiente un número óptimo de temas para describir la estructura colectiva de imágenes que mejor se corresponde con la memoria compartida. Con este fin, 54 hablantes nativos de francés (23 hombres y 31 mujeres) de entre 20 y 39 años de edad (media = 27,3 años; d.s. = 5,6) realizaron la tarea de disposición de imágenes. Esta tarea se realizó en las mismas 119 imágenes conmemorativas, pero a diferencia de nuestros participantes de la resonancia magnética, que habían visitado el Monumento el día anterior, estos nuevos participantes no estaban completamente familiarizados con el Monumento. Derivamos 54 RDM individuales de las distancias euclidianas entre las imágenes. Luego realizamos DISTATIS33 para capturar la estructura compartida de las representaciones entre los individuos de control. DISTATIS es ideal para calcular el mejor acuerdo o compromiso a través de múltiples matrices de distancia. La implementación en MATLAB de DISTATIS se puede encontrar en https://www.utdallas.edu/~herve/, pero en resumen: (1) cada uno de los 54 RDMs se transformó primero en una matriz de productos cruzados después de un doble centrado y normalización a su primer valor propio; (2) la estructura de similitud de cosenos de todas las comparaciones en pares de las 54 matrices de productos cruzados normalizadas se calculó utilizando el coeficiente de RV; (3) la matriz de coeficientes de RV que describe las relaciones entre RDMs se sometió a descomposición propia, y la matriz de compromiso correspondió a la suma de las matrices de productos cruzados normalizadas ponderadas por su primer valor propio; (4) la descomposición propia de los puntajes de factores producidos por compromiso, que describieron la posición de cada una de las 119 imágenes en un espacio de compromiso N-dimensional; y (5) la matriz de correlación de distancias de estos espacios de compromiso multidimensionales correspondió entonces al mejor acuerdo entre los 54 RDM individuales derivados de la tarea de disposición de imágenes conductuales. Esta matriz de correlación de distancias se puede ver como un esquema compartido que refleja la organización semántica común entre los individuos. Los RDM colectivos extraídos del corpus de boletines informativos y reportajes de televisión fueron similares a la estructura de memoria compartida medida entre los individuos de control (Fig. 2c). Esta similitud entre la memoria colectiva y compartida se promedió con contenedores de cinco temas, y alcanzó su máximo cuando se incluyeron de seis a diez temas durante el descubrimiento de temas. Como resultado, todos los análisis posteriores que involucraron memoria colectiva o semántica se realizaron utilizando de seis a diez temas (y las medidas de similitud entre los RDM cerebrales o conductuales y los RDM colectivos o semánticos se promediaron dentro de este número seleccionado de temas).

Construcción de un modelo de control del dominio semántico de la Segunda Guerra Mundial

Utilizamos artículos de Wikipedia en francés que se referían a la Segunda Guerra Mundial como modelo de referencia de las relaciones semánticas específicas entre palabras relacionadas con la Segunda Guerra Mundial, y entrenamos un modelo temático que luego encajamos en las imágenes conmemorativas. Este corpus (http://redac.univ-tlse2.fr/corpus/wikipedia.html) incluía 664.982 artículos editados hasta junio de 2008, de los cuales 2.643 artículos estaban específicamente relacionados con la Segunda Guerra Mundial, y se habían extraído previamente de la versión francesa de descarga de artículos de Wikipedia (http://dumps.wikimedia.org/) y procesado utilizando la misma herramienta de etiquetado morfosintático61 utilizada para procesar nuestro corpus de noticias de televisión francesas sobre la Segunda Guerra Mundial. Una vez importado el corpus en TXM, aplicamos exactamente el mismo método de análisis que utilizamos anteriormente para construir el modelo de memoria colectiva (ver Corpus de memoria colectiva descripción y análisis).

Resumen de informes

Más información sobre el diseño de la investigación está disponible en el Resumen de Informes de Investigación de la Naturaleza vinculado a este artículo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Previous post Biografía de Laurie Money
Next post Cambios en el Horario del Tribunal Municipal de Rama de Olivo (Actualizado en marzo 19, 2020)