ressonância magnética participantes
Vinte e quatro destros falantes nativos de francês, entre 22 e 39 anos (média de idade = 28.6 anos; s.d. = 4.4) foram pagos para participar (11 machos e 13 fêmeas). Não relataram antecedentes de distúrbios neurológicos, médicos, visuais ou de memória. O estudo foi aprovado pelo Comité de Ética da investigação regional (Comité de protecção das pessoas Nord-Ouest III, patrocinador ID: C13-46, RCB ID: 2014-A00126-41, clinicaltrial.gov de Registo: NCT02172677). Dois outros participantes foram também recrutados inicialmente para a definição e ajustamento do projecto (mas não analisados). Um participante foi substituído sem mais análises devido a importantes artefatos de ressonância magnética impedindo a análise de imagem. Todos os participantes deram consentimento por escrito antes de participar. Os participantes foram convidados a não consumir psicoestimulantes, drogas ou álcool antes ou durante o período experimental. Não foram utilizados métodos estatísticos para predeterminar o tamanho da amostra, mas o tamanho da amostra utilizado neste estudo (N = 24) é comparável ao dos anteriores estudos fMRI utilizando RSA.
materiais e procedimentos de exploração Memorial
os estímulos foram 119 imagens selecionadas da Guerra Mundial da área, guerra Total no Museu Memorial de Caen. Cada exibição foi fotografada no Memorial usando uma câmera digital profissional e iluminação profissional. Estas imagens foram então ajustadas para contraste e iluminação, e o contorno externo foi cortado, usando software de processamento de imagem.
cada participante explorou o Memorial no final da tarde, pouco antes da porta do Memorial fechar. Isto assegurou que outros visitantes não interromperiam os passeios dos participantes. Os participantes receberam instruções gerais sobre o experimento e foram equipados com um sistema móvel de rastreamento de olhos (Applied Science Laboratory) consistindo de óculos e um pequeno dispositivo de armazenamento conectado aos óculos e transportado como uma mochila. Estes óculos foram montados com uma pequena câmera filmando a exploração visual do participante, que foi gravada e transmitida no laptop do experimentador. Embora não apresentemos esses dados de rastreamento de olhos, que vão além do escopo do papel atual, poderíamos, assim, rastrear a exploração dos participantes sem segui-los, e assim garantir que eles estavam cumprindo as seguintes instruções.
os participantes foram instruídos a explorar um espaço restrito do Memorial e receberam um mapa descrevendo o layout espacial (ver Fig. 1a). Este espaço era composto por um total de 119 imagens, cada uma com uma legenda por baixo, e foi organizado de acordo com 22 zonas temáticas (números de zona são indicados nos círculos em Fig. 1a). Duas outras zonas foram incluídas no início e no final da turnê por efeitos de recência e primado. Estas zonas de enchimento foram sempre as mesmas, e as suas imagens não foram incluídas no protocolo experimental subsequente (e foram utilizadas apenas para formação e familiarização com a subsequente tarefa de recolha). Estas 22 zonas foram agrupadas de acordo com 6 sectores principais (ilustrados com as 6 cores principais no mapa Memorial da Fig. 1a). A ordem de exploração destes principais sectores foi contrabalançada entre os participantes. A ordem de exploração das zonas dentro de cada setor também foi aleatória de acordo com 6 diferentes listas de exploração (4 participantes foram atribuídos a cada uma dessas 6 listas). Cada zona começou com uma placa de introdução descrevendo o conteúdo da zona que os participantes foram instruídos a ler primeiro antes de explorar a zona. Os participantes então tiveram que explorar cada imagem que compunha a zona. Eles fizeram isso pela primeira leitura da legenda abaixo, e então estavam livres para explorar o conteúdo da imagem, desde que desejassem antes de passar para a próxima imagem até que eles completassem sua turnê, cuja duração média era de 76 minutos (s. d. = 13.8). Note que durante esta turnê Memorial, os participantes não sabiam que suas memórias seriam testadas no dia seguinte.
Recall task
the next day, participants performed the recall task, which was divided into three fMRI sessions, each about 10 min in length. Cada sessão apresentada frases curtas, correspondentes a trechos curtos que descrevem real II Guerra Mundial, as imagens que os participantes tinham explorado (isto é, frases alvo; a média de contagem de palavras = 7.8, s.d. = 2.4), ou não tenha explorado (que é, para confundir frases; a média de contagem de palavras = 7.7, s.d. = 2.1) dia antes. No total, 119 sentenças alvo e 63 sentenças de distractor foram apresentadas aleatoriamente aos participantes. Eventos históricos associados com as sentenças do distractor foram selecionados para coincidir com as imagens exibidas no Memorial em termos de Conteúdo e proporção relativa de imagens por zona. O país em que o evento ocorreu também foi exibido sob cada frase, como foi o ano. Os participantes estavam cientes da proximidade entre o distractor e as frases alvo e, portanto, foram fortemente encorajados a confiar na sua capacidade de recordar e visualizar as imagens associadas para realizar esta tarefa. Após o início de cada frase de cueing, os participantes relataram se poderiam ou não recordar a imagem associada pressionando sim com seu dedo indicador direito ou não com seu dedo médio direito. As frases apareceram por 4,5 s centradas em um fundo cinza. Os ensaios foram apresentados de forma estocástica de acordo com uma distribuição de Poisson (λ = 4) com um intervalo interstímulo médio de 4, 2 s (intervalo = 1-10 s) com eventos nulos adicionais de 25% e foram separados por uma cruz de fixação. As precisões e os desempenhos na tarefa de recolha são descritos no quadro complementar 2.
Image arrangement task
Outside the scanner, participants performed an image arrangement task, used as a proxy for individual schemas, on the 119 Memorial pictures. As imagens tiveram que ser posicionadas dentro de 1 a 28 círculos de acordo com sua proximidade histórica. Esta tarefa de arranjo de imagens foi escrita em Javascript incorporado no código HTML para navegação na internet, oferecendo assim grande flexibilidade na execução da tarefa: os participantes poderiam ampliar ou reduzir com um fundo em movimento semelhante ao Google Maps, eles poderiam ampliar uma imagem clicando nela (com o Título Memorial embaixo), as legendas Memorial apareceram no mouseover, e os participantes poderiam selecionar e mover várias imagens de uma vez. As imagens foram inicialmente colocadas em um grande quadrado acima dos círculos. Os participantes foram instruídos a rever cada imagem e a colocá-los nos círculos abaixo como eles passaram por cada um deles. Foi-lhes dito para agrupar no mesmo círculo quaisquer imagens que se sentissem descritas perto ou eventos históricos semelhantes. Se eles sentiam as imagens descritas eventos desconectados, eles foram instruídos a colocá-los em diferentes círculos. Os participantes eram livres de usar quantos círculos quisessem, de um único círculo a todos os círculos disponíveis no mapa. As instruções enfatizavam que não havia absolutamente nenhum número correto de círculos a serem usados, e que eles eram livres para proceder como eles desejavam. Os participantes também foram instruídos a prestar atenção às distâncias entre os círculos e suas posições relativas. Quanto mais eles julgavam que as imagens estavam ligadas a eventos conectados ou desconectados, mais perto ou mais longe suas posições relativas nos círculos deveriam estar. Finalmente, quando o arranjo principal foi concluído para todas as fotos, os participantes tiveram que reajustar as posições das fotos dentro de cada círculo. As distâncias euclidianas entre as posições da imagem refletiam então a organização semântica de um determinado indivíduo e poderiam ser codificadas em um RDM.Os parâmetros de aquisição de IRM
parâmetros de aquisição de IRM
dados de IRM foram adquiridos num scanner de 3 T Achieva (Philips) no centro de imagiologia cerebral Cyceron em Caen. Todos os participantes passaram pela primeira vez por imagens de volume anatômico ponderadas em alta resolução T1 usando uma sequência de eco de campo rápido tridimensional (3D) (3D-T1-FFE sagittal; TR = 20 ms, TE = 4.6 ms, flip angle = 10°, SENSE factor = 2, 180 fatias, espessura de corte = 1 mm, No gap, campo de visão = 256 × 256 × 180 mm3, matrix = 256 × 130 × 180). Esta aquisição foi seguido pelos funcionais sessões, que foram adquiridos usando uma crescente T2-estrelas EPI sequência (MS-T2-estrela-FFE-EPI axial; TR = 2050 ms, TE = 30 ms, flip angle = 78°, 32 fatias, a espessura do corte = 3 mm 0,75 mm gap, matriz = 64 × 63 × 32, o campo de visão = 192 × 192 × 119 mm3, 310 volumes por executar).
pré-processamento de IRM
foram analisados dados utilizando software de mapeamento paramétrico estatístico (SPM12, Wellcome Department of Imaging Neuroscience). Durante o pré-processamento, as imagens foram primeiro realinhadas espacialmente para corrigir o movimento e, em seguida, corrigidas para o atraso temporal de aquisição da fatia. Após a co-administração com a imagem estrutural T1, as imagens funcionais foram então normalizadas usando os parâmetros derivados da normalização não linear de imagens de matéria cinzenta individuais T1 para o modelo T1 do Instituto Neurológico de Montreal. Note, no entanto, que imagens unwarped e unsoothed foram usadas para o RSA. A normalização da imagem foi, no entanto, necessária para calcular o campo de deformação para a frente e sua inversão, para normalizar imagens de searchlight ou wrap back mPFC ROIs para o espaço nativo (ver abaixo), respectivamente. O uso de imagens não descobertas é importante para a RSA, pois preserva o padrão espacial fino que caracteriza a geometria representativa de uma região.
Análise de primeiro nível
a série cronológica pré-processada, correspondente a imagens espaciais nativas (isto é, imagens não deformadas e não desbotadas), foram então filtradas para 1/128 Hz em cada voxel. Regressores em um modelo linear geral (GLM) para cada voxel foram criados por convolução de uma função delta (modelada como 4.5 s de curta época) no início do estímulo para cada condição de interesse com uma função de resposta hemodinâmica canônica (HRF). Uma abordagem separada dos mínimos quadrados foi used50, 51, que consistiu em estimar um GLM separado para cada ensaio. Em cada GLM, o teste de interesse foi modelado como um regressor, e todos os outros ensaios foram colapsados em cinco regressores distintos, correspondendo a recall, miss, falsos alarmes, rejeição de correção e sem condições de resposta (ver tabela suplementar 2 para performances comportamentais na tarefa de recall). Esta abordagem tem sido promovida para projetos com intervalos interstímulos curtos, quando há um alto nível de colinearidade entre as respostas hemodinâmicas aos trials51 sucessivos. Outros regressores de nenhum interesse foram os seis parâmetros de realinhamento para explicar os artefatos de movimento residual lineares. A autocorrelação entre os resíduos de GLM foi corrigida usando o processo autorregressivo de primeira ordem, resultando em dados pré-corrigidos após estimativa de probabilidade máxima restrita.
Regions of interest
the mPFC was defined anatomically using the automatic Anatomical Labeling atlas52 and was split into vmPFC and dmPFC ROIs. O dmpfc correspondia ao giro medial superior bilateral do Atlas automatizado de rotulagem anatômica (índices 2601 e 2602). A máscara vmpfc incluía o giro medial fronto-orbital bilateral (índices 2611 e 2612), o rectus bilateral (índices 2701 e 2702) e a porção ventral (coordenadas Z inferiores ou iguais a zero) do cínculo anterior bilateral (índices 4001 e 4002). Estes dois Ris são apresentados na Fig. 3b. Estas duas imagens da máscara foram então envolvidas de volta para o espaço nativo de cada participante usando o inverso do campo de deformação calculado durante o processo de normalização.
Representational similarity analysis
Contrast maps of individual memories were then computed for each recalled picture and used to compute RDMs in our ROIs. Para cada indivíduo e cada ROI, os RDMs cerebrais foram calculados da seguinte forma: para cada voxel, o vector de actividade através das imagens recordadas era centrado na média e dimensionado para o seu desvio-padrão (isto é, pontuação z); então, para cada par de imagens, os padrões de atividade em um dado ROI foram comparados usando correlação espacial, e a diferença foi então dada por 1 menos a correlação. A nível comportamental, os RDM individuais foram derivados das distâncias euclidianas entre todos os pares possíveis de imagens organizadas pelos participantes no esquema espacial bidimensional. O superior triangular formas de cérebro ou comportamentais RDMs, em seguida, foram extraídos e comparados com o superior triangular formas de RDM modelos que descrevem coletiva esquemas, semântica distâncias (derivado da Wikipédia II Guerra Mundial artigos; veja abaixo), contexto espacial da distância Euclidiana distâncias das imagens espaciais posições) e temporal da distância Euclidiana distâncias das imagens’ temporal da ordem de classificação, durante o Memorial de exploração). Estas comparações entre o cérebro/comportamental e o modelo RDMs foram realizadas utilizando um modelo de regressão. Tanto os regressores quanto os dados foram inicialmente transformados para testar relações monotônicas não lineares. Dado que o modelo coletivo, semântico (isto é, Wikipédia) e contextual (isto é, espacial e temporal) RDMs não são ortogonais e sobrepõem-se em certa medida, um modelo de regressão ajuda a clarificar a variância única atribuível a cada um dos predictores do modelo. Para cada participante, este modelo de regressão foi reiterado para cada tópico de interesse, e as dez repetições do modelo tópico e coeficiente de regressão modelo foram calculadas em média ao longo destas iterações. Todos os modelos de regressão foram completos, e o Fator de inflação da variância foi inferior a 1,5 para cada regressor, confirmando a identificabilidade e eficiência de nossos modelos. Os resultados destes modelos de regressão são relatados no texto principal, mas também relatamos os resultados das correlações padrão de Spearman testadas isoladamente, por uma questão de Completude, na Fig. 3c e no quadro Complementar 1 para os ensaios estatísticos. Na análise dos padrões de actividade foram incluídos apenas os elementos correctamente recolhidos. Inferências de nível de grupo foram realizadas usando estatísticas de efeitos aleatórios não paramétricos para testar tanto a relação RDM e diferenças, inicializando o conjunto de assuntos com 5.000 iterações28. Para cada modelo RDM ou cada par de modelos RDMS contrastados, não tínhamos suposições sobre a distribuição subjacente e realizávamos testes estatísticos de efeitos aleatórios não paramétricos usando uma abordagem de inicialização. Nós realizamos uma comparação média em cada conjunto de bootstrap e estimamos o valor P Como a proporção de amostras de bootstrap mais nas caudas do que zero. As proporções esperadas de erros de tipo I em vários testes de relacionamento de modelo RDM e comparação de modelo foram controladas usando a correção FDR, com um FDR desejado q = 0,05 e assumindo uma dependência positiva entre Conditions 34[,53. Para o teste de correlação do modelo RDM, o FDR esperado foi calculado utilizando todos os valores de P de cauda única não corrigidos de modelos testados. Para o teste de comparação de modelos RDM, restringimos a correção à nossa hipótese principal e apenas incluímos comparações envolvendo a RDM de memória coletiva (em relação a outros modelos de referência) para calcular o FDR esperado, usando valores de P de duas caudas. Reportamos valores ajustados de P e usamos iterações de inicialização para determinar 95% de CIs percentil. The noise ceiling reported in Fig. 3c reflete a correlação entre os participantes do RDMs cerebral. Esta correlação foi calculada para cada participante como a correlação entre o RDM cerebral desse participante e o RDM cerebral médio dos restantes participantes34. O tecto de ruído representado na Fig. 3c corresponde à média destas correlações individuais.
Searchlight analysis
Meshes of the white matter and pial surfaces of the cortex were reconstructed from T1-weighted images collected for each participant using the Freesurfer software package version 554,55. Usamos o rsa_defineSearchlight MATLAB função da RSA toolbox34 (https://github.com/rsagroup/rsatoolbox), que também depende de Surf de ferramentas functions56 (https://github.com/nno/surfing), para definir uma superfície de base de holofote para ambos os hemisférios (usando um 40-voxel holofote com um raio de 10 mm). Voxels na vizinhança de um ou mais nós da superfície foram selecionados usando uma medida de distância geodésica e construindo linhas virtuais que conectavam os nós correspondentes nas superfícies de matéria pálida e branca. This procedure produces a searchlight following the surface curvature, thus reducing spatial bias during the analysis of fMRI patterns. Em contraste com os bairros definidos volumetricamente, isto resultou em bairros com uma forma cilíndrica curva que seguiu os contornos dos sulci e gyri de cada indivíduo. Uma vez que o farol de estrutura para cada vértice foi construído e mapeada para o funcional de espaço de imagem, padrões de recordou atividade em cada voxel compor o holofote foram dizer-centrado e dimensionadas para os seus desvios-padrão, antes de calcular a dessemelhança estrutura (1 menos a correlação espacial) em todas as comparações em pares de recordou padrões. As formas triangulares superiores destes RDM searchlight foram então extraídas, transformadas em rank, e comparadas usando um modelo de regressão à forma triangular superior transformada em rank de todos os modelos RDM (coletivo, semântico e contextual). O resultado desta análise de searchlight criou um mapa beta, um volume no qual cada voxel contém uma estatística para o searchlight centrado naquele voxel. Estes mapas beta de primeiro nível para cada modelo foram normalizados para o modelo T1 do Montreal Neurological Institute e suavizados usando um núcleo gaussiano de 10 mm de largura completa. Estes mapas beta do participante de espaço padrão foram submetidos a uma análise de efeitos aleatórios não paramétricos de segundo nível na versão 5.0.1157 da FSL. Para corrigir comparações múltiplas, o mapa beta de nível de grupo foi submetido a testes de permutação maximais usando o threshold-free cluster enhancement58 (TFCE), que oferece um bom compromisso entre o thresholding excessivamente sensível baseado em cluster e a correção muito conservadora baseada em voxel. Para testar a relação e diferenças do modelo RDM, os mapas TFCE foram então corrigidos (Pcorected < 0,05) para a taxa de erro familiar usando testes padrão de permutação implementados em FSL com a função randomize (10,000 permutações). Os resultados da análise de searchlight são relatados em dados estendidos Fig. 1.
descrição e análise do corpo de memória colectiva
o corpo foi recolhido pelo projecto MATRICE (http://www.matricememory.fr/?lang=en), uma plataforma multidisciplinar e tecnológica, cujo objectivo é fornecer ferramentas e base tecnológica e teórica para compreender a relação entre memória colectiva e individual. Os clipes audiovisuais que compunham inicialmente o corpus foram armazenados no Instituto Nacional do Audiovisual, um dos principais parceiros do projecto MATRICE e um instituto público cujo objectivo é arquivar todas as produções audiovisuais difundidas na televisão ou rádio francesa. Para este estudo, incluímos em nosso corpus todos os boletins de notícias de televisão e relatórios (não incluindo programas de rádio ou documentários) transmitidos de 1980 a 2010 com a Segunda Guerra Mundial como tema comum, levando a um total de 3.766 documentos. Concentramo-nos neste período de tempo específico por três razões. Primeiro, de 1980 a 2010 sobrepõe-se em grande parte ao tempo de vida dos nossos participantes. Em segundo lugar, este período corresponde ao estabelecimento de uma nova narrativa para a memória coletiva Francesa (isto é, um novo “Régime of Mémorialité”59). Isso incluiu a emergência e afirmação da memória de Shoah, bem como grandes julgamentos reconhecendo a participação do Estado francês e seu povo, e seus representantes na época (por exemplo, Bousquet, Leguay, Touvier e Papon), na deportação e morte de judeus. Terceiro, graças aos avanços no reconhecimento automático de fala e a disponibilidade de textos eletrônicos, com o qual linguagem contemporânea modelos foram construídos para processar os dados registrados a partir de 1980, o 3,766 arquivos de áudio foram convertidos para o formato XML através da voz-para-texto de conversão de algoritmos desenvolvido pelo Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI; Ciências da Engenharia e Ciência da computação Laboratório), um dos principais parceiros da MATRICE projeto.
uma vez convertido em texto, o nosso corpo foi inicialmente processado manualmente para descartar segmentos não relacionados com a Segunda Guerra Mundial (mantendo exclusivamente secções dedicadas a este tópico). Durante esta operação, as transcrições automáticas de fala-texto foram corrigidas adicionalmente por um leitor humano. Após este pré-processamento inicial, um arquivo XML separado foi extraído para cada documento. Estes ficheiros foram então processados com metodologias de análise de dados textuais utilizando o TXM software60 (http://textometrie.ens-lyon.fr/) ligado ao analisador morfossintático de TreeTagger 61 (http://www.cis.uni-muenchen.de/~schmid/tools/TreeTagger/). TXM permite ao usuário anotar cada instância de uma palavra (ou seja, token) para o seu lema correspondente (a forma canônica de um conjunto de palavras) e proceder a uma rotulagem morfossintática de cada palavra em um corpo. O corpus pode então ser explorado usando o Corpus Query Language (CQL) pedidos para marcar e recuperar categorias gramaticais específicas, formas, lemmas ou qualquer informação anexada à palavra. Uma lista de pedidos de CQL foi gerada automaticamente para cada substantivo, verbo ou lema adjetivo no corpus. Lemmas raros (menos de dez ocorrências), palavras de paragem e verbos comuns (por exemplo, “be” E “have”) foram removidos no processo e não incluídos em análises subsequentes. Por exemplo, este algoritmo passaria pelo corpus e produziria uma consulta CQL única (por exemplo, (lema = “luta”%c)) correspondente a qualquer instância do verbo “luta” no corpus (ou seja, “luta”, “luta” ou “luta”). O modificador %c incorporado neste pedido é usado para neutralizar o caso de caractere de formas de Lema assimiladas (isto é,” luta”,” luta “ou”luta”). Uma lista inicial de cerca de 6.500 pedidos de CQL foi gerada automaticamente desta forma. Esta lista foi verificado manualmente para remover CQL pedidos produzido por erros de transcrição, ocasionalmente, o grupo de determinados pedidos sob uma única entidade (por exemplo, (lema = “drama”%c)|(lema = “dramática”%c)), para fundir bigrams quando apropriado (por exemplo, (lema = “chefe”%c)()?(lema = “estado” % c) Para” chefe de estado”) ou para se ajustar a diferentes formas ortográficas (por exemplo, (lema = “Gorbatchev “%c)|(lema = “Gorbatchov” %c)). Após esta verificação e ajuste inicial, um total de 6.240 pedidos permaneceram para resumir os 1.431.790 tokens que compõem o nosso corpus.
a lemma x document frequency matrix counting the number of occurrence was extracted and submitted to an LDA analysis performed using the Machine Learning for LanguagE Toolkit (MALLET; http://mallet.cs.umass.edu/topics.php). Os modelos temáticos 26, 29, 30 consideram que os documentos são gerados por misturas de tópicos. Neste contexto, um tópico corresponde à distribuição de probabilidades em todas as palavras presentes em todos os documentos (como é provável que uma determinada palavra esteja associada a um tópico). A partir desta perspectiva, um documento pode ser gerado atribuindo uma distribuição de probabilidade sobre tópicos. Para cada exemplo em um documento, um tópico é escolhido dependendo de sua distribuição de probabilidade de tópico anterior, e uma palavra é extraída desse tópico. MALLET usa o algoritmo de amostragem de Gibbs para inverter este processo, inferindo o conjunto de tópicos que foram responsáveis por gerar uma coleção de documentos e suas probabilidades sobre palavras.
nós primeiro treinamos modelos temáticos sobre os boletins de notícias da Segunda Guerra Mundial e reportamos corpus usando o motor tópico de trem de MALLET (ver dados estendidos Figo. 2 para uma ilustração dos tópicos criados com esta técnica). Variamos o número de tópicos permitidos de 2 a 100, em incrementos de 1, definindo o parâmetro alfa para 50 / N tópicos e o parâmetro beta inicial para 0,1 (como sugerido em outras obras modelando um grande corpo de textos para propósitos semânticos). Para cada número de tópicos, nós usamos 500 iterações para estimar a probabilidade de palavras e documentos. Então usamos a ferramenta de inferenciador MALLET para encaixar o modelo LDA nas imagens do Memorial e estimar suas probabilidades temáticas. Para isso, cada imagem foi tratada como um novo documento e rotulada com palavras-chave (também lemmatizadas), que foram diretamente derivadas das legendas Memorial por baixo das imagens. Um total de 449 lemmas foi usado para descrever as imagens do Memorial. Estas entradas, 428 também foram encontrados na lista de 6,240 entradas descrevendo o corpus de boletins de notícias e relatórios. O processo inferencial tópico, assim, levou a uma matriz de distribuição de probabilidade de 119 imagens x n tópicos, descrevendo a probabilidade posterior de um tópico dado uma imagem.
Um 119 imagem x 119 imagem RDM, em seguida, foi calculado para cada número estimado de tópicos usando as distâncias entre as distribuições de tópico probabilidades para cada par de imagens (aqui na co-seno distância, o que proporciona um simétrico medida de similaridade entre duas tópico vetores). No entanto, dada a aleatoriedade que o algoritmo de amostragem Gibbs pode introduzir durante a estimativa de parâmetros, reiteramos todo o processo dez vezes, levando a uma 3D 119 imagem x 119 imagem x 10 repetição RDM para cada número de tópicos estimados. As medições da similaridade entre o cérebro ou o comportamento RDMs e o coletivo RDMs (coeficientes beta do modelo de regressão ou coeficientes de correlação de Spearman) foram calculadas em média ao longo dessas dez repetições de modelização temática. Para resumir todo o processo, para um dado número de tópicos: (1) treinamos um modelo tópico nos boletins e relatórios de notícias da televisão francesa corpus; (2) encaixamos este modelo tópico nas imagens Memorial e suas legendas, tratando cada imagem como um novo documento; (3) um 119 imagem x N tópico matriz, que descreve a probabilidade posterior de um tópico dada uma imagem, foi extraído e transformado em um 119 x 119 RDM; e (4) este processo foi reiterado dez vezes, e para cada número do tópico, a média de semelhança com o cérebro ou comportamentais RDMs foi calculado entre os dez instâncias.
Validation of the collective memory model and selection of the topic number
we sought to quantify the structure of shared representations across individuals and compared such shared schemas with our collective memory model. Este procedimento também nos permitiria selecionar de forma independente um número ideal de tópicos para descrever a estrutura coletiva de imagens que melhor corresponde à memória compartilhada. Para este fim, 54 falantes nativos de francês (23 homens, 31 mulheres) entre 20 e 39 anos de idade (média = 27,3 anos; s. d. = 5,6) realizaram a tarefa de arranjo de imagens. Esta tarefa foi realizada exatamente nas mesmas 119 Fotos Memorial, mas ao contrário de nossos participantes da ressonância magnética, que haviam visitado o Memorial no dia anterior, estes novos participantes não estavam completamente familiarizados com o Memorial. Nós derivamos 54 RDMs individuais das distâncias euclidianas entre as imagens. Nós então realizamos DISTATIS33 para capturar a estrutura compartilhada de representações entre esses indivíduos de controle. DISTATIS é ideal para calcular o melhor Acordo ou compromisso em várias matrizes de distância. A implementação em MATLAB de DISTATIS pode ser encontrada em https://www.utdallas.edu/~herve/, mas em resumo: (1) cada um dos 54 RDMs foi transformado pela primeira vez em uma matriz de produtos cruzados após dupla centralização e normalização para seu primeiro valor eigen; (2) o cosseno de similaridade de estrutura de todas as comparações em pares de 54 normalized cross-produto de matrizes foi calculada utilizando a RV coeficiente; (3) o RV coeficiente da matriz de descrever as relações entre RDMs foi submetido ao eigen-de decomposição, e o compromisso matriz correspondeu à soma dos normalized cross-produto de matrizes ponderada pelo seu primeiro eigenvalue; (4) o eigen-decomposição do compromisso produzido escores fatoriais, que descreveu a posição de cada uma das 119 imagens em um N-dimensional comprometer o espaço; e (5) a matriz de correlação de distância destes espaços de compromisso multidimensional correspondeu então ao melhor acordo entre todos os 54 RDMs individuais derivados da tarefa de arranjo de imagem comportamental. Esta matriz de correlação de distância pode ser vista como um esquema compartilhado refletindo a organização semântica comum entre indivíduos. Os RDMs coletivos extraídos do corpus de boletins de notícias televisivos e relatórios eram semelhantes à estrutura da memória compartilhada medida entre os indivíduos de controle (Fig. 2c). Esta semelhança entre memória coletiva e compartilhada foi em média calculada por caixas de cinco tópicos, e atingiu o seu máximo quando seis a dez tópicos foram incluídos durante a descoberta do tópico. Como resultado, todas as análises subsequentes envolvendo memória coletiva ou semântica foram realizadas usando seis a dez tópicos (e as medidas de similaridade entre SGD cerebral ou comportamental e SGD coletiva ou semântica foram calculadas em média dentro deste número selecionado de tópicos).
Construção de um modelo de controle da II Guerra Mundial domínio semântico
usamos francês artigos da Wikipédia referindo-se à segunda Guerra Mundial, como uma referência de modelo de específicas relações semânticas entre palavras relacionadas a II Guerra Mundial e a formação de um tópico modelo que, em seguida, ajuste o Memorial de imagens. Este corpus (http://redac.univ-tlse2.fr/corpus/wikipedia.html) incluído 664,982 artigos editados até junho de 2008, entre os quais 2,643 artigos foram especificamente relacionados com a II Guerra Mundial, e foi previamente extraído do despejo versão francesa de artigos da Wikipédia (http://dumps.wikimedia.org/) e processados utilizando o mesmo etiquetagem morfossintáctica tool61 utilizado para o processo de nosso corpus de televisão francesa de notícias sobre a segunda Guerra Mundial. Uma vez importado o corpus em TXM, aplicou-se exatamente o mesmo método de análise que anteriormente usado para construir o modelo de um coletivo de memória (consulte memória Coletiva corpus descrição e análise).
resumo dos relatórios
mais informações sobre a concepção da investigação estão disponíveis no resumo dos relatórios sobre a investigação da natureza ligado a este artigo.