Análise Qualitativa de Dados*

Na área das ciências humanas e sociais, com tanta subjetividade e complexidade, há, sem dúvidas, desafios que afetam a investigação na perspectiva qualitativa, como os fatores que encobrem e interatuam, que promovem a singularidade da situação, as mudanças instrumentais, bem como as preferências do investigador. Todavia, esse impactos podem ser reduzidos por meio de procedimentos como triangulação, amostragem teórica, adoção de métodos complementares, dentre outras medidas que serão apresentadas neste post.

Após a recolha de dados, é possível trabalharmos com a análise qualitativa de dados encarada aqui como método e como forma de abordagem para atingir um objetivo, um procedimento técnico básico da investigação qualitativa, de modo a potencializar a extração dos significados respondendo a critérios habituais a qualquer modo de observação (Amado, 2013). Ademais, toda nossa metodologia estará sujeita a processos de validação, podendo ter seus processos e resultados questionados, visto não ser fácil manter satisfatoriamente um grau de validade seja nas operações de recolha de informação, seja nas análises e extrações de significação do corpus coletado.

download (2)

Diante dessa dificuldade, segundo Miles & Huberman (1994), o desafio maior na investigação de um determinado problema é desenvolver suas estratégias sem haver canons, regras de decisão, algoritmos ou mesmo uma heurística que limite seus procedimentos. Para ultrapassarmos esse desafio metodológico, o presente estudo abordará a análise qualitativa de conteúdo como método e como técnica no intuito de tanto observar sistematicamente os dados coletados em campo quanto cobrir processos mais gerais e mais diversos como a “elaboração de conceitos e a interpretação de resultados” (Amado, 2013, p. 305).

Com base na fundamentação apresentada até aqui, descreveremos, a seguir, os passos da análise qualitativa de conteúdo e suas respectivas conceituações, incluindo como certas dificuldades podem ser contornadas e como se pode utilizar os critérios de rigor em prol da credibilidade do tratamento dos dados e da fiabilidade da extração dos sentidos a partir dos documentos produzidos em campo, procurando, com isso, justificar as escolhas e os critérios que podem nos levar a uma síntese final mais coerente e fiável.


1. Técnicas de análise qualitativa de dados

HGHG

Há uma variação e flexibilidade quanto às nomenclaturas e passos no processo de análise qualitativa de conteúdo, mas em geral inicia-se com a leitura fluida de um corpus relevante transcrito até a formulação de uma síntese. O corpus deste tipo de investigação pode ser constituído em observações, entrevistas e diários produzidos em campo. Para explorar devidamente essas fontes, é possível optarmos por essa técnica relativamente nova em Ciências Sociais e Humanas: a análise qualitativa de conteúdo, que é uma técnica para fazer inferências por identificação sistemática e objetiva das características específicas de uma mensagem (Esteves, 2006).

Trata-se aqui da adoção de uma sequência de procedimentos que buscam permitir ao investigador novos significados, relações e inferências acerca de um corpus de dados invocados ou suscitados. Logo, o processo de análise qualitativa de conteúdo consiste em “extrair sentido dos dados de texto e imagem” e envolve preparar os dados para “conduzir análises diferentes, aprofundar, representar os dados e fazer uma interpretação do significado mais amplo que eles podem fornecer” (Creswell, 2007, p. 194).


1.1. Pré-análise

1-original6

Para a pré-análise desse processo, os dados coletados precisam ser organizados e sistematizados, para em seguida serem formulados alguns indicadores e pré-categorias de análise que iniciarão a validação do estudo e da discussão de seus resultados. Tal distribuição sistemática de pré-categorias de análise é uma ferramenta que vem sendo lapidada há pouco tempo pela academia científica, portanto para elaborá-la é preciso de bastante cautela. Com o objetivo de aproximação às estruturas significativas do texto, os passos desta fase, interdependentes e interativos, proporcionam uma orientação detalhada para um seguro processo de codificação.

Creswell (2007) propõe uma grelha de análise do processo sugerido em passos definidos:

“(1) Extraia um sentido do todo. Leia todas as transcrições cuidadosamente. Talvez você deva tomar nota das idéias à medida que elas lhe venham à cabeça. (2) Escolha um documento. (3) Faça uma lista de todos os tópicos. Agrupe os tópicos similares. Organize esses tópicos em colunas que possam ser classificadas como tópicos principais, tópicos singulares e outros. (4) Agora tome essa lista e volte aos seus dados. Abrevie os tópicos como códigos e escreva os códigos próximos dos segmentos apropriados do texto. Tente esse esquema de organização preliminarmente, para ver se surgem novas categorias e novos códigos. (5) Encontre a redação mais descritiva para seus tópicos e transforme-os em categorias. Procure formas de reduzir sua lista total de categorias, agrupando tópicos que se relacionem entre si. (6) Ponha os códigos em ordem alfabética. (7) Reúna o material dos dados pertencentes a cada categoria em um único local e faça uma análise preliminar. (8) Se necessário, recodifique seus dados existentes” (Creswell, 2007, p. 196).

kanban-board-illustration-freepik

A descrição de tais passos envolve o pesquisador num processo sistemático de análise qualitativa de dados de um dado registro. Serão esses os passos para a condução desse tipo de pesquisa. Tendo como norte, portanto, a orientação de Creswell, é possível estruturarmos a análise dos registros advindos do trabalho de campo a partir, por exemplo, das seguintes pré-categorias de análise: (a) as relações colaborativas entre coordenação, supervisão e orientação pedagógicas; (b) as especificidades e dificuldades que emergem no exercer dessas práticas; (c) a importância da formação continuada para o docente via orientação pedagógica; (d) a importância e a eficiência das TIC para a organização e o desempenho das diferentes habilitações pedagógicas; (e) o nível de qualidade técnica e pedagógica do processo de formação e de ensino-aprendizagem oferecido pela instituição.

Com pré-categorias ponderadas das investigações de campo, pensamos ser possível darmos um primeiro passo à leitura do registro efetuado durante o acompanhamento do trabalho pedagógico nas escolas, sem nos distanciarmos de suas especificidades e regularidades apresentadas durante o período de vivência.


2. Processo geral de redução de dados

Tabela de Bardin

Figura – Resumo esquemático das fases de análise de conteúdo de Bardin (2015, p. 102)

O processo geral de redução de dados, segundo Miles & Huberman (1994), é iterativo e, portanto, os componentes da análise de dados como a recolha, a redução, as conclusões e verificações, bem como a apresentação de resultados poderão ser vistas e revistas muitas vezes pelo investigador ao longo de sua pesquisa, de forma a rever e revisar constantemente os procedimentos que os integram. Tal processo visa tratar os dados extraídos de um corpus e segue uma lógica científica para dar credibilidade às descobertas, sendo dividido em três fases: criação do sistema de análise, processo de análise e extração do conteúdo significativo. Essas fases estão representadas no esquema de Bardin (2015), apresentado na figura anterior.


2.1. Leitura prévia ou flutuante

praticas_pedagogias_inclusivas

Nesta etapa inicial, é necessário que o investigador tenha em mente que a análise qualitativa de conteúdo passa por fases essenciais que favorecem a fundamentação da pesquisa, desde a definição do problema, o delineamento de um quadro de referências teóricas e a constituição do corpus documental. Assim sendo, é imperioso destacar a leitura flutuante que visa a iniciação na compreensão e no detalhamento dos principais assuntos reunidos pela totalidade dos registros, de forma a manter o foco voltado para as noções e conceitos mais utilizados, pois assim o pesquisador será capaz de elaborar subconjuntos de ideias centrais para posteriormente categorizá-las de maneira a direcionar sua análise.

Nesse sentido, uma das recomendações apontadas por Amado (2013, p. 311), “é que o pesquisador faça tais leituras sobre cópias, facilitando o procedimento de anotações e registros à margem do documento original, de forma a deixá-lo preservado”. Tomando por base essas orientações, propomos aqui realizar uma análise qualitativa de todas as anotações produzidas em campo, seguindo a verificação da documentação em cópias de excertos, de maneira a facilitar a análise e leitura posteriores. Desse modo, preservaremos a intenção de manter a organização e a compreensão das informações registradas, de modo a realizarmos efetivamente as operações que vem a seguir.


2.2. Segmentação

Na etapa da segmentação é importante que determinemos quais tipos de significados podem ser percebidos no texto e quais se apresentam como mais adequados à elaboração das categorias. Podemos levar em conta as palavras que são mencionadas mais de uma vez, as ideias que aparecem de forma muito evidente durante uma narrativa, ou as atitudes que serão evidenciadas durante a coleta dos relatos, das observações e das entrevistas, ou, ainda, pode-se analisar os documentos na sua totalidade e subdividi-los em unidades menores, que facilitem a adequação às categorias e a sua compreensão.

Logo, após realizarmos diversas leituras dos documentos, optaremos por segmentá-los em unidades menores, o que nos possibilitará um melhor ajustamento das ideias, levando em consideração o contexto das categorias adotadas. A esse respeito, segguiremos os passos de Moraes (1999, p. 5) que esclarece que “A decisão sobre o que será a unidade é dependente da natureza do problema, dos objetivos da pesquisa e do tipo de materiais a serem analisados”.


2.3. Categorização

Por ser um procedimento que tem como objetivo principal a recolha e a concentração de informações com ideias centrais de um mesmo rol de documentos, utilizando critérios pré-estabelecidos e que visam a redução de seu conteúdo, a categorização é um processo lento e minucioso, que leva em consideração etapas preliminares à sua elaboração, passando pela construção de uma grade de análise preparatória para o tratamento dos dados recolhidos, os quais vão sendo paulatinamente reformulados e adequados conforme as dimensões de interesses desta investigação, flexibilidade que nos demandará a adoção de certa intermediação entre uma descrição simples e analítica dos fenômenos.

Moraes (1999, p. 6) valida esse conceito quando diz que “A categorização é, portanto, uma operação de classificação dos elementos de uma mensagem seguindo determinados critérios”. Embora essa etapa seja uma das mais laboriosas por exigir grande capacidade de interpretação e adequação no tratamento das informações, a formulação das categorias deve respeitar alguns padrões orientadores para sua elaboração. Ela deve ser válida, pertinente e adequada, no sentido de que as categorias sejam úteis e significativas ao estudo a que se destinam, de forma a contemplar todos os pontos relevantes ao material analisado sem deixar de ter em mente o objetivo e a problematização da presente investigação.

Além disso, a formulação das categorias atenderá tanto ao critério da exaustividade quanto da inclusividade, ou seja, será preciso que a categorização contemple todo o assunto pertinente à elucidação dos objetivos em curso. Ademais, também há que se contemplar aqui o critério da homogeneidade, que indica a necessidade de uma organização justificada a um único princípio, tendo por parâmetro o preceito da classificação, de forma a evidenciar a sistematização dos dados numa única dimensão de análise. Não obstante, as categorias devem atender igualmente ao critério de exclusividade ou exclusão mútua, caracterizado pela cuidadosa redução de cada dado em apenas uma categoria, levando em consideração regras bem definidas e fáceis de serem identificadas.

Por fim, o critério de objetividade, consistência ou fidedignidade, que incorporam em seus preceitos a compreensão das regras de classificação de forma tão notória, além de serem passíveis de aplicação durante toda análise documental, possibilitarão que diferentes investigadores possam obter a mesma compreensão acerca do mesmo assunto, reduzindo e mesmo anulando concepções prévias ou parcialidades no contexto do estudo.

Isto posto, proporemos uma análise temática com enfoque em procedimentos categoriais pré-estruturados (em segmentos), para mapearmos mais especificamente cada unidade de sentido do corpus documental que se nos apresenta, a qual as categorias devem se relacionar de maneira bastante evidente. Por fim, no caso de haver necessidade de reformulação, este tipo de procedimento nos parece ser o mais incisivo e, por isso, o mais adequado para o desafio de realizar uma nova segmentação e categorização das fontes de pesquisa, agregando novas perspectivas ao estudo.


2.4. Sistema de análise

geometrical-figure-tetrahedron-19263

Esta fase de sistematização da análise será constituída por um conjunto de decisões relativamente a alguns aspectos essenciais que apresentamos nos pontos a seguir: (a) os tipos de códigos a utilizar e os níveis de codificação, (b) o nível de precisão a atingir, (c) a escolha de uma nomenclatura e de um sistema concreto de anotação (criação propriamente dita dos códigos), (d) e a definição operacional desses códigos. Tais aspectos têm por objetivo a preparação dos instrumentos de análise que são necessários para que sigamos os passos de elaboração de um primeiro sistema analítico e que serão definidos pelas operações seguintes.


2.4.1. Definição operacional

A definição operacional visa explicitar o que seria esperado encontrar em cada uma das categorias de dados, de forma a estabelecer com precisão o significado das diferentes subcategorias (ou códigos), pois de acordo com Miles & Huberman (1994) elas devem ser claras e de maneira uniforme ao longo do estudo, não se tratando de uma definição apenas lógica ou abstrata.


2.4.2. Validação

Nesta etapa do procedimento de sistematização da análise, procuraremos deixar claro “o que pretendemos medir”, como afirma Vala (1986, p. 116), o que corrobora a afirmação de Esteves (2006, p. 123), que destaca, por sua vez, que a validade da categorização, “passa pelo fato de ela se harmonizar com os objetivos definidos e ser pertinente e, na medida do possível, produtiva”.


2.4.3. Valor de verdade

Corroborando as orientações de Rodrigues (1992, p.37), ao darmos, nesta investigação, a garantia quanto à qualidade e à quantidade das observações efetuadas e à exatidão das relações estabelecidas entre as observações e o momento da interpretação, de forma a atingir um alto grau de veracidade, ou seja, um grau de isomorfismo entre os dados e os fenômenos referidos, fornecendo tal credibilidade numa perspectiva da validade interna, isto é, dentro de uma validade relacional.


2.4.4. Aplicabilidade

No paradigma qualitativo que fundamenta esta investigação, a adequação dos resultados ao contexto que se pretende explorar requer uma descrição detalhada do próprio cenário de formação e de aprendizagem das escolas participantes, isto é, requer a descrição dos “resultados de uma investigação particular, que são aplicáveis a outros contextos ou sujeitos” em consonância com o que pensa Rodrigues, (1992, p. 37). Logo, adotaremos um “critério que se baseia no reconhecimento da ‘semelhança’ entre objetos e reconhecendo que a ‘verdade’ se encontra tanto no geral e no típico como no particular e atípico” (ibidem, p. 39).


2.4.5. Consistência

Neste quesito assumimos a postura de Miles & Huberman (1994), que aborda a análise qualitativa como uma descrição precisa e detalhada dos procedimentos utilizados pelo investigador que se prepara para recolher e interpretar dados, sendo essa abordagem aplicável a diversas estratégias, inclusive à revisão permanente dos instrumentos. Para tal efeito, recorreremos ao recurso de juízes durante o processo de codificação, porém poderemos ainda optar pelo contraste das codificações em momentos diferentes (triangulação temporal) etc. Por fim, consideramos, conforme Rodrigues (1992, p.39), que é na “medida em que os resultados refletem com precisão o objeto” que evidenciaremos as implicações “que sejam ‘repetíveis’ ou ‘replicáveis’ com o mesmo (ou semelhante) objeto e no mesmo (ou semelhante) contexto”.

The_Division_Bell

2.4.6. Neutralidade

A neutralidade se aproxima do aspecto anterior, nomeadamente quando “o instrumento de investigação é o próprio investigador”, ou seja, “o grau em que os resultados são dados em função do objeto e das condições de investigação e não somente dos vieses, motivos, interesses e perspectivas do objeto investigado” (Rodrigues, 1992, p. 40). Em termos de análise qualitativa, trata-se, sobretudo, de assegurar com esse aspecto que a subjetividade do observador esteja presente e contribua com suas formas de entendimento e apropriação para a qualificação rigorosa dos resultados.


2.4.7. Cálculo de fiabilidade

104629dados-780x450-e1572406363883.jpg

Consideramos que a fiabilidade da codificação depende da natureza e do grau de complexidade das categorias, isto é, “quanto menos importância é dada, na sua definição, à substância do texto, quanto mais complexas são as categorias e menos claras as instruções, menor é a fiabilidade”, conforme Detry e Lopo (1991, p. 29). A fiabilidade é mais provável para categorias não ambíguas, ou seja, quando estiverem claramente definidas, de forma a satisfazerem critérios de objetividade e de exclusão mútua.

A fiabilidade da codificação estará associada, em nossa investigação, à codificação realizada por dois aspectos principais: “o [aspecto] codificador e o instrumento de codificação, garantindo que seja assegurada a fiabilidade do intracodificador e intercodificadores” (Vala, 1986, p. 117). Para tanto, apontamos que a fiabilidade intracodificadora, significa que um mesmo analista, em dois momentos diferentes do tempo, classifica da mesma forma uma mesma unidade de registro, já a fiabilidade dos intercodificadores significa que diferentes analistas trabalhando com o mesmo material codificam da mesma forma um dado conjunto de unidades de registro.

Para testar a harmonização entre categorias, definições operacionais e unidades de sentido, utilizaremos o cálculo de fiabilidade adotando um juiz para testar a categorização de modo a comparar sua classificação de códigos com a classificação adotada pelo próprio investigador. O cálculo deve ocorrer com base na codificação de uma amostra composta por, no mínimo, 10% das fontes e seu resultado deve apresentar, no mínimo, uma taxa de 80% do número total de acordos. Intermediações e consensos entre os codificadores podem fazer com que os resultados abaixo desse valor aumentem o suficiente para a validação do plano de análise por meio dessa ferramenta.

conselho-de-classe-nota-avaliacao-getty-images

2.4.8. Processamento dos resultados

Para o processamento dos resultados, seja na forma gráfica ou matricial, utilizaremos informações provenientes dos processos anteriores de coleta e tratamento de conteúdo, tais como a atribuição da Dimensão, Categoria, Subcategoria, Indicadores, Referências e os objetivos a atingir (Definição operacional), corroborando as orientações de Amado (2013). A ideia central é que trabalhemos os dados obtidos a fim de que, conforme Costa (2018, p. 251), “Numa perspectiva de análise essencialmente qualitativa, as tabelas de frequências, (…) [sirva], sobretudo, para sugerir pistas ao investigador relativamente às potenciais configurações ou agrupamentos dos objetos analisados, esclarecer dúvidas emergentes e sugerir hipóteses de trabalho”. Além disso, ainda temos que levar em conta que, para chegarmos ao final desse processo de representação matricial e gráfica dos resultados, temos de nos amparar na segurança do que se está obtendo na opinião de juízes externos, em muitos casos de um colega de curso ou do orientador da dissertação.


2.4.9. Recuperação do texto codificado por categoria

Neste passo, dentro da tabela de categorização, é preciso retirar trechos de citações presentes no corpus, de maneira que possam juntos, exemplificar cada uma das categorias ou subcategorias às quais estão sendo atribuídas. Esse é um dos momentos indicados para regressar à análise do texto e tentar esclarecer dúvidas sem deixar de lado a perspectiva de garantir a validade da própria análise. Uma vez que o conteúdo foi recuperado na tabela de categorização, o investigador é capaz de, numa maneira muito sintética, visualizar o significado do corpus de forma organizada e lógica, comparando e contrastando os conceitos, preparando-se para a elaboração do próximo passo, que também faz parte do produto final da análise de dados: a síntese.


2.4.10. Atribuição de significado

De acordo com Manuela Esteves (2006), a atribuição de significado tem por objetivo principal buscar possíveis sínteses ou respostas para os problemas investigativos e os dados coletados. E para uma efetiva atribuição de significado a tais questões e dados explorados é preciso lembrar, antes de tudo, que no processo da investigação empírica, em que se recorre aos indivíduos como fonte de informação, as ações e as respostas são afetadas por “um certo número de enviesamentos, pelo menos potenciais, decorrentes da consciência que os sujeitos têm de que estão a ser observados ou testados, […]” (Vala, 1986, p. 106).

Logo, a questão da atribuição de significado nos surge como central nesta investigação, pois não basta apenas coletar e acumular dados, “é preciso saber analisá-los e interpretá-los (não sendo possível fazer uma coisa sem a outra)” (Amado, 2013, p. 299). Isto posto, percebemos que o rigor não está presente somente na utilização das ferramentas de registro, o que não garante por si a validade e a fiabilidade da pesquisa. O planejamento e o registro são apenas os primeiros passos que antecedem essa fase de atribuição de significado. Ou seja, o primeiro propósito da investigação consiste em realizar a descrição objetiva, sistemática e, eventualmente, quantitativa dos conteúdos (as denotações ou o primeiro sentido do discurso), para depois nos debruçarmos sobre as conotações, que são os aspectos subjetivos de quem fala ou escreve.

Ademais, como nos afirma Vala, “é a inferência que permite a passagem da descrição à interpretação, enquanto atribuição de sentido às características do material levantado, enumerado e organizado” (1986, p. 103). A finalidade da análise de conteúdo será, assim, “efectuar inferências, com base numa lógica explicitada, sobre as mensagens, cujas características foram inventariadas e sistematizadas” (ibidem, p. 104). Para procedermos a inferências a partir dos dados, o material sujeito à análise de conteúdo será concebido como o resultado de uma rede complexa de condições e de preceitos, cabendo a nós elaborar uma estratégia de atribuição de significado capaz de explorar essas percepções e inferências, identificando as condições de produção.

download est.

Julgamos que é este aspecto que nos permitirá aqui atribuir significados a um leque variado de registros, muito especialmente sobre aqueles que traduzem as visões subjetivas do ambiente escolar, “de modo que o investigador possa ‘assumir’ o papel do ator e ver o mundo do lugar dele, […]”. (Amado, 2013, p. 305). Portanto, em função dos procedimentos lógicos adotados para o desenvolvimento da presente investigação, veremos aqui como será sistematizada a hierarquia de objetivos da atribuição de significado de nossa análise, que tem por objetivo extrair as subjetividades ou os condicionantes que fundamentam o corpus das fontes.

Primeiramente, iremos descrever os fenômenos relevantes (a), para descobrir correlações, covariações ou associações entre esses fenômenos (b), e, finalmente, desdobrar suas relações de causa-efeito (c). Sobre essas três fases da atribuição de significado incide, em geral, uma técnica de fazer inferências interpretativas a partir dos conteúdos expressos. Desse modo, enquanto nas análises de conteúdo mais antigas predominava apenas o primeiro procedimento (descritivo), aqui a análise de conteúdo será explorada sobre suas bases renovadas, cuja função já não é meramente a descrição dos conteúdos manifestos, mas é, sobretudo, “um processo inferencial, em busca de um significado que está para além do imediatamente apreensível e que espera a oportunidade de ser desocultado” (Amado, 2013, p. 303).

Com essas três etapas sugerimos que a atribuição de significado dos dados siga muito aproximadamente a estrutura da matriz, isto é, os temas, as categorias e as subcategorias. Por fim, se os indicadores constituem um primeiro esboço do conteúdo a ser analisado, a sua análise horizontal e aprofundada será realizada na medida em que “na passagem à escrita haverá sempre aspetos e lógicas do discurso que no momento da construção da matriz podem não ter sido objeto de ponderação” (Amado, 2013, p. 340).

2018_02_05_5a783f00d0b1a

3.Exemplo de Plano de Análise

Apêndice B - Plano de Análise de Conteúdo_page-0001

4. Considerações finais

Neste post, mostramos como se realiza o planejamento de uma análise documental, planejamento esse que se propõe pela conexão interativa de três tipos de atividades: redução, exposição e extração de significados. Nesse sentido, a técnica da análise documental foi planejada aqui como um processo dinâmico ao permitir representar o conteúdo documental de uma forma distinta da original, gerando assim um novo documento.

Em outras palavras, essa técnica nos permitirá criar uma informação nova (secundária) fundamentada no estudo das fontes de informação primária, erigindo um processo que relaciona a descrição bibliográfica, a classificação, a elaboração de anotações e suas análises. Para tal processo analítico, portanto, “A redução de dados implicará a selecção, focalização, abstracção e transformação da informação bruta para a formulação de […] conclusões” (Aires, 2015, p. 46).

Lembrem-se que para atingirmos esse processo analítico com eficiência e clareza, é preciso definir, anteriormente, as questões de investigação às quais deve-se procurar dar resposta a partir dessa sistematização da análise de conteúdo.


5-Referências

Mago-Led-Zeppelin-IV

Aires, L. (2015). Paradigma qualitativo e práticas de investigação educacional. Lisboa: Ed. Universidade Aberta.

Amado, J. (2013). Manual de Investigação Qualitativa em Educação. Coimbra: Imprensa da Universidade de Coimbra.

Bardin, L. (2015). Análise de conteúdo. 2.ª ed. Lisboa: Edições 70.

Costa, F. A. (2018). Dos fundamentos teóricos à concretização da análise. Conceitos. Metodologia de Investigação II – Análise de conteúdo. Lisboa: Universidade de Lisboa.

Coutinho, C. P. (2008). A qualidade da investigação educativa de natureza qualitativa: questões relativas à fidelidade e validade. Educação, São Leopoldo-RS, v. 12, n. 1, pp. 5-15.

Creswell, J. W. (2007). Projeto de pesquisa: métodos qualitativo, quantitativo e misto. Trad. Luciana de Oliveira da Rocha. 2.ª ed.. Porto Alegre: Artmed.

Detry, B. & Lopo, T. P. (1991). Análise de conteúdo: a construção de dicionários. Inovação, v. 4, n.2-3, pp. 9-32.

Esteves, M. (2006). Análise de conteúdo. In: Lima, J. A. & Pacheco, J. A. (orgs.). Fazer investigação. Contributos para a elaboração de dissertações e teses. Porto: Porto Editora, pp. 105-126.

Miles, M. B. & Huberman, A. M. (1994). Qualitative data analysis: an expanded sourcebook. Thousand Oaks: Sage Publications.

Moraes, R. (1999). Análise de Conteúdo. Revista Educação, Porto Alegre, v. 22, n. 37, pp. 7-32.

Pourtois, J.P. & Desmet, H. (1988). Epistémologie et instrumentation en sciences humaines. Editions Mardaga.

Tuckman, B. (2012). Manual de investigação em educação. 4ª ed. Lisboa: Fundação Calouste Gulbenkian.

Vala, J. (1986). A análise de conteúdo. In: Silva, A. S. & Pinto, J. M. (orgs.). Metodologia das Ciências Sociais. 7.ª ed. Porto: Edições Afrontamento, pp.101-128.

*Texto retirado da minha dissertação de mestrado em educação pela ULISBOA intitulado “Coordenar, supervisionar e orientar: os desafios educacionais e tecnológicos do pedagogo no contexto escolar de São José dos Campos – SP”.

Repositório virtual da pesquisa: https://repositorio.ul.pt/handle/10451/42023


Um comentário sobre “Análise Qualitativa de Dados*

Deixar mensagem para José Teófio de Carvalho Cancelar resposta