WEB 2.0 Bruno Santos Isaías Jezer Leandro Zacarias Ricardo Kubota.
Jos. Ricardo dos Santos
Transcript of Jos. Ricardo dos Santos
0
Universidade Federal de Santa Catarina Programa de Pós-Graduação em Engenharia de Produção
JOSÉ RICARDO DOS SANTOS
AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE
APUCARANA – FECEA – UM ESTUDO DE CASO
Florianópolis 2004
1
JOSÉ RICARDO DOS SANTOS
AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE
APUCARANA – FECCEA – UM ESTUDO DE CASO
Dissertação apresentada ao Programa de Pós-graduação em Engenharia de Produção da Universidade Federal de Santa Catarina, como requisito parcial para obtenção do grau de Mestre em Engenharia de Produção.
Orientador: Prof. Dr. Miguel Angel Verdinelli
Florianópolis 2004
2
Ficha catalográfica
Santos, José Ricardo dos. S233a Avaliação do Desempenho dos Docentes e dos Cursos da
Faculdade Estadual de Ciências Econômicas de Apucarana – Fecea – Um Estudo De Caso / José Ricardo dos Santos. – Florianópolis, 2004. 144p.
Orientador: Prof. Dr. Miguel Angel Verdinelli. Dissertação (Mestrado) – Universidade Federal de Santa Catarina.
Programa de Pós Graduação em Engenharia de Produção.
Referências: p.
1.Ensino Superior 2. Avaliação estatística – Ensino Superior 3.Ensino Superior – Desempenho 4.Ensino Superior – Multivariada 5. Ensino Superior – Qualidade do ensino. I. Verdinelli, Miguel Angel. II. Universidade Federal de Santa Catarina. III. Título.
CDU: 378:311.213.3
3
JOSÉ RICARDO DOS SANTOS
AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE APUCARANA - FECEA
UM ESTUDO DE CASO
Esta dissertação foi julgada e aprovada para a obtenção do grau de Mestre em Engenharia
de Produção no Programa de Pós-Graduação em Engenharia de Produção da
Universidade Federal de Santa Catarina.
Florianópolis, 14 de maio de 2004
Prof. Edson Pacheco Paladini, Dr Coordenador do Programa
BANCA EXAMINADORA
Prof. Miguel Angel Verdinelli, Dr. Orientador
Prof. Sandré Granzotto Macedo, Dr.
Prof. Henri Stuker, Dr.
4
A minha esposa Alessandra,
Aos meus filhos Matheus e Larissa,
A minha mãe Nilza,
pelo apoio, carinho, paciência e orações.
5
AGRADECIMENTOS
A Deus,
À Universidade Federal de Santa Catarina,
Ao orientador, Prof. Dr. Miguel Angel Verdinelli,
Aos professores do curso de Pós-Graduação,
Ao Prof. Ralph de Andrade Rabelo pelo apoio técnico,
À Faculdade Estadual de Ciências Econômicas de Apucarana,
À Prof. Rosangela Norvila Valério, companheira de trabalho e mestrado,
À minha família pelo apoio constante,
A todos que direta ou indiretamente contribuíram para a realização desta pesquisa.
6
“Sabemos qual educação não queremos e
temos idéia da educação que queremos.
Precisamos descobrir como iremos
transitar de um lado para o outro.
Se organizarmos o mundo educacional
de tal maneira que tornamos as
diferenças ainda mais profunda,
a educação perde a razão de ser”.
Daniel Schugurensky
7
RESUMO
SANTOS, José Ricardo dos . Avaliação do desempenho dos docentes e dos cursos da Faculdade Estadual de Ciências Econômicas de Apucarana – FECEA: Um Estudo de Caso. 2004. 144p. Dissertação (Mestrado em Engenharia de Produção) – Universidade Federal de Santa Catarina, Florianópolis.
O presente trabalho procura elaborar um instrumento de pesquisa para avaliar
os cursos e os docentes da Faculdade Estadual de Ciências Econômicas de Apucarana. Desta forma os alunos da faculdade responderam um questionário contendo uma auto-avaliação e questões sobre os cursos e desempenho docente. Os dados coletados foram tabulados e analisados através de técnicas de análise multivariada, dentre as quais, aplicou-se análise de componentes principais, análise discriminante, análise de agrupamentos (método de cluster). Ao questionário foi aplicado um teste de consistência para verificar sua confiabilidade através do alfa de Cronbach. As análises utilizadas bem como as questões do questionário permitiram obter um panorama geral das condições dos cursos e dos docentes da instituição e agrupá-los, conforme suas características (similaridades e dissimilaridades) de acordo com os objetivos estabelecidos no trabalho. Com este trabalho levantaram-se propostas de melhoria dos cursos e docentes para facilitar a gestão escolar na tomada de decisão e na qualidade do ensino.
Palavras-chave: Avaliação, questionário, desempenho, multivariada, qualidade do ensino.
8
ABSTRACT
SANTOS, José Ricardo dos. Evaluation of performance the teacher and of the courses of Faculdade Estadual de Ciências Econômicas de Apucarana – FECEA. A study of case. 2004. 144p. Dissertation (Masters in Production Engineering) – Post-Graduation Program in Production Engineering, UFSC, 2004.
This work tries to elaborate a research instrument for evaluation of the courses and professors of “Faculdade Estadual de Ciências Econômicas de Apucarana.” Thus, the college students answered a questionnaire, which contained a self-evaluation test and questions about the courses and performance of the professors. The collected data were compiled and analyzed through multivariate analysis techniques, among them, one that applied analysis of main components, discriminating analysis and analysis of gatherings (cluster method). It was applied a consistency test to the questionnaire in order to check its reliability through Cronbach alpha. The applied analyses as well as the questionnaire propositions allowed us to obtain a general view of the institution courses and professors conditions and to gather them according to their characteristics (similarities and differences) considering the aims established in the work. This work led to proposals that were taken into account for the improvement of the courses and professors in order to facilitate school management when taking decision and in teaching quality. Key words: evaluation, questionnaire, performance, multivariate, teaching quality.
9
SUMÁRIO
1 INTRODUÇÃO....................................................................................................17 1.1 Contextualização................................................................................................17 1.2 Justificativa e Importância do Trabalho...........................................................18 1.3 Objetivos.............................................................................................................19
1.3.1 Objetivo Geral....................................................................................................19
1.3.2 Objetivos Específicos........................................................................................19
1.4 Metodologia........................................................................................................20
1.5 Estrutura do Trabalho........................................................................................20
2 FUNDAMENTAÇÃO TEÓRICA.....................................................................21
2.1 O Provão Veio Para Melhorar............................................................................21
2.2 Principais Programas e Mecanismos da Educação Superior no Brasil........23
2.3 A Revolução Do Ensino Superior.....................................................................24 2.4 O Impacto do Provão no Ensino Superior.......................................................25 2.5 O Provão é um Instrumento de Avaliação.......................................................26
2.6 Novo sistema de avaliação................................................................................30
2.7 Programa Avaliação Institucional Das Universidades Brasileiras – Paiub..................................................................................................................31
2.8 Qualidade Dos Professores..............................................................................34 2.8.1 Avaliação de desempenho do professor de ensino superior............................35
2.8.2 A observação do desempenho.........................................................................36
2.8.3 Avaliação da qualidade do ensino-desafio e compromisso..............................37
2.9 Avaliação Institucional Em Outros Países......................................................44 2.9.1 Histórico da avaliação institucional no Brasil e em outros países....................45
2.9.1.1 Avaliação institucional no Brasil.....................................................................46
2.9.2 Avaliação institucional na Argentina..................................................................47
2.9.3 Avaliação institucional no Canadá.....................................................................47
2.9.4 Avaliação institucional no Chile.........................................................................48
2.9.5 Avaliação institucional na Colômbia..................................................................48
2.9.6 Avaliação institucional na França......................................................................49
2.9.7 Avaliação institucional na Holanda – Países Baixos.........................................49
10
2.9.8 Avaliação institucional na Inglaterra..................................................................51
2.9.9 Avaliação institucional no Japão.......................................................................51
2.9.10 Avaliação institucional do México....................................................................52
2.9.11 Avaliação institucional do Uruguai...................................................................52
2.9.12 Avaliação institucional nos Estados Unidos....................................................53
3 ESTUDO DE CASO..........................................................................................54 3.1 FECEA – Histórico e Descrição da Instituição................................................54 3.2 Estrutura do Instrumento de Coleta de Dados................................................55 3.3 Aplicação do Instrumento de Coleta de Dados...............................................57 3.4 Análise Multivariada...........................................................................................58 3.4.1 Análise de componentes principais...................................................................59
3.4.2 Análise discriminante.........................................................................................61
3.4.2.1 Função discriminante.....................................................................................62
3.4.2.2 Pressupostos da função discriminante...........................................................63
3.4.3 Análise de clusters............................................................................................64
3.5 Confiabilidade do Questionário........................................................................66 3.6 Análise de Correlação........................................................................................68
4 ANÁLISE DOS RESULTADOS.....................................................................70 4.1 Análise da Organização Didático-Pedagógica e Infra-Estrutura do Curso...70 4.2 Análise da Auto-Avaliação do Aluno................................................................73
4.3 Análise do Desempenho Docente.....................................................................76 4.3.1 Análise do questionário.....................................................................................76
4.3.2 Análise dos professores....................................................................................82
4.3.3 Análise dos cursos............................................................................................86
4.3.4 Análise dos departamentos...............................................................................91
4.3.5 Análise dos anos...............................................................................................92
5 CONCLUSÕES E RECOMENDAÇÕES.....................................................93
5.1 Conclusões.........................................................................................................93 5.2 Recomendações.................................................................................................97
11
REFERÊNCIAS BIBLIOGRÁFICAS................................................................98
APÊNDICES.........................................................................................................101
APÊNDICE A – Questionário...................................................................................102 APÊNDICE B – Correlações....................................................................................105
Apêndice B1 – Correlação entre as questões do questionário quanto à organização
didático-pedagógica e infra-estrutura do curso................................106
Apêndice B2 – Correlação entre as questões do questionário quanto à auto-valiação
do aluno..........................................................................................107
APÊNDICE C – Médias dos professores.................................................................108
Apêndice C1 – Comparação das médias dos professores......................................109
Apêndice C2 – Médias das questões por professor.................................................110
APÊNDICE D – Freqüências das questões.............................................................111
Apêndice D1 – Freqüência das questões do curso de Adm. Com. Exterior Diurno.112
Apêndice D2 – Freqüência das questões do 3º Ano Adm. Com. Exterior Diurno....113
Apêndice D3 – Freqüência das questões do 5º Ano Adm. Com. Exterior Diurno....114
Apêndice D4 – Freqüência das questões do curso de Adm. Hospitalar..................115
Apêndice D5 – Freqüência das questões do 2º Ano Adm. Hospitalar.....................116
Apêndice D6 – Freqüência das questões do 3º Ano Adm. Hospitalar.....................117
Apêndice D7 – Freqüência das questões do curso de Ciências Contábeis.............118
Apêndice D8 – Freqüência das questões do 2º Ano de Ciências Contábeis...........119
Apêndice D9 – Freqüência das questões do 4º Ano de Ciências Contábeis...........120
Apêndice D10 – Freqüência das questões do 3º Ano Adm. Com. Exterior Diurno..121
Apêndice D11 – Freqüência das questões do curso de Adm. Pública.....................122
Apêndice D12 – Freqüência das questões do 1º Ano Adm. Pública........................123
Apêndice D13 – Freqüência das questões do 2º Ano Adm. Pública........................124
Apêndice D14 – Freqüência das questões do 5º Ano Adm. Pública........................125
Apêndice D15 – Freqüência das questões do curso de Ciências Econômicas.......126
Apêndice D16 – Freqüência das questões do 1º Ano de Ciências Econômicas.....127
Apêndice D17 – Freqüência das questões do 2º Ano de Ciências Econômicas.....128
12
Apêndice D18 – Freqüência das questões do 3º Ano de Ciências Econômicas.....129
Apêndice D19 – Freqüência das questões do 4º Ano Adm. Com. Exterior Diurno..130
Apêndice D20 – Freqüência das questões do 3º Ano Adm. Pública........................131
Apêndice D21 – Freqüência das questões do curso de Adm. Empresas Diurno.....132
Apêndice D22 – Freqüência das questões do 2º Ano Adm. Empresas Diurno........133
Apêndice D23 – Freqüência das questões do 3º Ano Adm. Empresas Diurno........134
Apêndice D24 – Freqüência das questões do 4º Ano Ciências Econômicas..........135
Apêndice D25 – Freqüência das questões do curso de Secretariado Executivo
Trilingüe.........................................................................................136
Apêndice D26 – Freqüência das questões do 3º Ano de Ciências Contábeis.........137
Apêndice D27 – Freqüência das questões do 5º Ano de Ciências Contábeis.........138
Apêndice D28 – Freqüência das questões do 4º Ano Adm. Empresas Diurno........139
Apêndice D29 – Freqüência das questões do 5º Ano Adm. Empresas Diurno........140
Apêndice D30 – Freqüência das questões do 1º Ano Adm. Hospitalar...................141
Apêndice D31 – Freqüência das questões do 5º Ano Adm. Hospitalar...................142
Apêndice D32 – Freqüência das questões do 1º Ano Adm. Com. Exterior Diurno..143
13
LISTA DE GRÁFICOS
Gráfico 4.1 – Análise de Cluster – Similaridade das questões quanto à organização
didático-pedagógica e infra-estrutura do curso...................................71
Gráfico 4.2 – Média das questões quanto à organização didático-pedagógica e infra-
estrutura do curso................................................................................72
Gráfico 4.3 – Média por curso das questões quanto à organização didático-
pedagógica e infra-estrutura do curso.................................................73
Gráfico 4.4 – Análise de Cluster – Similaridade das questões quanto à auto-
avaliação do aluno...............................................................................74
Gráfico 4.5 – Médias das questões quanto à auto-avaliação do aluno.....................75
Gráfico 4.6 – Médias por curso das questões quanto à auto-avaliação do aluno.....76
Gráfico 4.7 – Análise de Cluster – Similaridade das questões ao desempenho
docente................................................................................................79
Gráfico 4.8 – Análise de componentes principais (2 Fatores) – Similaridade das
questões quanto ao desempenho docente.........................................81
Gráfico 4.9 – Análise de componentes principais (3 Fatores) – Similaridade das
questões quanto ao desempenho docente.........................................82
Gráfico 4.10 – Clusters formados nas raízes 1 e 2 da análise discriminante...........84
Gráfico 4.11 – Média das questões quanto ao desempenho docente para os quatro
grupos determinantes........................................................................85
Gráfico 4.12 – Média por curso das questões quanto ao desempenho docente......87
14
LISTA DE FIGURAS
Figura 4.1 – Comparação das médias dos cursos quanto ao desempenho dos
docente..................................................................................................91
Figura 4.2 – Comparação das médias dos departamentos quanto ao desempenho
dos docentes.........................................................................................92
Figura 4.3 – Comparação das médias dos anos quanto ao desempenho
docente..................................................................................................92
15
LISTA DE TABELAS
Tabela 4.1 – Confiabilidade das questões quanto à organização didático-pedagógica
e infra-estrutura do curso......................................................................70
Tabela 4.2 – Confiabilidade das questões quanto à auto-avaliação do aluno...........74
Tabela 4.3 – Confiabilidade das questões quanto ao desempenho docente............77 Tabela 4.4 – Confiabilidade das questões quanto a metodologia e técnicas de
ensino....................................................................................................77
Tabela 4.5 – Confiabilidade das questões quanto a postura ética e profissional......78 Tabela 4.6 – Confiabilidade das questões quanto ao processo de ensino-
aprendizagem.......................................................................................78
Tabela 4.7 – Freqüências das respostas para cada questão quanto ao desempenho
docente.................................................................................................79
Tabela 4.8 – Agrupamentos formados pela análise de clusters................................80
Tabela 4.9 – Autovalores dos componentes principais para as questões quanto ao
desempenho docente...........................................................................81
Tabela 4.10 – Critérios para classificação.................................................................82
Tabela 4.11 – Funções de Classificação...................................................................83
Tabela 4.12 – Matriz de Classificação.......................................................................83
Tabela 4.13 – Classificação das questões nos grupos..............................................84
Tabela 4.14 – Média por curso das questões quanto ao desempenho docente.......86
16
LISTA DE SIGLAS E ABREVIATURAS
ADM. – Administração
ANDIFES – Associação Nacional dos Dirigentes de Instituições Federais de
Ensino Superior.
BC MISSION – British Council Mission
CAPES – Coordenação de Aperfeiçoamento de Pessoal de Ensino Superior
CNPQ – Conselho Nacional de Desenvolvimento Científico e Tecnológico
COM. - Comércio
ENC – Exame Nacional de Cursos
IES – Instituições de Ensino Superior
IFES – Instituições Federais de Ensino Superior
MEC – Ministério da Educação e do Desporto
PAUIB – Programa de Avaliação Institucional das Universidades Brasileiras
PUCRS – Pontifícia Universidade Católica do Rio Grande do Sul
SESu – Secretaria de Educação Superior
UFC – University Funding Council
UNB – Universidade de Brasília
17
1 INTRODUÇÃO
1.1 Contextualização
Os avanços que ocorrem em todas as áreas de atividade humana se
acentuaram na segunda metade do século XX e se transformaram em dinâmicas
cada vez mais velozes nas duas últimas décadas, acentuando assim as exigências
no que refere a qualidade de produtos e serviços. A preocupação em oferecer o
melhor ao consumidor passou a ser sinônimo não apenas de concorrência, mas
especialmente de referência e de crescimento com segurança.
Trata-se da sociedade pós-moderna, melhor informada pelo volume de
comunicação colocada à sua disposição, com um leque de opção muito mais amplo,
se comparado com o que tinha uma geração anterior.
A educação é sem dúvida a maior responsável por estas transformações. A
ciência e a tecnologia são aplicadas para se alcançar resultados de melhor
qualidade em tudo que a sociedade contemporânea necessita. Sabe-se, portanto,
que para se obter patamares melhores de qualidade de vida é imprescindível que as
instituições educacionais dos sistemas tanto público quanto privado ofereçam
qualidade de ensino.
No mesmo espaço das transformações mencionadas surgiram exigências e
mesmo denúncias em relação à qualidade do ensino oferecido em todos os graus.
No caso dos cursos de graduações, criados e instalados, entre as décadas de 1960
e 1980, utilizaram-se de critérios políticos e não educacionais, fazendo com que a
qualidade do ensino fosse prejudicada. Isto ocorreu principalmente devido a
aspectos de distribuição geográfica, já que se trata de um país com diversidades
sociais e culturais peculiares. Vários outros fatores também contribuíram para que a
qualidade do ensino decaísse. Entre eles as condições de preparo dos professores,
a motivação em relação aos salários, a ausência de estruturas adequadas como
bibliotecas e laboratórios.
Assim, as condições qualitativas do ensino decaíram vindo a não atender as
exigências daqueles que viriam utilizar-se dos serviços oferecidos pelos profissionais
colocados no mercado por estas instituições. Mas, esta decadência não ocorreu
18
somente no interior do país. Muitas instituições educacionais dos centros maiores e
mesmo algumas tradicionais tiveram também problemas com a qualidade de
ensino.
A partir do momento em que a questão passou a ser mais discutida, as
autoridades que ocupam suas funções no governo, os estudiosos, os responsáveis
pela área da educação e a sociedade comprometida com as mudanças necessárias
para melhorar aquilo que não é satisfatório, passaram a discuti-la e a apresentar
possíveis soluções. Entre as propostas apresentadas, a de maior ênfase foi a
criação de uma avaliação permanente dos cursos e especificamente do corpo
docente.
Em 1996 foi criado pelo Ministério da Educação o chamado “Provão”, com o
objetivo de avaliar o desempenho dos alunos. Neste caso evidenciam-se variáveis
que atingem alunos, professores e a instituição como um todo.
É sobre o contexto geral da avaliação das instituições educacionais,
abordando o que é realizado no Brasil e também em outros países que se pretende
desenvolver o presente estudo.
1.2 Justificativa e Importância do Trabalho
Quando se tem um problema para resolver quanto maior o índice de
conhecimento sobre ele, mais fácil se torna a sua solução.
Embora a questão da avaliação do ensino superior já seja discutida há
algumas décadas em outros países e vem se tornando melhor conhecida por grande
parte da sociedade brasileira, ela ainda é um desafio a ser mais profundamente
conhecido em suas causas e conseqüências para que se possa apresentar
propostas permanentes para resolvê-la a contento.
Diante desta exposição tem-se a importância do presente trabalho que visa
aprofundar conhecimentos a respeito da avaliação institucional de um
estabelecimento de ensino superior. Mas, para que isso aconteça, é necessário que
se trabalhe uma visão geral a respeito do assunto, permitindo comparações e
aproveitamentos relacionados com as mesmas, buscando assim, alcançar
19
resultados de melhor qualidade no contexto da educação no nível de graduação,
com extensão a cursos posteriores.
Trata-se, sem a menor dúvida, de um desafio estudar com detalhes todos os
aspectos que envolvem o conhecimento de como uma instituição esteja
desempenhando sua função educacional. Por isso, o presente estudo envolve um
estudo de campo em que os professores, os cursos são avaliados e os alunos fazem
uma auto-avaliação. Certamente, após a realização deste estudo, é possível ter uma
visão diferente tanto no campo teórico como prático, de como se encontra a
qualidade de ensino superior na instituição tomada como amostra, com
comparações estabelecidas em relação a outras, tendo como base o que a teoria
mostra na literatura consultada.
1.3 Objetivos
1.3.1 Objetivo Geral
Avaliar o desempenho dos docentes e a qualidade dos cursos da Faculdade
Estadual de Ciências Econômicas de Apucarana através de coleta de informações
dos alunos (questionário), para posteriormente sugerir soluções.
1.3.2 Objetivos Específicos
•Elaborar um modelo de avaliação da qualidade de ensino realizado na
Faculdade Estadual de Ciências Econômicas de Apucarana, em uma
pesquisa de campo realizada entre os alunos;
•Verificar a avaliação que os alunos fazem quanto à organização didático-
pedagógica e infra-estrutura do curso;
•Verificar a auto-avaliação feita pelos alunos;
20
•Verificar o desempenho do corpo docente, na avaliação que os alunos
fazem a respeito da metodologia e técnicas de ensino, postura ética e
profissional e processo de ensino-aprendizagem.
•Diagnosticar os pontos negativos e positivos quanto à avaliação do curso,
auto-avaliação dos alunos e avaliação do corpo docente.
1.4 Metodologia
A realização deste estudo se deu através de uma dupla metodologia: a
pesquisa bibliográfica e a pesquisa de campo. Na realização da primeira foi feito
inicialmente um levantamento da literatura que trata do tema, numa diversidade de
livros, revistas, boletins de seminários e congressos e opiniões das mais diferentes
que apresentaram informações a respeito do assunto. Este material levantado foi
lido, analisado, citado e comentado de forma que representou ao mesmo tempo o
entendimento e o posicionamento a respeito dos conteúdos conhecidos. Na segunda
foi elaborado um questionário, para os discentes da Faculdade Estadual de Ciências
Econômicas de Apucarana, que responderam questões quanto à organização
didática pedagógica e a infra-estrutura do curso, quanto a auto avaliação e quanto
ao desempenho docente. Os dados colhidos foram tabulados e analisados,
permitindo a aquisição de conhecimentos a respeito da avaliação realizada nesta
instituição e conseqüentemente a elaboração de uma proposta em relação ao que
precisa ser mudado e o que pode ser mantido.
1.5 Estrutura do Trabalho
Este trabalho foi estruturado com a presente Introdução, seguida da
Fundamentação Teórica, Estudo de Caso; Análises dos resultados, Conclusões e
recomendações para futuros trabalhos; e, finalmente, as Referências bibliográficas e
os Apêndices.
21
2 FUNDAMENTAÇÃO TEÓRICA
2.1 O Provão Veio Para Melhorar
Em 1996, o governo federal tomou a decisão de investir na avaliação dos
cursos superiores no Brasil buscando avanços na qualidade de ensino. A medida
tomada pelo MEC, com a entrada em vigor do Decreto 2026, de 10 de outubro de
1996, passou a exigir todas as medidas necessárias para que o ensino superior
passasse a ser avaliado tanto no que refere a instituições e aos corpos docente,
discente e técnico-administrativo.
Catani, Oliveira (2002, p. 59), a avaliação da educação superior no Brasil
ganhou maior relevo na década de 90, especialmente a partir do primeiro mandato
do governo Fernando Henrique Cardoso (1995-1998). Desde então vem sendo
constituído amplo sistema que contempla um conjunto de mecanismos e
procedimentos de avaliação, incluindo alguns que já existiam, como é o caso da
sistemática de Avaliação dos Programas de Pós-Graduação, o Programa de
Avaliação Institucional das Universidades Brasileiras (PAIUB) e as Avaliações de
Cursos de Graduação pelas Comissões de Ensino.
De um modo geral, o sistema de avaliação do ensino superior vem adquirindo
grande centralidade no processo da reforma, principalmente se levar em
consideração os procedimentos de avaliação introduzidos nos anos recentes, tais
como o Exame Nacional de Cursos (Enc), iniciado em 1996, e a Avaliação das
Condições de Oferta de Cursos de Graduação, a partir de 1997. Além desses
instrumentos, o governo tem produzido censos anuais, com indicadores quantitativos
globais, que fornecem estatísticas da evolução do sistema e da situação
particularizada de cada IES. Vale lembrar, também, que no caso das IES, mantidas
pelo executivo Federal, o volume de informações que vem sendo obtido é ainda
maior, uma vez que o governo dispõe de sistemas de acompanhamento e controle
de pessoal e de aplicação dos recursos orçamentários, além de contar com as
informações obtidas através da Gratificação de Estímulo à Docência (Ged),
programa criado em 1998.
Observa-se, portanto, que o governo Fernando Henrique Cardoso vem
instituindo um sistema de avaliação, que privilegia o ensino de graduação – sistema
22
esse articulado à política de expansão do ensino superior que está sendo praticada
no país. No contexto dessa expansão, a avaliação tem a incumbência de zelar pela
qualidade dos cursos e das instituições, impondo uma cultura de aprimoramento “.
Segundo o ministro da educação, Paulo Renato Souza, a “política de avaliação e
expansão do ensino superior” adotada, devido às “distorções do sistema” e aos
“baixos percentuais de oferta”, permite que ocorra uma “abertura de novos cursos”,
sem restrição ou cerceamentos corporativos de algumas áreas profissionais. Para
ele, “as limitações orçamentárias à expansão da esfera pública, onde tentaremos
ampliar e diversificar a oferta por meio de projeto de autonomia universitária [...], faz
com que dependamos da iniciativa privada” (Souza, 1999, 2000b).
A vinculação da expansão do ensino superior com um determinado tipo de
avaliação teve início com o ENC. Todavia, foi melhor explicitada em 10 de outubro
de 1996, quando o Presidente da República baixou o Decreto nº 2.026/96 que
“estabelece procedimentos para o processo de avaliação dos cursos e instituições
de ensino superior”. Esse Decreto promove ampla reorganização do sistema de
avaliação do ensino superior, inclusive ajustando os mecanismos avaliativos
existentes anteriormente. Os procedimentos indicados de avaliação dos cursos e
instituições do ensino superior, conforme o art. 1º, são os seguintes:
I – análise dos principais indicadores de desempenho global do sistema
nacional de ensino superior, por região e unidade de federação, segundo as
áreas do conhecimento e o tipo ou a natureza das instituições;
II – avaliação do desempenho individual das instituições de ensino superior,
compreendendo todas as modalidades de ensino, pesquisa e extensão;
III – avaliação do ensino de graduação, por curso, por meio da análise das
condições de oferta pelas diferentes instituições de ensino e pela análise dos
resultados do Exame Nacional de Cursos;
IV – avaliação dos programas de mestrado e doutorado, por área do
conhecimento.
Ocorreram reações diversas por parte de alunos e professores, de interessados
diversos, inclusive políticos para que não fosse implantado o sistema de provão, por
exemplo. Mas, entendo que seja preciso considerar que a iniciativa no sentido de
oferecer a oportunidade de melhorar a qualidade de ensino, foi tomada. As
manifestações iniciais, as negativas no sentido de não permitirem que se
realizassem as provas foram diminuindo com o decorrer do tempo.
23
2.2 Principais Programas e Mecanismos da Educação Superior no Brasil
De acordo com Catani, Oliveira (2002, p. 63), em 1998, a Capes promoveu
alterações na sistemática de avaliação. Até aquela data, eram atribuídos conceitos
de A a E aos programas, baseados na análise das comissões de especialistas, com
validade de dois anos. Na nova sistemática de avaliação, a classificação passou a
ser composta por sete níveis de conceitos – de 1 a 7 -, sem frações. A avaliação
passou, também, a ser efetuada por programa de pós-graduação e não mais
separadamente por curso (mestrado ou doutorado). Além disso, decidiu-se que
conceitos superiores a cinco somente poderiam ser atribuídos a um programa que
mantivesse curso de doutorado. Na primeira avaliação, dentro da nova sistemática,
os parâmetros estabelecidos pelas Comissões de Área para compor o “perfil de um
Curso A” corresponderam ao perfil dos programas com conceito cinco, até então.
Passaram a ser avaliados também os cursos de pós-graduação, para melhorar
determinadas falhas que vinham acontecendo e estavam prejudicando os cursos de
graduação devido a qualidade dos professores que constituíam o corpo docente
destes.
Os resultados da avaliação da pós-graduação, em 1998, foram amplamente
divulgados no meio acadêmico e na mídia, em geral. Destacaram-se os programas
melhor classificados, especialmente aqueles considerados de nível internacional.
Nessa avaliação, 23 programas, de diferentes áreas, obtiveram nota sete, sendo
considerados como de excelência. Em geral, tais programas foram bem avaliados
nos quesitos: proposta do programa, corpo docente, atividades de pesquisa,
atividades de formação, corpo docente, teses e dissertações e produção intelectual
(Revista Época, apud CATANI, OLIVEIRA, p.64, 2002). Todos os programas que
receberam a nota sete pertenciam às regiões sul e sudeste, com destaque para a
Universidade de São Paulo (USP) que teve dez programas (65% do total) com a
nota máxima.
A divulgação dessa variação foi acompanhada de muitos protestos,
especialmente daqueles programas que foram rebaixados em seus conceitos.
Muitos programas recorreram da avaliação obtida junto à Capes. Os embates
promoveram, inclusive, a destituição de Comissões de Área. Além desses
24
desgastes, parece ter sido intensificada a luta no campo em prol de uma maior
distinção, o qual fatalmente implicará numa maior competição.
2.3 A Revolução Do Ensino Superior
A análise realizada a respeito do provão depende muito da pessoa que a
realiza. É evidente que ainda há críticos que se orientam pelo aspecto negativo.
Porém, é bom observar que esses não apresentam propostas alternativas. Pelo
menos tem-se um programa de avaliação que passa por vários processos, entre eles
o provão realizado anualmente com os alunos.
Segundo Souza (2000, p. 53), nós temos afirmado que o Exame Nacional de
Cursos – a parte mais visível de um amplo sistema de avaliação – promoveu uma
revolução na Universidade brasileira. Está terminando a era do curso superior que
só funciona para entregar diplomas. Atualmente, a sociedade, o mercado, a
velocidade com que se criam novas tecnologias exigem qualidade, cabeças
preparadas para esses desafios.
Nenhum programa, nenhuma política de desenvolvimento, têm sucesso, hoje,
se não levar em conta a necessidade, sempre urgente, da formação de profissionais
altamente qualificados e em permanente aprendizado. O Brasil precisa, cada vez
mais, de gente capacitada a gerir e fazer funcionar os novos meios de produção que
aparecem todos os dias.
Souza ainda reforça que esse profissional só pode ser formado em centros de
ensino e pesquisa muito bem qualificados e criticamente fiscalizados. Para o autor o
Provão é um dos meios que vão nos levar nessa passagem de um sistema de
ensino, por vezes simples reprodutor de conhecimentos, para uma Universidade
criativa e geradora de novos saberes e dos quadros profissionais indispensáveis à
transformação do Brasil e à melhoria da qualidade de vida dos brasileiros.
É importante frisar que o Provão não se preocupa apenas na área de avaliação
da aprendizagem. Todos os aspectos que proporcionam a melhoria na educação a
na formação de profissionais nas diferentes áreas, são tratados criteriosamente.
A modernização do nosso sistema de ensino, desde o nível fundamental, é
prioridade de governo. Várias reformas foram implementadas ou estão em curso. Em
25
abril de 2001, os ministérios da Educação e da Ciência e Tecnologia criaram um
fundo que geraria, em 2001, R$ 1,2 bilhão para aplicação em programas de melhoria
da estrutura física das instituições federais do ensino superior. A esse valor,
poderiam ser somados recursos de fundos para financiamento de pesquisa e bolsas
de estudos cuja criação foram proposta ao Congresso Nacional.
Ainda segundo Souza, é preciso formar gente que veja além da especialidade
escolhida como campo de atuação profissional. A estratégia de crescimento do país
não pode ficar assentada apenas na capacidade de operarmos novas máquinas. O
sistema educacional moderno deve formar cidadãos na sua plenitude. Cidadãos
bem formados vão gerar uma elite dirigente mais capaz de trabalhar pelo
desenvolvimento do país com verdadeiro espírito público, um empresariado
consciente do papel social de suas organizações e trabalhadores preparados para
os desafios do novo século.
2.4 O Impacto do Provão no Ensino Superior
O modelo de Provão adotado no Brasil não é original, já é conhecido em vários
países do mundo. Portanto, o modelo apenas foi adaptado para a realidade
brasileira.
Segundo Castro (1998) , a Europa está revendo a sistemática implantada há
tantos anos um pouco anterior a Thatcher. A autora afirma que a Holanda está
revendo seu sistema de avaliação do ensino superior. Para tanto grandes debates
estão sendo realizados sobre o tema através do Ministério da Educação. Castro
ainda menciona o fato de ter participado de um seminário na Bulgária recentemente
onde foram discutidos intensamente os problemas ligados à auto-avaliação.
Há, em alguns países europeus, um certo retorno à avaliação externa
centralizada, mas também não se têm respostas como também não se tem muita
clareza sobre qual processo de avaliação é o mais adequado. Desta forma o que é
mais importante na avaliação é provocar o debate,provocar mudanças e melhorias.
Para Castro nunca teremos um sistema de avaliação que seja absolutamente
auto-suficiente, que seja absolutamente inatacável. Ao contrário, o autor acha que
todos os sistemas de avaliação precisam ser questionados, para que possam estar
26
em permanente interlocução com as instituições, com diferentes atores, para que
possamos atingir aquilo que queremos, ou seja, a melhoria da qualidade da
educação.
O Provão é uma avaliação que tem como objetivo avaliar o curso a partir do
desempenho médio dos alunos. Assim, com certeza ele agitou o Ensino Superior no
Brasil, pois tínhamos instituições, tanto nos grandes centros como no interior, que
estavam acomodadas e simplesmente desempenhavam o papel de distribuir
diplomas. Com essas novas formas de avaliar alunos, professores e instituição,
todos começaram a se preocupar com o desempenho de sua instituição no Exame
Nacional de Cursos. Desta forma, os alunos reivindicam uma qualidade melhor das
bibliotecas, dos laboratórios, investimento em infra-estrutura e qualificação dos
professores.
2.5 O Provão é um Instrumento de Avaliação
Diante das exigências de qualidade de ensino, alguma coisa teria que ser feita.
Não havia como permanecer estático diante de uma situação quase caótica, que
vinha prejudicando a formação dos profissionais em quase todas as áreas, pelo fato
de não se ter informações suficientes para avaliar e propor mudanças. Logo, o
Provão passou a ser um ótimo instrumento de avaliação que deu início a importantes
mudanças na qualidade de ensino no Brasil.
De acordo com Ramos (2002, p. 24), foi pensando assim que, a partir de 1996,
o Ministério da Educação implementou dois importantes instrumentos para aferir a
qualidade do ensino superior: a Avaliação das Condições de Oferta e o Exame
Nacional de Cursos, mais conhecido como Provão. A cada ano, essas duas
ferramentas vem se consolidando no cenário da educação superior, promovendo
maior reflexão e responsabilidade social por parte das instituições.
Vários cursos que regularmente vêm obtendo o conceito máximo “A” têm
discutido os resultados do exame com seus alunos, visando a um aprimoramento
permanente dos conteúdos curriculares e uma maior reflexão acerca do ensino
oferecido. Contudo, apesar dos avanços alcançados, o exame precisa ser
aperfeiçoado em alguns aspectos.
27
Para o autor, em primeiro lugar, o Provão não pode ser visto pela sociedade
como o instrumento de avaliação, de forma que seu objetivo inicial seja preservado,
ou seja, o de complementar as avaliações mais abrangentes das instituições. Dois
outros aspectos que necessitam atenção especial é o fato de que o boicote por parte
dos alunos e o crescente custo de aplicação do exame não interfiram na
interpretação dos resultados institucionais. Como todo processo de avaliação,
ajustes são sempre necessários e, o autor não tem dúvida de que o Provão é parte
integrante do arcabouço da avaliação institucional brasileira.
Para Souza (2001, p. 8), “quem tem competência se estabelece, diziam nossos
avós.” Segundo o autor, isto não é coisa passado e sim do futuro. Souza ainda
explica que com a sociedade globalizada exigindo cada vez mais qualidade, e o
mercado de trabalho caçando os talentos com maior nível de excelência, é
fundamental investir na qualidade para não ficar em desvantagem. O autor ainda
reforça que só um curso superior de bom nível poderá formar profissionais bem
preparados para os desafios do mundo moderno.
Foi nesse contexto que o ministro da Educação, Paulo Renato Souza, propôs e
o Congresso Nacional aprovou a criação, em 1995, do Exame Nacional de Cursos,
que logo passou a ser chamado de Provão, um instrumento para avaliar os cursos
superiores brasileiros, diagnosticar as deficiências e contribuir para melhorar a
qualidade da educação (Natal, Guedes, Mello, p.8, 2001).
Ainda segundo os autores, superadas as reações iniciais (mesmo na
universidade as grandes inovações provocam desconfianças e o boicote de alguns
mais refratários à avaliação), o Provão está consolidado como um dos principais
indicadores da qualidade e um importante agente de transformação do ensino
superior no Brasil. Houve aumento do número de professores com mestrado e
doutorado. E mais da metade dos 131 cursos que ficaram com conceito D, ou E, no
ano em que foram incluídos na avaliação, tiveram desempenho melhor no Provão
2000.
“Se o provão tivesse sido implantado há dez anos, hoje as instituições estaria
bem melhores”. A opinião é da reitora do Centro Universitário da Grande Dourados,
de Mato Grosso do Sul, professora Rosa Maria D’Amato de Déa. “No início, houve
boicote, mas hoje fazemos palestras orientando, explicando que o diploma que eles
obterão é para a vida toda e nele estará o nome da instituição onde se graduaram”,
afirmou De Déa (2001)
28
Góes, Pires Jr ( p.6, 1998) explica que na época do Exame Nacional de
Cursos, os jornais ficam abarrotados com notícias sobre o Provão. Seis meses
depois, a história se repete com a divulgação dos resultados. É uma visão limitada
do que realmente está acontecendo no ensino superior. A grande mudança ainda é
um fato pouco conhecido. Desde a publicação do decreto que criou o Sistema
Nacional de Avaliação do Ensino Superior, que o Ministério da Educação e as
universidades brasileiras vêm trabalhando para descobrir formas para avaliar todos
os aspectos da educação de terceiro grau.
“O Provão oferece um indicador importante sobre a formação do aluno. Mas,
‘para avaliar com precisão a universidade, usamos outros instrumentos compatíveis
com o grande número de atividades desenvolvidas por elas”, defende o secretário
de Ensino Superior do Ministério (Neves, apud GÓES, PIRES Jr, p.6, 1998).
Além de saber o que o aluno aprendeu, é importante averiguar as condições
em que o aprendizado ocorreu. Qualidade da biblioteca e dos professores,
laboratórios e equipamentos disponíveis e projeto pedagógico estão entre os
aspectos que precisam ser verificados. As visitas das chamadas Comissões de
Especialistas têm esse objetivo.
Cada curso possui uma comissão, formada por profissionais de todas as
regiões do país com experiência acadêmica e de mercado. Antes de ir até a
instituição, o grupo de especialistas se encontra e define alguns patamares mínimos
que toda faculdade precisa preencher, como as condições da estrutura física dos
laboratórios. “Os critérios ajudam a tornar a avaliação mais objetiva com a garantia
de que todas as instituições tenham o mesmo tratamento”, explica Neves(apud
GÓES, PIRES Jr, 1998).
Os primeiros cursos a receberem a visita das comissões foram aqueles que
obtiveram conceito D ou E no primeiro Provão. A missão do grupo não era punir,
mas verificar os aspectos que não foram medidos pelo exame e, principalmente,
fazer sugestões para melhoria desses cursos.
Para os autores o curso de Administração da Universidade do Contestado, em
Curitibanos, Santa Catarina, foi um dos que recebeu a visita a comissão, depois de
ter ficado com conceito E no primeiro Provão, Werner Bertoldi , professor da
faculdade, conta que ficou surpreso com a praticidade demonstrada pelo grupo.
Dizia o professor Werner Bertoldi (1998) “tínhamos medo de que a visita
virasse mais um relatório sem resultados. Mas os especialistas nos fizeram
29
sugestões concretas que pudemos utilizar imediatamente”, lembra. E completa:
“Eles mostraram que vieram aqui não para criticar, mas para contribuir”. O resultado
da primeira rodada de visitas aos cursos de Administração, Direito e Engenharia Civil
produziu um relatório com informações completas sobe a faculdade.
Outra novidade que surpreendeu as universidades citadas: os critérios
adotados para classificar o corpo docente. Muitas escolas, especialmente as
particulares que obtiveram conceito A pelo desempenho de seus alunos no 1º
provão, criticaram o fato de a nota dos professores ter sido baseada somente na
titulação, número de horas dedicadas à sala de aula e à pesquisa.
Por isso, decidiu-se que, nos cursos voltados principalmente para formação de
mão-de-obra qualificada para o mercado de trabalho, a experiência profissional dos
docentes fora da academia também seria considerada. Caso da Administração,
Direito e Engenharia Civil.
Os autores afirmam que a próxima meta seria ampliar a visita das comissões
para todos os cursos participantes do Provão, independentemente do conceito
recebido, até cobrir a totalidade das faculdades do país, em todas as áreas de
conhecimento. Atualmente, as comissões de especialistas já começaram a conhecer
todas as escolas que participaram do Exame Nacional de Cursos no ano passado.
O Exame Nacional de Cursos realizado através do Provão, em áreas diferentes
de conhecimento selecionada a cada ano em instituições de todo o país, é de tal
forma eficiente que está sendo mantido pelo governo atual.
Mas o esforço para avaliar o ensino superior não começou com o Provão ou o
decreto presidencial. Desde 1992, várias universidades mantinham programas de
avaliação institucional, ou seja, programas que analisam o conjunto de atividades
desempenhadas pela instituição. As universidades federais de Brasília, Minas, Rio
Grande do Sul, Ceará e Unicamp são apenas alguns exemplos de escolas que
desenvolveram formas próprias de auto-avaliação.
30
2.6 Novo Sistema de Avaliação
De acordo com a Lei nº 10.861, de 14 de abril de 2004 fica instituído um novo
Sistema Nacional de Avaliação da Educação Superior (SINAES) estará substituindo
o Exame Nacional de Cursos (ENC), popularmente chamado de Provão.
A avaliação das instituições de educação superior terá por objetivo identificar
o seu perfil e o significado de sua atuação, por meio de suas atividades, cursos,
programas, projetos e setores, considerando as diferentes dimensões institucionais,
dos cursos de graduação e do desempenho acadêmico de seus estudantes, nos
termos do art. 9º, VI, VII e IX, da Lei nº 9.394, de 20 de dezembro de 1996.
Para Gama(2004) o Sinaes é um sistema mais completo que terá como
enfoque central a instituição, onde será composto por quatro instrumentos de
avaliação: auto-avaliação institucional, avaliação institucional externa; avaliação das
condições de ensino (ACE) e um Processo de Avaliação Integrada do
Desenvolvimento Educacional e da Inovação da Área (PAIDEIA), que terá uma
prova aplicada aos alunos, por amostragem, no meio e no final do curso, as
principais áreas de conhecimentos: ciências humanas, exatas, tecnológicas e
biológicas e da saúde.
Ainda para Gama, ao contrário do Provão, seu objeto de avaliação está
voltado para o trabalho pedagógico e científico, em seu sentido técnico e formativo,
e para as atividades mais diretamente vinculadas aos compromissos sociais da
instituição. Em sua abrangência procura abarcar “as relações sociais e as condições
de trabalho, a eficiência administrativa e a eficácia dos processos interpessoais que
se desenvolvem nas distintas instituições” e, da mesma forma, as condições de
sustentabilidade e continuidade infra-estrutural, os fluxos de informação, e
funcionamentos das câmaras, conselhos, comissões e outros colegiados. Trata,
portanto, de avaliar como as IES desenvolvem o ensino, formam, promovem e
inserem seus profissionais no mercado de trabalho, integram teoria e prática, e como
atendem a demandas sociais imediatas.
31
2.7 Programa Avaliação Institucional Das Universidades Brasileiras – Paiub
O PAIUB surge das bases universitárias. A Associação Nacional de Dirigentes
das Instituições Federais de Ensino Superior (ANDIFES) reivindica para si a tarefa
da avaliação adiantando-se ao Estado, propondo ao Ministério da Educação um
Programa de Avaliação, que é aceito. Tal programa caracteriza-se por ter dotação
financeira própria, livre adesão das universidades através da concorrência de
projetos e princípios de avaliação coerentes com a posição emancipatória e
participativa.
Com duração média de dois anos, o PAIUB estabelece três fases centrais para
o processo a ser desenvolvido em cada universidade: Avaliação Interna, Avaliação
Externa e Reabilitação. Os resultados da primeira e da segunda faze, ou seja, da
Auto-Avaliação por seu “segmentos constitutivos” e da Avaliação Externa por experts
das áreas do conhecimento e/ou provedores de informações da comunidade externa
(representantes de sindicatos, de associações profissionais, usuários das profissões
e egressos), são discutidos posteriormente no intuito de estabelecer ações para a
melhoria da qualidade dos cursos e restabelecimento de seu projeto pedagógico e
de desenvolvimento. No 1º ciclo avaliativo proposto, o PAIUB dedicou-se ao ensino
de graduação, uma vez que a pesquisa e a pós-graduação já eram
sistematicamente avaliadas pelo MEC/Capes/CNPq ( Leite, Tutukian, Holz, 2000, p.
35).
Os autores explicam que o controle do processo de avaliação pertence a cada
universidade que livremente aderiu ao programa e teve seu projeto aprovado pelos
pares indicados pela Comissão Nacional de Avaliação. A supervisão do programa
cabe ao SESu/MEC, que repassa os recursos pelo Comitê Assessor do PAIUB às
universidades que prestam contas, via relatórios técnicos e financeiros, das ações
desenvolvidas e dos gastos realizados. Paralelamente ao desenvolvimento dos
projetos em cada universidade ou IES, o Ministério da Educação reúne
esporadicamente comissões de estudo para a definição de metodologias comuns de
avaliação. Concluíram-se, assim, os trabalhos de evasão, retenção e diplomação no
conjunto das universidades públicas. O objetivo foi o de perseguir uma linguagem
comum que permitisse não o ranqueamento de instituições, mas o estabelecimento
32
de diagnósticos com unidade e metodologias comuns, do conhecimento de todos.
Além disso, o PAIUB prevê o uso de indicadores selecionados que servem à
Avaliação Interna e Externa e permite, respeitando a identidade institucional e sua
globalidade, repensar objetivos, compromissos e orientar as mudanças necessárias.
Segundo os autores o Estado avaliativo mostra-se ambíguo, pois por um lado
age como colonizador, impondo seus decretos, criando secretarias de avaliação,
comissões de elaboração de provas e avaliação de exames. Por outro lado, acolhe o
PAIUB, destina recursos e mantém em funcionamento um Comitê Assessor PAIUB
em diálogo com a ANDIFES e as demais associações. No entanto, não devemos
menosprezar a atuação do Estado, pois sem dúvida a avaliação extrapolou o
simples fato de ser um organizador qualificado que permite ver com objetividade os
problemas, os pontos fortes e fracos das universidades, visando à correção de
trajetórias.
Em 1993, as entidades representantes dos segmentos público e privado do
ensino superior e o Ministério resolveram criar um grupo de trabalho para propor
uma forma única de auto-avaliação que poderia ser usada por qualquer universidade
brasileira. Do resultado nasceu o PAIUB – Programa de Avaliação Institucional das
Universidades Brasileiras. O governo reservou recursos para bancar os gastos com
o processo. As faculdades que aderiram as idéias apresentavam um projeto. Depois
de aprovado, recebiam o dinheiro para aplicar a avaliação (Góes, Pires Jr, p.6,
1998).
“Durante algum tempo havia um conflito entre a filosofia de avaliação que o
ministério queria implantar com o provão e o modelo proposto do PAIUB”, diz Belloni
(Apud GÓES, PIRES JR, (1998), uma das criadoras do programa e pesquisadora da
Faculdade de Educação da UnB. “Queríamos pesar todos os aspectos juntos e
acreditávamos que o MEC estava disposto a medir isoladamente o desempenho dos
alunos”, explica.
As divergências acabaram sendo solucionadas com a inclusão do PAIUB no
Sistema Nacional de Avaliação. Luiz Roberto Curi, do Departamento de Políticas do
Ensino Superior, acompanhou o processo de integração do PAIUB. Ele diz que
houve algumas adaptações na sistemática do programa para que o resultado fosse
considerado juntamente com os outros instrumentos de avaliação do ministério.
Ainda segundo os autores à adesão permanece sendo voluntária, mas com
uma grande diferença: é preciso a aprovação do colegiado maior da instituição. Em
33
seu formato original, o PAIUB permitia que um departamento participasse e outro
não. Com a nova regra, espera-se que exista um compromisso com toda a
instituição em se avaliar. Como acontece com o resultado do Provão, o PAIUB
também teria a partir de 1998 uma divulgação periódica. A expectativa é de que 140
escolas participariam a partir de 1998, sendo 40 públicas e 100 particulares.
O Programa de Avaliação Institucional das Universidades Brasileiras – PAIUB,
criado antes da criação do Provão foi aproveitado no sentido de garantir avaliar os
cursos, os alunos e especialmente as instituições.
O PAIUB desenvolvido desde 1994, envolve a SESu/MEC e mais de 90
instituições de ensino superior. Existe, portanto, uma significativa experiência e
competência, construída no seio das IES’s, com apoio institucional e financeiro do
próprio MEC, que não pode ser desconsiderada ou substituída por uma prova
circunstancial, reduzindo a dimensão do processo avaliativo e as expectativas de
mudança institucional dele decorrentes (Dias Sobrinho, p.11, 1996).
Segundo Leite, Tutukian, Holz (p.36, 2000) a unidade de análise do PAIUB, no
1º ciclo avaliativo, foi o curso de graduação, não de departamento. O curso de
graduação é visto em suas relações com a pesquisa e a pós-graduação, a extensão
e a gestão acadêmica. Em cada curso se examinam quantitativa e qualitativamente
as relações entre corpo docente, discente, técnico-administrativo, currículo, as
instalações físicas, os laboratórios e as bibliotecas, além das relações de cada curso
com a comunidade externa à universidade, aí incluído o mercado profissional. Em
1998 o 1º ciclo avaliativo do PAIUB estava em andamento, com ritmos diferenciados.
Naquela época, 138 das 144 universidades/IES brasileiras aderiram ao mesmo.
Conquanto esse programa tenha sido ainda um projeto piloto, ele é visto como parte
do sistema regular de avaliação. A seu respeito, manifestou Teichler e Winkler
(1994, p.5) que o PAIUB serve ao mesmo tempo para prestar contas e melhorar o
desempenho institucional – utilizando uma abordagem com o uso de indicadores,
auto-avaliação e avaliação externa.
34
2.8 Qualidade Dos Professores
A exigência de qualidade dos professores sempre esteve presente na
disposição de análise da comunidade educacional. Os próprios professores buscam
a auto-avaliação na tentativa de garantir melhores resultados em suas atividades. No
caso do Brasil esta busca intensificou-se a partir da década de 70, com grande parte
do corpo docente sendo questionada de fora para dentro, mas também ao contrário.
Para Ramos, (1997, p. 62), desde a década de 70 tem havido um crescente
interesse na busca do auto-conhecimento por parte das instituições de ensino,
principalmente em nível superior. Essas iniciativas têm procurado avaliar a
instituição como um todo, contemplando os aspectos político, acadêmico e
administrativo. Nas Universidades têm-se destacado a avaliação do desempenho
docente, pois, conforme Grisllo (1992), apesar de reconhecer que diversos fatores
influem na qualidade de ensino, com freqüência, a maior responsabilidade recai
sobre o professor.
Moreira (1981, p.100) afirma que a avaliação do professor pelo aluno é a mais
usada, porém dois outros podem ser mencionados: a auto-avaliação e a avaliação
pelo colega. O próprio professor é, obviamente, o fator mais crítico na eficácia de
qualquer programa objetivando a melhoria do ensino; somente se o professor julgar
seu desempenho como inadequado ou abaixo de seus próprios padrões é que
haverá condições para mudança e melhoria (Bergquist & Phillips, 1975). A auto-
avaliação pode ser feita através de retroalimentação via áudio ou vídeo-tape. Pode
também o professor prever como os alunos o avaliarão (respondendo ao mesmo
instrumento), e, posteriormente, comparar sua previsão com o resultado do
instrumento utilizado pelos alunos.
A avaliação diversa, em que o professor conhece o aluno e vice-versa, cria
uma forma de reciprocidade que, se colocada como informação para ambas as
partes, acaba se tornando um instrumento de melhoria da qualidade de ensino.
Ainda de acordo com Moreira a avaliação pelo colega, usada em pequena
escala talvez por questão de escrúpulo, é, geralmente, feita de duas maneiras.
a) Avaliação dos materiais instrucionais utilizados pelo colega, incluindo
objetivos, provas, métodos, textos, sistema de avaliação, plano de ensino;
35
b) Observação em classe no que se refere a domínio do conteúdo, técnicas de
ensino, relacionamento com o aluno, comportamentos do professor.
Quando feito por imposição, esse tipo de avaliação é problemático tanto para
quem avalia como para quem é avaliado, porém, quando usado de comum acordo
entre os professores, pode certamente contribuir para a melhoria do ensino.
De um modo geral, a avaliação do desempenho do professor, como tal, é feita
com um ou mais dos seguintes objetivos:
a) Melhorar o ensino;
b) Decidir sobre promoção, efetivação, contratação ou recontratação;
c) Prover informações a futuros alunos.
Quanto ao primeiro objetivo, é importante frisar, desde já, que a simples
constatação de eventuais deficiências do professor pouco contribuirá para a
melhoria do ensino se não houver um mecanismo de apoio que lhe ajude a sanar
essas deficiências.
Em relação ao segundo objetivo, a atividade de pesquisa era praticamente o
único critério usado, até bem pouco tempo; porém, face ao crescente número de
candidatos para um número talvez menor de vagas para professores nas
universidades, a avaliação do desempenho didático está sendo cada vez mais
levada em consideração.
Finalmente, argumenta-se que esse tipo de avaliação (no caso a feita pelos
alunos) ajuda os estudantes a selecionarem seus cursos e professores a cada
semestre.
2.8.1 Avaliação de desempenho do professor de ensino superior
Para Lorenzoni e Kertész (1991, p. 81), em qualquer sistema de avaliação de
professores, o objetivo maior deve ser o aperfeiçoamento do processo ensino-
aprendizagem. É preciso, pois, haver uma definição clara de aspectos significativos
que o professor deve atender nesse processo, sem limitar os instrumentos de
avaliação a um modelo teórico de professor e de aula, isto é, à diversidade de
atuação deve corresponder à flexibilidade da avaliação, em termos dos aspectos
específicos inerentes a cada caso.
36
O acompanhamento da sistemática de avaliação é importante para indicar a
necessidade de modificações ou ajustamentos nos critérios, nas políticas, nas
rotinas, nos formulários adotados e no treinamento dos avaliadores. Uso, segundo
Chiavenato (apud LORENZONI E KERTÉSZ, 1991) envolve os seguintes aspectos:
•verificar se os métodos de avaliação escolhidos estão dando bons
resultados;
•verificar se os formulários estão adequados aos propósitos da avaliação;
•verificar se os períodos de preenchimento dos formulários (época de
formalização dos resultados da avaliação) estão razoáveis;
•verificar se o preenchimento dos formulários está correto;
•analisar os resultados das avaliações em si e os avaliadores;
•acompanhar as providências e os procedimentos resultantes das
avaliações;
•verificar os critérios de avaliação de desempenho;
•verificar os relatórios efetuados à direção da empresa a respeito das
avaliações de desempenho.
2.8.2 A observação do desempenho
Ainda segundo Lorenzoni e Kertész a administração de uma unidade
universitária exige de quem a administra uma visão globalizadora que perceba a
organização em sua totalidade. Esta atitude, favorecendo melhor compreensão da
organização, também permite que o desempenho de seus recursos humanos seja
melhor identificado. Tal situação auxilia a compreender as necessidades, motivações
e limitações dos recursos humanos e, ao mesmo tempo, acompanhando este
desempenho, pode informá-los, através de uma avaliação continuada, dos aspectos
que necessitam adequação e ajustamento. Do mesmo modo, é possível esperar
que, “pari passu”, eles se voltem a sua auto-avaliação e, por conseqüência, ao seu
autodesenvolvimento.
Além disso, é preciso ter presente à necessidade de haver uma certa
periodicidade na avaliação de desempenho. Isto requer uma observação continuada
37
e permanente que favoreça a coleta de dados e informações que se registram em
formulários próprios.
Chiavenato (apud LORENZONI E KERTÉSZ, 1991) adverte: “A observação
não é uma questão de épocas ou períodos. Deve ser um estado de espírito que,
constantemente, o chefe deve desenvolver”.
Muitas pesquisas têm sido feitas a propósito deste assunto. As hipóteses
levantadas por Ryan (apud LORENZONI E KERTÉSZ, 1991), por exemplo, indicam:
1) o comportamento de um professor é função de suas características
pessoais;
2) o comportamento do professor é observável e;
3) o comportamento do professor pode ser classificado tanto qualitativa quanto
quantitativamente;
2.8.3 Avaliação da qualidade do ensino-desafio e compromisso
Para Rivera (1992, p. 198), a explicitação das finalidades e princípios
orientadores da ação avaliativa, a opção por uma metodologia participativa, a
definição pela própria comunidade dos parâmetros utilizados para a avaliação, ou
seja, dos indicadores de qualidade do ensino, foram, os pontos fortes do projeto que
viabilizaram o êxito da experiência da avaliação participativa, com caráter de
pesquisa, desenvolvida no ensino de graduação da PUCRS. À medida que a ação
se desenvolvia, de forma coerente com os princípios estabelecidos, as resistências
foram enfraquecendo e os sentimentos de rejeição e desconfiança substituídas pela
adesão e comprometimento, em graus diferenciados, da maioria das universidades
acadêmicas.
A experiência teve relevância e singularidade na medida em que promoveu a
participação de professores e alunos na definição e desenvolvimento das etapas do
projeto, especialmente na construção e validação dos indicadores de qualidade do
ensino.
Para De Souza (1997, p.137) a avaliação educacional tem várias dimensões.
Podemos falar da avaliação de currículo, de programas, institucional e do processo
ensino-aprendizagem. Na Universidade tem-se discutido muito pouco sobre como
38
avaliar processos ensino-aprendizagem. Esta ausência de reflexão nesta área no
interior de nossas universidades, é sentida até pela falta de bibliografia na área que
se contrapõe a constância com que esta dimensão da avaliação é discutida no
âmbito da educação básica.
Segundo Dias Sobrinho (2000, p. 47), é indiscutível que a avaliação pode ser
um precioso mecanismo de valorização da graduação, porém, é discutível que as
mesmas formas e somente os instrumentos comumente utilizados para avaliar a
pesquisa e a pós-graduação sejam plenamente satisfatórios e suficientes para a
avaliação do ensino de graduação.
A avaliação institucional tem-se desenvolvido um pouco em toda parte
estreitamente vinculada ao progressivo aviltamento das políticas sociais, públicas, e
particularmente ao processo gradual de deteriorização dos orçamentos das
universidades. A essa crise das instituições públicas e da educação, de modo geral,
gerada na relação delas com o estado, acrescentam-se às dificuldades cada vez
maiores e mais complexas do setor produtivo, em particular, e de toda a nova ordem
econômica em geral.
Ainda segundo o autor a perspectiva de avaliação que se preocupa muito mais
com o produto que com as relações e comportamentos humanos nas dinâmicas
sociais tende a ser positivista e quantitativista. É amplamente divulgado que esse
paradigma de avaliação garante objetividade, fiabilidade nas informações e nos
procedimentos de obtenção de dados, isenção para interpretar, medir, estabelecer
as relações de causa e efeito, elaborar e analisar as estatísticas. Entretanto, esse
modelo não dá conta da multiplicidade de dimensões dos âmbitos educativos, da
complexa dinâmica da realidade social, nem se preocupa em “compreender a
natureza e a fenomenologia dos processos” Casanova (apud DIAS SOBRINHO,
2000, p.65), Entre a mentalidade de controle e a de autonomia deve prevalecer à
segunda. Assim, o que deve ocorrer é uma avaliação que assuma a complexidade,
opere uma razoável e coerente compreensão de conjunto, produza a consciência
das transformações e os efeitos de melhoria qualitativa de todo o âmbito educativo
da instituição. Por conseguinte, que seja uma avaliação que “considere a
complexidade total do fato educativo e, portanto, não apenas dos resultados, não
apenas os explícitos, mas também os implícitos” Rosales (apud DIAS SOBRINHO,
2000).
39
Nessa perspectiva, ganharia relevância à meta-avaliação ou a re-avaliação,
dimensão que se soma à avaliação interna e à avaliação externa. É necessário que
os relatórios não sejam um elenco de tecnicismo, mas constituam matéria para
análises e reflexões críticas sobre o desenvolvimento das universidades. As
comissões de avaliação, além de suas funções relativamente aos processos de cada
instituição, assumiriam, portanto, esse papel de articulação e coerência, catalisação
de resultados e aglutinação de competências inercialmente isoladas, de estímulo e
provocação aos estudos e às discussões, encaminhamentos e sistematização de
resultados, com vistas à consolidação de cada uma das universidades e de
conjuntos intencionalmente organizados.
Dias Sobrinho ainda adverte que o cuidado primeiro é o de assegurar às
instituições educativas a titularidade dos processos de avaliação. A titularidade da
avaliação deve procurar garantir que os processos internos e externos não se
percam, vindo a servir a objetivos, propósitos e grupos diferentes daqueles
estabelecidos pela comunidade acadêmica. Entretanto, também não se perca pela
identificação restrita a eventuais interesses de grupos internos. É fundamental que o
exercício da titularidade deva ser também um compromisso com a missão
institucional em sua face social e pública.
O processo de avaliação, a metodologia da avaliação tem que seguir alguns
passos. Em primeiro lugar, Avaliação Interna ou Auto-Avaliação e, em segundo
lugar, Avaliação Externa. Portanto, o Comitê desaprovaria que em seu projeto de
avaliação não contemplar estes dois passos. Para o Comitê a Avaliação Interna
deve ser feita pelas próprias pessoas, pelos próprios atores da Universidade; feita
pelos professores, alunos, funcionários, administradores. Já há questionários hoje,
bastante específicos para Avaliação de Administradores.
No período de dois meses Machado esteve nos Estados Unidos, no Centro
Nacional de Avaliação da Universidade de Michigan, que é um Centro Nacional de
Avaliação, ele verificou o cuidado que os americanos estão tendo com a Avaliação
de Administradores, que é uma coisa que a Universidade Brasileira não está muito
preocupada. A preocupação no Brasil restringe-se a avaliação dos docentes. É
necessário conscientizar-se que a avaliação dos administradores é de suma
importância. Não se pode deixar os administradores de fora e ficar culpando baixa
ou alta qualidade da Universidade só pelos professores.
40
Portanto, os questionários devem avaliar tanto professores quanto
administradores. Os alunos avaliam os professores, avaliam os administradores, se
for o caso. No entanto, a avaliação do administrador por parte dos alunos torna-se
complicada e talvez até insuficiente. O aluno só tem condições visíveis de avaliar um
administrador técnico, por exemplo, quando este o atende ao efetuar sua matrícula,
ou então quando o aluno necessita pedir informações. Somente neste atendimento
breve é que o aluno poderá ter contato direto com um administrador técnico.
Portanto é importante que a Universidade colete não somente as informações dos
alunos quanto à atuação do administrador técnico, mas também dos próprios
administradores técnicos em forma de auto-avaliação em relatório. Esse relatório é
que vai subsidiar a Avaliação Externa e inclusive, é preciso que se diga que se pode
avaliar cursos, programas e isto é uma decisão da Universidade (Machado, 2001, p.
21).
Para Dias Sobrinho(1996, p.8) ainda de acordo com a autora as universidades
deveriam fazer as avaliações dos seus cursos para depois projetar quais os cursos
ideais que elas gostariam de ter. Desta forma iriam descobrir problemas e
discutiriam, entre a equipe administrativa e pedagógica, propostas de melhorias na
qualidade do ensino. O objetivo seria, então, desencadear ações para melhorar a
qualidade do ensino. A autora ainda afirma que uma avaliação que é livre de
ameaças, só pode trazer resultados positivos. Dos cursos que foram avaliados desta
forma, não houve nenhuma reação negativa.
A finalidade da avaliação é à busca do aperfeiçoamento, portanto ela não visa
punição e nem premiação, situação típica da avaliação de aprendizagem. Ao
contrário, porque busca aperfeiçoamento, sua ação central é a de reconstrução.
Eventual premiação, como estímulo ao mérito, não é desaconselhável, pois não
causa dano. Punição, em especial no âmbito das instituições públicas em um País
com escassez de vagas como é o nosso caso, deve ser considerada após a clara
oportunidade para recuperação ou revigoramento ter sido efetivada.
Auto conhecimento significa identificar os acertos e as ineficiências, as
vantagens/potencialidades e as dificuldades; envolve um processo de reflexão sobre
as razões, as causas das situações positivas e das insuficiências; implica em
assumir a responsabilidade efetiva da gestão política e acadêmico-científica da
instituição e do sistema como um todo.
41
Ainda segundo o autor a avaliação é global, porque envolve todas as atividades
e instâncias da instituição ou do conjunto das instituições do sistema, seus sujeitos e
seus “produtos”, isto é, o conhecimento, a interpretação de mundo, as tecnologias
que produz e dissemina, diretamente através da qualificação profissional e da
divulgação científica e, indiretamente, através da extensão.
A avaliação é, assim, uma atividade processual, isto é, contínua e sistemática,
que envolve dois tipos de sujeitos:
i) sujeitos internos (alunos, professores e outros servidores técnico-
administrativos) abertos ao exame de si próprios enquanto formuladores/executores
de ações (conhecimento, qualificação, etc.);
ii) sujeitos externos (acadêmicos/pesquisadores, profissionais, empregadores,
trabalhadores, entidades sociais, etc.) sujeitos “patrocinadores” ou “usuários”
daquelas ações.
A Avaliação Institucional é aquela voltada para a instituição de educação
superior e é por ela conduzida. Envolve parceiros internos e externos. Tem como
objeto a instituição em sua individualidade, isto é, está centrada nos processos e
resultados das ações da instituição, tomando em consideração o contexto sócio-
histórico e as políticas públicas, em especial a política educacional, nos quais está
inserida. Esta modalidade de avaliação leva a decisões precípuamente interna à
instituição, seus agentes, seus processos, sua estrutura.
De acordo com Trindade(1996, p.10) não podemos enfrentar as discussões
sobre avaliações em termos estritamente técnicos. No Brasil, a avaliação
ultrapassou os limites de uma discussão entre modelos americano, francês, inglês
ou holandês ou entre as experiências chilena, mexicana ou Argentina. A avaliação,
como já mencionamos anteriormente, tornou-se um problema eminentemente
político, tanto do ponto de vista de sua concepção e das suas conseqüências para a
universidade quanto pelas dificuldades de sua assimilação pela comunidade
acadêmica. Um dos maiores estudiosos da avaliação no Chile, José Joaquim
Brunner, dizia que a relação Estado-Universidade é muito mais uma relação
administrativa e, em conseqüência, um problema de ordem política, o que mostra
que essa problemática não é apenas brasileira, latino-americana, mas constata-se
sua presença também no debate europeu. A pergunta que cabe é: por que a
avaliação tem ocorrido dessa forma nos últimos tempos?
42
Segundo Dias Sobrinho (1996, p.17) o modelo de avaliação na ótica
eficientista, instrumentalista e classificatória é predominantemente quantitativo. Para
que se tenha um balanço das dimensões mais visíveis e facilmente descritíveis,
indicadores quantitativos devem ser utilizados. Tais indicadores podem ser utilizados
para delimitar medidas físicas, como área construída, titulação dos professores,
descrição dos corpos docentes, discentes e de servidores, dos produtos, das
formaturas, volumes de insumos, expressões numéricas supostamente
representando qualidades, como no caso de número de citações, muitas vezes
permitindo o estabelecimento de “ranking” de instituições, como sérios efeitos nas
políticas de alocação (ou “deslocamento”?) de financiamento e como organizador
social de estudantes e de profissionais.
Para Pereira(1997, p.29) ao nível de ensino de graduação, por exemplo, uma
Universidade pode preferir ensinar a muitos alunos, ao invés de selecionar e ensinar
apenas alunos brilhantes.
Os critérios de avaliação, portanto, têm que ser definidos de forma
diferenciada. Outro aspecto importante é que os critérios diferem (ou podem diferir)
de acordo com os objetivos específicos de cada parte envolvida. Por exemplo, na
graduação, para o Governo ou para a própria Instituição, o critério pode ser que o
aluno deve ser organizado, de tal forma que conclua dentro do prazo previsto, ou,
que a taxa de evasão não pode ser superior a uma taxa definida como máximo
aceitável. Para os alunos, por outro lado, o critério pode ser que o curso/Instituição
deve oferecer opções diferenciadas e tempo suficiente para o desenvolvimento
pessoal.
A avaliação institucional para atender ao credenciamento induz a um
procedimento de avaliação leve. As exigências ou padrões mínimos são formulados
fora da instituição, podendo-se considerar apenas o desempenho passado. É,
entretanto, tendência predominante analisar se existem condições para que a
instituição venha a se transformar em verdadeira universidade. É importante a
avaliação da qualidade e, nesta situação, utiliza-se à auto-avaliação e avaliação
pelos pares. A diferença, como mencionada, é que os critérios e padrões são
propostos por organismos externos (governo, órgão de representação de classe,
etc.).
Para Coelho (1997, p.44) as avaliações institucionais, cuja metodologia e
processo devem ser rigorosos e consistentes do ponto de vista teórico e técnico,
43
além de legítimos do ponto de vista político, não se volta para as pessoas, sua
produção e a qualidade do trabalho que desenvolvem, mas para a existência mesma
da instituição, seus fins e meios, funcionamento, limites e possibilidades, atividades,
relações, projetos, processos e produtos, para os padrões de qualidade com que
desenvolve tudo isso. Pressupõe, pois, que se avaliem o ensino, a pesquisa, a
assistência, a prestação dos segmentos universitários e extra-universitários
envolvidos nos processos e na vida da instituição, as relações desta com o Estado e
a sociedade civil, bem como seu efetivo compromisso com a verdade, as ciências, a
tecnologia, as letras, as artes, a filosofia, a liberdade, a igualdade, a democracia, a
justiça, a superação de toda e qualquer forma de domínio existente nas relações
entre os indivíduos, os grupos, as instituições, os povos, as nações.
Segundo o autor assumir a avaliação da universidade pública como utopia não
significa negar a legitimidade e a necessidade de se realizar a avaliação possível no
momento, enquanto se continua perseguindo a desejável, a que verdadeiramente se
impõe como exigência da lucidez, da ética, do compromisso com o presente e o
futuro da universidade pública. A dimensão da utopia, inerente à natureza mesma da
existência humana, da história e da universidade, não nos lança, pois, no desânimo
e na acomodação. Justamente porque não perdemos de vista o sonho, o imaginário
a utopia e sobretudo porque os assumimos como idéias reguladoras de nosso
pensar e de nosso fazer, é que não podemos deixar de construir a avaliação da
universidade pública. A fidelidade à utopia da avaliação institucional,
verdadeiramente acadêmica e comprometida com a criação da universidade pública,
implica a avaliação permanente desta, da forma mais lúcida, isenta, ética e
responsável, nos limites do que nos é factível cada momento, o que nos levará a
alargar e redefinir os horizontes do próprio possível. E então, o que hoje não é
possível, poderá vir a sê-lo amanhã.
A avaliação da instituição universitária é um processo complexo, perpassado
pelos conflitos e contradições que constituem a sociedade e a própria academia.
Processo no qual perguntamos pela política, projetos, anseios utopias da instituição,
pela contribuição que efetivamente oferece à criação de uma sociedade fundada na
liberdade, igualdade, no respeito ou outro, na cidadania, na justiça. Processo que
deve abranger ainda, conforme Coelho (1997) as áreas e atividades da instituição e
supõe o debate e o enfrentamento dos conflitos e contradições. O questionamento e
a crítica de nossas idéias e práticas e das motivações que nos levam a avaliar.
44
De acordo com Caumo (1997, p.98), tradicionalmente, as teorias fundamentam
as ciências. Estas são movidas por pesquisas que, por sua vez, produzem
conhecimentos válidos em determinadas realidades temporais, sociais e culturais.
As pesquisas têm ainda a função inovadora e propulsora de saberes enquanto
habilitam profissionais.
A universidade, na modernidade, transcende a função da transmissão e da
produção do conhecimento para atuar sobre a competência da preparação
profissional especializada. Precisa preparar o professor-pesquisador que exerça com
êxito tanto o magistério quanto a pesquisa, juntamente com os seus alunos e ao
mesmo tempo. Há nisto um triplo desafio: preparar o bom professor, o bom
pesquisador, e proporcionar condições estruturais para o exercício profissional de
ensino e pesquisa.
O professor-pesquisador universitário deixa de ser um funcionário burocrático
para assumir a competência pedagógica enquanto científica. Não mais vai deter-se
na função escolar de repassar saberes quase sempre descontextualizados, sem vida
própria. Passa a contar, também, com o aluno pesquisador nas atividades
pedagógicas. Juntos, praticam pesquisa educativa crítica enquanto reconstroem,
renovam e produzem conhecimentos. Ação e reflexão, teoria e prática mesclam-se:
são questões que comandam o fenômeno da aprendizagem.
De acordo com Pasquali (1984, p.71), a efetividade do ensino tem sido um
tema de constante preocupação nos meios educacionais. Avaliar a qualidade do
ensino é tarefa de grande complexidade e requer cuidadosa atenção. Muitos
esforços têm sido dedicados à área, não só com o objetivo de avaliar os sistemas
instrucionais existentes como também o de fornecer subsídios para auxiliar nas
tomadas de decisões de pessoal das instituições educacionais.
2.9 Avaliação Institucional Em Outros Países
Para Leite, Tutukian, Holz (2000, p. 25), a relação triangular entre qualidade,
pertinência e avaliação supõe que a instituição não deve restringir-se aos limites de
uma organização burocrática moderna, calcada no modelo de outras organizações
vinculadas ao Estado e ao mercado, sob o risco de que, na busca por
45
modernização, tal instituição acabe por afastar-se de suas raízes seculares de
instituição social. A idéia de instituição social resgata a combinação entre suas
atividades - fim permanentes nos campos do ensino, da pesquisa e da extensão
universitária e sua característica de universidade aberta em suas dimensões
regionais, nacional e internacional. Em outros termos, não se quer nem a
universidade cativando a sociedade – assim perdendo a sua autonomia institucional
– nem se transformando em uma torre de marfim, isolada dos problemas concretos
de sua sociedade. Deseja-se, isto sim, uma instituição capaz de manter um equilíbrio
dinâmico entre os elementos constitutivos da universidade contemporânea:
qualidade, pertinência e eqüidade.
Quando o Estado decide conduzir a avaliação da universidade, opta em geral,
pela lógica reguladora que tem na avaliação de resultados ou de produto, na
combinação quantitativo/qualitativo, e na comparatividade sua via própria de sentido
e desenvolvimento de critérios. Esta é a lógica preferencialmente adotada pelos
Estados modernos mais desenvolvidos nos quais o mercado, com suas metáforas
economicistas e empresariais preside as relações entre as partes. Leite e Bordas
(apud LEITE, TUTUKIAN, HOLZ, 2000, p. 30).
Para o sistema de ensino superior brasileiro, a convivência com procedimentos
avaliativos não é nova. Desde 1977, o sistema de pós-graduação vem sendo
avaliado pelas Capes (Coordenação de Aperfeiçoamento do Pessoal de Nível
Superior) através de relatórios anuais, credenciamento de cursos, recredenciamento
a cada três anos com visitas aos locais e avaliação por pares. Os critérios e
indicadores usados ao longo do tempo têm-se refinado, constituindo hoje um
sistema exemplar, inclusive para outros países. Os resultados da avaliação,
expressos em notas, são divulgados pela imprensa e servem para a alocação de
recursos e concessão de bolsas.
2.9.1 Histórico da avaliação institucional no Brasil e em outros países
Leite, Tutukian, Holz (2000) traça um histórico quanto à avaliação institucional
no Brasil e em outros países. Assim, neste tópico será utilizada a visão destes
46
autores quanto à evolução da avaliação institucional em nível nacional bem como no
continente americano, europeu e asiático.
Ainda que o trinômio avaliação, qualidade e pertinência desafiem as
universidades no início do século XXI, tal questão não ocorre de forma isolada. Para
melhor entendê-la, convém examinar os caminhos históricos e os contextos da
avaliação institucional, especialmente no âmbito das sempre “delicadas” relações
Estado, universidade e sociedade.
Estado e universidade contemporânea, via de regra, mantém entre si relações
de tensão constante. Em verdade, o Estado benevolente e a Universidade auto
justificada por formar as suas elites, constituem um domínio do passado. Por isso, a
análise do hoje não pode ser levada a efeito sem a compreensão de como essas
relações foram se constituindo num determinado contexto histórico, como, por
exemplo, no que diz respeito às universidades latino-americanas, instituições
historicamente datadas, que sofreram intervenções, frutos de regimes ditatoriais
recentes (Argentina 1976-1983; Brasil 1964-1985; Chile 1973-1990), modificadoras
de seu perfil na sociedade.
Salienta-se a descontinuidade política dos governos, que ora realizam
aproximações com as universidades, via promoção de políticas de ciência e
tecnologia, ora, ao inverso, delas buscam distanciamento, via desregulação e
privatização. Brunner (apud LEITE, TUTUKIAN, HOLZ, 2000, p. 29).
2.9.1.1 Avaliação institucional no Brasil
Com ações isoladas, a idéia de avaliação vai-se consolidando. Em 1990, o
Ministério da Educação toma a iniciativa de estudar o uso de indicadores de
qualidade. Constitui uma comissão (comissão coordenadora das atividades de
fomento à melhoria do processo de gerenciamento das IFES), que propõe um
conjunto básico de indicadores a serem utilizados pelas universidades. Promove, em
1992, a vinda da British Council Mission/ufc (University Funding Council), realizando,
em Brasília, um seminário de avaliação institucional, para o qual convida os mais
importantes dirigentes das universidades brasileiras. Entre os presentes, como
membro da BC Mission, encontra-se o professor Gremae Davies, chefe executivo da
47
UFC. São realizados encontros com o professor Davies em outras capitais do país,
reunindo altos dirigentes universitários. O sistema de avaliação britânico, já
conhecido pelo seminário de 1989 e agora explicitado em Davies (1992), parece ser
o modelo do Ministério para avaliação institucional, especialmente se considerados
forem os objetivos do anterior projeto GERES(Grupo Executivo para a Reformulação
do Ensino Superior) e o trabalho com os indicadores de qualidade. Aparentemente,
a expectativa do governo seria a de vincular avaliação e financiamento público,
disciplinando o diversificado sistema de aportes financeiros ao ensino superior do
país.
2.9.2 Avaliação institucional na Argentina
O processo de avaliação institucional na Argentina foi motivo de aguda
discussão e tensionamento das relações entre Estado e universidades. Um
antecedente histórico relevante para esse acirramento é o fato de que, desde 1918,
foi assegurado constitucionalmente às instituições de ensino superior ampla
autonomia universitária. Tal autonomia, entretanto, nem sempre pôde ser
plenamente exercida, pois houve períodos na história argentina em que o país
esteve sob o jugo de regimes de exceção. Aliando esses dois fatores, será mais
compreensível a reação do meio acadêmico argentino de resistir, no entender de
Marquis (1994b), a qualquer proposição – por parte do Estado – de controle do que
é feito no contexto universitário, em defesa de uma autonomia historicamente
construída.
2.9.3 Avaliação institucional no Canadá
O ensino superior do Canadá tem seu funcionamento caracterizado pela
descentralização. A planificação e o controle do ensino superior são uma questão
antes improvidencial que realmente nacional.
Apesar de o governo central possuir algumas iniciativas no sentido de realizar
estudos para coordenar e planificar a educação no país, diferenças demográficas,
48
idiomáticas, culturais, econômicas e biofísicas fazem com que esses esforços se
revelem pouco eficazes, e em verdade não se tem, por parte do Estado, uma real
intenção de formular uma centralização de poder decisório no tocante à questão
pós-secundária (institutos técnicos e universidades).
2.9.4 Avaliação institucional no Chile
No Chile, a avaliação é vista como um dos primeiros eixos em torno dos quais
se devem estruturar as relações Estado, universidade e sociedade. Brunner (apud
LEITE, TUTUKIAN, HOLZ, 2000, p. 47).
No país, destacam-se procedimentos de reconhecimento de cursos
(acreditação) e de avaliação no contexto de melhoria da qualidade da educação. A
questão da avaliação do sistema de educação se insere, pois, no marco do
Programa de Melhoria da Qualidade da Educação (Mece), que perpassa todo o
sistema desde a pré-escola e que inclui a realização de exames padronizados
anuais para o ensino médio. Zurita (apud LEITE, TUTUKIAN, HOLZ, 2000, p.47).
Há, pelo que se pode ver, a preocupação com a avaliação ao longo de toda a
vida escolar do aluno. Neste caso, quando chega ao curso universitário, nada terá a
opor contra este processo que se encontra incorporado no sistema educacional.
2.9.5 Avaliação institucional na Colômbia
Pode-se dividir a experiência em avaliação institucional colombiana em três
etapas distintas:
a) estatal de avaliação externa (1950-1980) – embasada essencialmente em
documentação, visava especificamente a verificar a viabilidade administrativa e
financeira de acreditação, quando de instituições novas ou de novos cursos nas
instituições já existentes.
b) avaliação institucional através de enfoques sistêmicos (1980-1984) – esforço
que objetiva orientar a coerência entre a missão, propósitos e objetivos de cada
49
universidade frente às necessidades de desenvolvimento socioeconômico da
respectiva região e do país em seu conjunto.
c) auto-avaliação, a partir de 1984 – as próprias instituições desenvolvem seus
processos de auto-avaliações, que, em um segundo momento, seriam avaliados por
comissões externas. Essa experiência, teve resultados desiguais quanto ao
cumprimento dos objetivos desejados. Sanclemente (apud LEITE, TUTUKIAN,
HOLZ, 2000, p. 49).
2.9.6 Avaliação institucional na França
A educação superior foi centralizada, havendo uma grande dependência do
Ministério da Educação. Porém, as leis aprovadas entre os anos de 1984 e 1989
permitiram às universidades uma crescente autonomia. Essas leis fizeram parte de
um programa que se propôs a aumentar o número de estudantes no ensino superior
e alterou a política de financiamento. Segundo Cusin (apud LEITE, TUTUKIAN,
HOLZ, 2000), a liberação de recursos para as universidades atende a dois critérios:
parte do orçamento (80%) é liberado conforme o número de alunos e de
laboratórios, e outra parte é outorgada conforme quadrienal firmado entre os
presidentes das universidades e o Ministério da Educação, no qual se mencionam os
objetivos da avaliação a ser realizada.
2.9.7 Avaliação institucional na Holanda – Países Baixos
A Holanda, assim como vários países da Europa, têm passado por um
problema comum: o aumento do número de estudantes universitários e a redução
nos recursos governamentais para a educação superior.
Nos últimos dez anos, o custo unitário por estudante elevou-se ao redor de
40%, o que levou o governo a tomar medidas tais como a redução do número de
professores com horário integral, a redução do nível salarial e a estipulação de
quatro anos como prazo máximo de conclusão do curso pelos estudantes.
50
Essa situação gerou um clima de preocupação com a qualidade do ensino
superior. Para assegurar a qualidade, em 1986, as universidades instalaram um
sistema de controle de qualidade com critérios específicos. Assim, entre os anos de
1987 e 1988, quatro disciplinas do Ensino Superior foram avaliadas e, em setembro
de 1988, os resultados foram publicados. Durante o ano acadêmico de 1988/1989,
as disciplinas de Matemática, Informática, Geografia e idiomas não-ocidentais foram
avaliadas.
O modelo holandês de avaliação tem como filosofia a menor interferência do
governo nas instituições, garantindo maior autonomia e liberdade para sua
programação. Trabalha com a idéia de garantia da qualidade de antecipação. O
sistema universitário holandês é homogêneo, todas as universidades são públicas e
recebem 90% de seus recursos do governo.
A avaliação tem sido coordenada pela Associação Cooperativa das
Universidades dos Países Baixos (VSNU), que considera ser seu papel promover a
valorização e a supervisão da qualidade das universidades holandesas. Para isso,
ao analisar diferentes sistemas de avaliação, decidiu-se por uma estratégia
institucional e não-governamental, pela avaliação de pares (Peer Review) e não pela
classificação de instituições (Ranking). Segundo Acherman (apud LEITE,
TUTUKIAN, HOLZ, 2000), a principal razão de optar por uma avaliação de pares é a
dificuldade em classificar as universidades, uma vez que, supostamente, a qualidade
das universidades está em nível similar.
Dessa forma, as universidades se auto-avaliam, os grupos de pares conduzem
a avaliação externa e o governo supervisiona o processo global. Assim, cada
unidade decide sua forma de auto-avaliar-se, o que se dá meio ano antes da visita
dos avaliadores externos, que podem ser selecionados por indicação dos dirigentes
acadêmicos: professores, representantes de organizações profissionais e da
indústria, para carreiras a ela relacionadas. Participam, também, acadêmicos de
outros países e pedagogos. Em suas visitas, o Comitê de Pares interage com o
pessoal da universidade. O comitê analisa alguns aspectos, como a política
educacional, as inovações realizadas nos últimos anos, adequação do currículo
conforme as necessidades do mercado de trabalho, e realiza o controle interno de
qualidade.
Após, a visita, o comitê realiza um informe oral sobre suas observações,
dialogando com os participantes e interessados sobre os pontos fortes e fracos da
51
instituição. Realiza, também, um relatório escrito em que constam recomendações
sobre as ações a serem desenvolvidas pela universidade. Em geral, o reitor
pergunta à coordenação das unidades o que esta pretende fazer em face da
avaliação. Isto torna a avaliação um “detonador de mudança”. As visitas dos
avaliadores externos repetem-se a cada cinco anos. Essa forma de avaliação está
centrada no ensino. Permite responder perguntas sobre a formação profissional
realizada hoje e suas perspectivas para os próximos anos, bem como analisar se os
programas de estudos e o processo educativo em geral estão adequadamente
organizados e se a instituição tem capacidade para induzir a qualidade.
2.9.8 Avaliação institucional na Inglaterra
O sistema de avaliação inglês é um dos mais conhecidos e discutidos no meio
acadêmico.
Até os anos 70, as universidades atuavam com autonomia. A avaliação era
realizada através de grupos de pares. Os exames eram internos com assessoria
externa. No setor público, os títulos eram revalidados por um organismo central
(Council for National Academin Awards). Os cursos passavam por uma revisão anual
e qüinqüenal. Ao final dos anos 70, mais precisamente com a chegada da primeira-
ministra Margaret Thatcher ao governo, os recursos das universidades foram
reduzidos.
2.9.9 Avaliação institucional no Japão
Segundo BABA (apud LEITE, TUTUKIAN, HOLZ (2000), desde 1960 houve
uma expansão quantitativa da demanda do ensino superior. Em três décadas e meia
duplicou-se o número de instituições e quadruplicou-se o de alunos, o que acarretou
um incremento de recursos disponíveis para resolver tal demanda. O setor privado
foi o responsável por essa explosão, hoje formando três quartos da população
estudantil. O governo japonês vem, atualmente, investindo em alguns campos de
desenvolvimento e engenharia que atendam as suas necessidades.
52
2.9.10 Avaliação institucional do México
A avaliação da educação superior no México é um processo que surge, no final
dos anos 80, juntamente com as ações planificadoras no sistema nacional de
planejamento da educação superior. Os processos de avaliação são entendidos
como complemento necessário às ações de planejamento (Arredondo, apud LEITE,
TUTUKIAN, HOLZ,2000).
2.9.11 Avaliação institucional do Uruguai
Conquanto neste país a avaliação institucional esteja iniciando caberia registrar
que a discussão sobre a função pública da universidade uruguaia sempre incluiu a
discussão sobre a avaliação.
A avaliação pode constituir um insumo significativo no complexo processo de
revalidar na Universidade, a provada compatibilidade entre os princípios da
autonomia e os da responsabilidade pública, em um momento no qual a sociedade
se pergunta sobre o destino dos caudais que inverte na educação e sobre sua
correta aplicação Landinelli (apud LEITE, TUTUKIAN, HOLZ 2000).
Na Universidade de la Republica, a avaliação interna se desenvolveu de forma
autônoma nas unidades, como a Faculdade de Ciências Sociais e nas Engenharias.
No ano de 1998, a área tecnológica, da qual fazem parte as Engenharias, realizou
sua avaliação externa, valendo-se de avaliadores internacionais. Em 1998
(11/8/1998), o CDC – Consejo Directivo Central – aprecia o programa “Sinamientos
para un Programa de Evaluasión Institucional da la UDELAR” que começou a vigorar
em 1999 (aprovado em 14/9/1999). Seminários, encontros, coleta, análise e
discussão de dados, com publicações dirigidas ao corpo docente e discente,
constituem parte da etapa atual, que será seguida por uma avaliação externa a
cargo de experts nacionais e internacionais.
53
2.9.12 Avaliação institucional nos Estados Unidos
Historicamente, as universidades americanas são, quase na sua totalidade,
instituições autônomas. São instituições livres para determinar suas metas,
objetivos, padrões de referências. Inicialmente, seguiam o modelo escocês e inglês.
A partir da metade do século XIX, surgiram universidades públicas baseadas nos
princípios da Revolução Francesa. Assim, o sistema de ensino norte-americano
desenvolveu-se em um clima de autonomia e liberdade, inserido num contexto sócio-
econômico peculiar.
A avaliação de cursos, de instituições, dos corpos docente, discente e técnico-
administrativo é realizada independente de qualquer tipo de interferência do poder
público. A liberdade e a responsabilidade se somam em busca da melhor condição
de aproveitamento do potencial do ser humano que é transformado em cidadão.
54
3 ESTUDO DE CASO
3.1 FECEA – Histórico e Descrição da Instituição.
A Faculdade Estadual de Ciências Econômicas de Apucarana foi criada pelo
decreto nº. 26.298, publicado no Diário Oficial de 18/11/1959, e autorizada a
funcionar em 27 de julho de 1960, pelo Decreto Presidencial nº. 48376, de
22.06.1960, publicado pelo Diário Oficial da União, em 05.07 e está situada no Norte
do Paraná.
De acordo com o seu projeto pedagógico de 2001 a Fecea tem como missão
“Ser referência na formação integral do cidadão, capacitando-o para atuar como
agente de transformação sócio-econômica e cultural da comunidade, com
competência, ética e técnica. " O perfil do aluno que a Fecea deseja colocar no
mercado com fidelidade à sua missão é :
Visão holística do mercado e da organização, com capacidade de
leitura de cenários;
Visão das pessoas numa perspectiva de cooperação e com habilidade
interpessoal;
Habilidades individuais, sociais, interculturais e de conhecimento;
Conhecimento das áreas propedêuticas à área de sua formação;
Conhecimento técnico das áreas - fim da sua formação;
Competência para propiciar condições de autodesenvolvimento para si
e para seus futuros grupos de trabalho;
Habilidades de comunicação para o diálogo e troca de informações e
emoções junto a outras pessoas;
Habilidades relacionadas à liderança - a capacidade de influenciar
pessoas para atingir objetivos comuns;
Habilidades para que possa desenvolver o aprendizado contínuo.
Atualmente a Fecea mantém nove cursos de graduação que são:
1)Curso de Ciências Econômicas reconhecido em 03 de janeiro de 1968 e
está em exercício desde 1961;
55
2)Curso de Administração de Empresas reconhecido em 15 de fevereiro
de 1979 e está em exercício desde 1974,
3)Curso de Administração Hospitalar reconhecido em 15 de setembro de
1979 e está em exercício desde 1974;
4)Curso de Administração Pública reconhecido em 15 de fevereiro de
1979 e está em exercício desde 1974;
5)Curso de Ciências Contábeis reconhecido em 15 de fevereiro de 1979 e
está em exercício desde 1974;
6)Curso de Administração em Comércio Exterior reconhecido em 26 de
Julho de 1984 e está em exercício desde 1980;
7)Curso de Secretariado Executivo Trilíngüe com autorização de
funcionamento em 20 de março de 2001;
8)Curso de Serviço Social com autorização de funcionamento em 30 de
abril de 2002;.
9)Curso de Turismo com autorização de funcionamento em 30 de abril de
2002.
Dos nove cursos que a FECEA oferece atualmente, os sete primeiros foram
objetos desta pesquisa.
3.2 Estrutura do Instrumento de Coleta de Dados
A elaboração do instrumento de pesquisa visou satisfazer os objetivos do
trabalho que abrange três principais itens que são: quanto à organização didático-
pedagógico e infra-estrutura do curso, quanto à auto-avaliação do aluno e, quanto
ao desempenho docente. A partir da análise de vários questionários já aplicados em
várias instituições, chegou-se ao instrumento (Apêndice A) utilizado nesta pesquisa.
Cada item tinha as seguintes questões para serem analisadas pelos alunos:
Quanto a Organização Didático-Pedagógica e Infra-Estrutura do Curso:
1. Os recursos e os materiais pedagógicos disponíveis (tela, retroprojetor,
transparências, xerox, vídeo, etc.) são apropriados às atividades desenvolvidas.
56
2. Os recursos disponíveis para as atividades práticas e/ou de pesquisa
correspondem às necessidades da sua formação profissional.
3. As disciplinas do currículo correspondem às exigências do perfil profissional do
curso.
4. A organização das disciplinas favorece a integração entre os conteúdos.
5. O Curso oferece atividades acadêmicas (iniciação científica, monitoria, projetos de
extensão) para complementar sua aprendizagem.
6. O Curso oferece atividades em parceria e intercâmbios com a comunidade.
7. O sistema de atendimento e de informações disponíveis no Curso, facilitam as
atividades acadêmicas.
8. O ambiente físico da sala de aula (iluminação, ventilação, espaço, mobiliário)
favorece seu estudo.
9. O acervo da biblioteca atende às necessidades curriculares do Curso.
10. O nível de exigências de aprendizagem do Curso corresponde às necessidades
curriculares do Curso.
Quanto a Auto-Avaliação do Aluno
1.Sou pontual.
2. Permaneço na aula em tempo integral.
3. Realizo atividades acadêmicas (leitura, trabalhos, testes, exercícios, pesquisas)
previstas nas disciplinas.
4. Consulto, regularmente, bibliografias recomendadas e outros meios facilitadores
para a minha aprendizagem.
5. Participo das aulas, com levantamento de questões e sugestões para a ampliação
do meu conhecimento.
6.Estou integrado com o meu grupo, favorecendo também minha aprendizagem.
Quanto ao Desempenho Docente
A. Metodologia e Técnicas de Ensino
1. Informa o Programa da disciplina.
2. Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso.
3. Utiliza linguagem clara e acessível ao ministrar as aulas.
57
4. Relaciona teoria e prática na abordagem dos conteúdos.
5. Indica fontes de consulta adequadas à proposta da disciplina.
6. Utiliza procedimentos didáticos adequados à disciplina.
B. Postura Ética e Profissional
7. Demonstra possuir conhecimento atualizado do conteúdo que desenvolve.
8 .Estabelece uma relação de respeito mútuo e atenção com os alunos.
9. Incentiva a participação, discussão e expressão de idéias durante as aulas.
10. Foi pontual.
11. Foi freqüente.
12. Cumpre o horário das aulas.
13. Aproveita o tempo em sala de aula com explanação do conteúdo e atividades da
disciplina.
14. Apresenta-se motivado ao ministrar as aulas.
C. Processo Ensino-Aprendizagem
15. Exigiu nas Avaliações de aprendizagem os conteúdos desenvolvidos.
16. Utiliza instrumentos de Avaliação adequados à “disciplina”.
17. Discute os critérios a serem adotados nos procedimentos de Avaliação (o que e
como serão cobrados os conteúdos).
18. Analisa e comenta os resultados das Avaliações com os alunos.
3.3 Aplicação do Instrumento de Coleta de Dados
O questionário foi aplicado em novembro de 2001 nos sete cursos existentes
na época: Ciências Econômicas, Administração de Empresas, Administração em
Comércio Exterior, Administração Pública, Administração Hospitalar, Ciências
Contábeis e Secretariado Executivo Trilíngüe. Os alunos presentes no dia da
aplicação totalizaram 1142 alunos. A intenção em fazer a aplicação do questionário
antes das provas bimestrais do quarto bimestre foi de forma proposital, para que os
discentes não utilizassem a avaliação como instrumento de vingança com uma
suposta nota baixa que poderia alcançar no final do ano letivo. Em contra partida, os
58
resultados para os docentes só sairiam no mês de fevereiro do ano subseqüente.
Desta forma, todos os alunos poderiam responder as questões com a máxima
fidedignidade pois também não seriam alvo de perseguição, caso avaliassem algum
docente com baixo desempenho. Além disso, foi mantido anonimato do aluno para
resguardá-lo de quaisquer inconvenientes. O docente só poderia saber o seu
desempenho no contexto da turma e não de forma individual. Cada item do
instrumento foi avaliado como uma escala de classificação, apresentada em ordem
ascendete, que são:
1.Nunca
2. Raramente
3. Na Média
4. Quase Sempre
5. Sempre
3.4 Análise Multivariada
Segundo Reis (1997), a estatística multivariada trata-se de um conjunto de
métodos estatísticos que permite a análise simultânea de medidas múltiplas para
cada indivíduo ou objeto em análise, ou seja, qualquer método que permita a análise
simultânea de duas ou mais variáveis pode ser considerada como pertencente a
este campo científico. Sem dúvida que são métodos mais complexos que os de
estatística univariada (análise das distribuições de cada variável) ou bivariada
(cruzamento de variáveis, correlações, regressão simples) mas, em muitos casos,
não passam de generalizações dos métodos anteriores a mais de duas variáveis.
De acordo com Camargo (2001), as técnicas de análise multivariada
compreendem um grupo de procedimentos matemáticos e estatísticos que têm por
objetivo estudar as inúmeras variáveis que condicionam os fenômenos ligados ao
comportamento dos indivíduos. Muitas variáveis aparecem ao se estudar a
criatividade, aprendizado, inteligência, desempenho, produtividade em uma
organização, etc. De um modo geral, os métodos multivariados estudam as
influências de diversas variáveis independentes em uma ou mais variáveis
dependentes. As técnicas de análise multivariada são úteis para descobrir
regularidades no comportamento de duas ou mais variáveis e para testar modelos
59
pp xaxaxaxay 13132121111 ++++= K
ppppppp xaxaxaxay ++++= K332211
pp xaxaxaxay 23232221212 ++++= K
M M MM
alternativos de associação entre tais variáveis, incluindo a determinação de quando
e como dois ou mais grupos diferem em seu perfil multivariado.
A seguir serão descritos os métodos de análise multivariada utilizados neste
trabalho que são: Análise de Componentes Principais, Análise Discriminante e
Análise de Cluster.
Dois outros métodos de análise que foram utilizados no trabalho foram os de
Análise de Confiabilidade do Questionário e Análise de Correlação.
3.4.1 Análise de componentes principais
Ainda de acordo com Reis(1997), a análise de componentes principais é um
método estatístico multivariado que permite transformar um conjunto de variáveis
iniciais correlacionadas entre si, num outro conjunto de variáveis não
correlacionas(ortogonais), as chamadas componentes principais, que resultam de
combinações lineares do conjunto inicial. As componentes principais são calculadas
por ordem decrescente de importância, isto é, a primeira explica o máximo possível
da variância ainda não explicada, e assim por diante. A última será a que menor
contribuição dá para a explicação da variância total dos dados originais.
O objetivo da análise de componentes principais não é explicar as correlações
entre as variáveis, mas apenas encontrar funções matemáticas entre as variáveis
iniciais que expliquem o máximo possível da variação existente nos dados e os
permitam descrever e reduzir. A representação matemática das combinações
lineares não pressupõe a imposição de qualquer modelo causal mas também não
permite detectar quaisquer relações de causa-efeito entre as variáveis iniciais
mesmo se existirem.
As componentes principais são expressas como combinações lineares das
variáveis originais. Por exemplo, para m componentes e p variáveis ( m ≤ p);
60
Segundo Crivisqui (1997), os objetivos da análise de componentes principais
são:
a) Analisar as informações de uma tabela do tipo indivíduos x variável
quantitativa;
b) Avaliar a semelhança entre indivíduos;
c) Avaliar a relação entre as características consideradas.
Seja D = dij (i=1, 2, ..., n ; j = 1, 2, ..., p) a matriz de dados com p variáveis (x1 , x2 , ...
, xp) e cujo posto r é igual ao número de variáveis (r = p); procuraremos então
determinar y1, y2, ... , yp com as seguintes propriedades:
1) que cada variável y seja uma combinação linear das p variáveis xi
y1 = u11x1 + u12x2 + ... + u1pxp
y2 = u21x1 + u22x2 + ... + u1pxp
M M M M
yp = up1x1 + up2x2 + ... + xpu1p
2) que a soma dos quadrados dos coeficientes uij seja igual a 1;
( ) 11
2 =∑=
p
iiju
3) que as combinações lineares das variáveis estejam ordenadas por suas
variâncias;
Var y1 > Var y2 > ... > Var yp
4) que as novas variáveis y sejam não correlacionas entre si.
A idéia principal é que as primeiras k novas variáveis y, os primeiros
componentes principais, dêem conta da maior parte da variabilidade dos dados
originais, permitindo deixar de computar (p-k) componentes de menor importância.
Obtém-se dessa forma uma redução do número de variáveis sem perda
considerável de informação (Verdinelli)
Assim, a análise de Componentes Principais foi utilizada neste estudo de caso
para examinar as relações entre as variáveis e conseqüentemente reconhecer
agrupamentos de associações entre as variáveis por sua proximidade na projeção
plana.
61
3.4.2 Análise discriminante
Segundo Reis (1997) a análise discriminante surgiu com o desejo de se
distinguir estatisticamente entre dois ou mais grupos de indivíduos, previamente
definidos a partir de características conhecidas para todos os membros dos grupos.
Para distinguir os vários grupos entre si, o analista seleciona um conjunto de
características para as quais espera que os grupos apresentem diferenças
significativas. Em outras palavras, pretende-se discriminar grupos de indivíduos
definidos a priori com base num critério pré-definido, a partir da informação recolhida
sobre os indivíduos desses grupos.
Esta técnica de análise multivariada emprega-se para descobrir as
características que distinguem os membros de um grupo dos de outro, de modo que,
conhecidas as características de um novo indivíduo, se possa prever a que grupo
pertence. Desta forma, neste estudo de caso a análise multivariada foi empregada
para se explorar a performance conjunta das variáveis de um questionário e se
determinar a influência ou importância de cada uma, estando as restantes presentes.
A análise discriminante foi originalmente desenvolvida na botânica e a sua aplicação
teve como objetivo fazer a distinção de grupos de plantas com base no tamanho e
tipos de folhas, para que, posteriormente, fosse possível classificar as novas
espécies encontradas(Fisher apud REIS, 1997). Mas a aplicação da análise
discriminante cedo se generalizou a outras ciências, sempre que foi possível
encontrar grupos de indivíduos e conhecer quais as características que os
distinguem uns dos outros.
Em geral, o objetivo da análise discriminante é encontrar a separação máxima
entre os grupos através da maximização da diferença entre as médias dos grupos
relativamente aos desvios padrão no interior de cada grupo. O caso mais simples
seria o de dividir os indivíduos pelos diferentes grupos com base nos valores de uma
só variável.
De acordo com Bouroche e Saporta (1980, p. 102), a análise fatorial
discriminante permite descobrir as ligações que existem entre um caráter qualitativo
a ser explicado e um conjunto de caracteres quantitativos explicativos. A análise
fatorial discriminante permite, com a ajuda de uma visualização num plano fatorial
62
apropriado, descrever as ligações entre o caráter a ser explicado e os caracteres
explicativos.
3.4.2.1 Função Discriminante
Para Reis (1997), a análise discriminante é levada a cabo através de uma ou
mais combinações lineares das variáveis independentes utilizadas (Xi). Cada
combinação linear (Yj) constitui uma função discriminante
Yj = aiO + aj1 X1 + ai2 X2 + ... + aip Xp
em que os aij são coeficientes de ponderação e os Xj são as variáveis discriminantes
não-normalizadas. A situação ideal seria encontrar, para uma dada função
discriminante, valores idênticos para todos os casos pertencentes a um mesmo
grupo. Simultaneamente, as funções são determinadas de modo a maximizarem a
separação entre diferentes grupos. Uma vez estimadas as funções discriminantes, é
possível concretizar os dois objetivos da análise discriminante: análise e
classificação.
A análise é feita através de vários instrumentos de interpretação dos dados,
incluindo testes estatísticos para avaliar em que medida as variáveis utilizadas são
bons indicadores para discriminar os grupos. Os coeficientes de ponderação aij
podem ser interpretados como os coeficientes de um modelo de regressão múltipla
ou de análise fatorial e, como tal, servem para identificar as variáveis que mais
contribuem para distinguir os grupos dentro de uma mesma função Yj.
A utilização da análise discriminante como técnica de classificação pode ser
feita depois de dado o passo inicial, isto é, depois de se ter encontrado um conjunto
de variáveis que permita a discriminação significativa dos grupos, para os quais se
conhece a distribuição por grupos. É, então, possível estimar um conjunto de
funções que permitirão a classificação de novos casos, cujo agrupamento seja
inicialmente desconhecido.
63
3.4.2.2 Pressupostos da função discriminante
A autora ainda afirma que a técnica, que consiste em encontrar combinações
lineares das variáveis independentes para discriminar indivíduos pertencentes a
diferentes grupos, é considerada "a melhor" quando permite a minimização dos erros
de incorreta classificação. No entanto, este fato só é verdadeiro quando se verificam
os pressupostos seguintes:
1. Os grupos deverão ser retirados de populações que seguem uma
distribuição normal multivariada para as p variáveis discriminantes:
2. Dentro dos grupos a variabilidade deverá ser idêntica, isto é, as
matrizes de variância e covariância devem ser iguais para todos os
grupos.
A estes dois pressupostos metodológicos poderão ser ainda
acrescentados cinco outros pressupostos:
3. Existe um critério pré-definido que nos permite dividir os indivíduos
em dois ou mais grupos (k≥ 2);
4. O número de observações em cada grupo é pelo menos dois
(nj≥ 2);
5. O número de variáveis discriminantes (p) poderá ser qualquer, desde
que verifique a seguinte condição: ser menos que o número total de
observações (n) menos 2 (0 < p < n - 2);
6. Nenhuma das variáveis discriminantes poderá ser combinação linear
das restantes; sendo:
k = número de grupos
p = número de variáveis discriminantes
nj = número de indivíduos no grupo j (j = 1, 2, ..., k)
n = número total de indivíduos nos k grupos.
Assim a análise discriminante foi utilizada para encontrar grupos de professores
separados através da diferença entre médias dos grupos. Através da função
discriminante determinou-se também quais as questões do questionário que tem
maior relevância para os alunos, para classificar um professor em um determinado
grupo.
64
3.4.3 Análise de clusters
A análise de clusters, também conhecida como análise de conglomerado, é
uma técnica para agrupar pessoas ou itens em conglomerados de elementos
similares. Neste tipo de análise, “tenta-se identificar elementos similares pelas suas
características. Formam-se então grupos, ou conglomerados, que são homogêneos
e diferentes de outros grupos. Correlações e funções de distância entre elementos
são utilizados na definição dos grupos.” Aczel (apud PORTO, 2000, p.119).
Esta análise examina um conjunto completo de relacionamentos
interdependentes sem fazer distinção entre variáveis dependentes e independentes,
com o objetivo primário de classificar objetos em grupos relativamente homogêneo,
baseado no grupo de variáveis consideradas e diferentes dos outros grupos.
“Quando utilizada dessa maneira, a análise de conglomerados é o reverso da
análise fatorial, posto que reduz o número de objetos e não o número de variáveis,
por meio de agrupamentos destes em um menor número de conglomerados.”
Malhotra (apud PORTO, 2000, p.119).
Segundo Johnson e Wichern (apud RODRIGUES, 2002), a análise de clusters
corresponde também a uma importante técnica exploratória que busca identificar
uma estrutura de agrupamentos naturais para avaliar a dimensionalidade dos dados,
identificar outiliers e fornecer interessantes hipóteses acerca de associações – neste
último caso ela é usada sobretudo para grupar variáveis. Existem dois métodos de
agrupamento, o hierárquico e o não hierárquico.
O método hierárquico pode ser de dois tipos: aglomerativo (bottom-up) e
divisível (top-down). Estabelece-se uma relação de hierarquia entre o objeto
(individual) e o conjunto dos objetos(clusters). Uma vez incorporado a um grupo, o
objeto permanece associado a ele até o final do processo de clustering. Nesse
método, os critérios de grupamentos mais utilizados são o da associação simples
(baseada nas menores distâncias entre os objetos) e o da associação completa
(baseada na maior distância entre os objetos). Cada solução de cluster gerada deve
ser devidamente interpretada, a fim de que se identifique qual a mais adequada para
dar um significado aos dados em questão.
No método não hierárquico o processo de clustering é mais dinâmico e
interativo. Diferentemente do método hierárquico, ele permite que objetos deixem um
65
cluster e se associem a outro, de modo que esses reposicionamentos sucessivos
possam contribuir para melhorar os resultados finais. O critério não hierárquico mais
utilizado é o K-means, que permite que se defina inicialmente o vetor central dos
clusters(ou centróides), e que se busque, em seguida, inserir os objetos mais
próximos a eles. Como se vê, ao contrário do método anterior, o K-means possibilita
que se estabeleça, de antemão, o número de clusters com que se quer trabalhar, e
que se busque testar essa hipótese a partir do significado encontrado para aquela
solução de cluster.
Segundo Reis (1997) escolhida uma medida de distância, surge um problema
a resolver em qualquer análise de clusters: a escolha do critério de (des)agregação
dos indivíduos. Pode-se dizer que os vários métodos pretendem responder, de forma
diferente, às seguintes questões:
- distância entre indivíduos do mesmo grupo e distância entre indivíduos
de grupos diferentes;
- dispersão dos indivíduos dentro do grupo;
- densidade dos indivíduos dentro e fora dos grupos.
Os vários métodos de agregação dos indivíduos diferem no modo como
estimam distâncias entre grupos já formados e outros grupos ou indivíduos por
agrupar. O processo de agrupamento de indivíduos já agrupados depende da
distância entre os grupos. Portanto, diferentes definições destas distâncias poderão
resultar em diferentes soluções finais. Não existe aquilo a que se possa chamar o
melhor critério de (des)agregação dos casos em análise de clusters.
Neste estudo foi utilizado o critério de Ward, que segundo o autor baseia-se
na perda de informação resultante do agrupamento dos indivíduos e medida através
da soma dos quadrados dos desvios das observações individuais relativamente às
médias dos grupos em que são classificadas. Este método pode ser resumido nas
seguintes etapas:
- primeiro são calculadas as médias das variáveis para cada grupo;
- em seguida, é calculado o quadrado da distância Euclidiana entre essas médias e
os valores das variáveis para cada indivíduo;
- somam-se as distâncias para todos os indivíduos;
- por último, pretende-se otimizar a variância mínima dentro dos grupos.
A função objetivo que se pretende minimizar é também chamada soma dos
quadrados dos erros (ESS) ou soma dos quadrados dentro dos grupos (WSS). No
66
início do processo de agrupamento, cada indivíduo constitui um grupo e WSS = O.
Em seguida, são agrupados os dois indivíduos que provocam um aumento mínimo
no valor da soma dos quadrados dos erros, passando a existir n - 1 grupos; estes n -
1 grupos são então reexaminados e transformados em n - 2 grupos, mas de tal
modo que o aumento na função objetivo seja minimizado; o processo continua de
forma sistemática até todos os indivíduos formarem um grupo apenas.
Sendo assim, este estudo de caso optou por utilizar o método de análise de
clusters para confirmar e analisar a estrutura do questionário verificando se,
mediante as respostas dos alunos, as perguntas do questionário ficaram separadas
em grupos, conforme a proposta inicial do trabalho.
3.5 Confiabilidade do Questionário
Para Rosenberg(2002) quando se constrói um questionário para verificar a
percepção das pessoas sobre qualquer problema, o que se pretende é ter a certeza
de que as medições reflitam com precisão os resultados do questionário e estejam
livres de erros aleatórios. Quando estes são introduzidos nas medições, o resultado
observado é menos confiável para estimar o valor verdadeiro das medições.
Definiu-se a confiabilidade como sendo “o grau com que as medições estão
isentas de variâncias de erros aleatórios, onde esses erros diminuem a
confiabilidade das medições”, ou seja, a confiabilidade reflete o quanto os valores
observados estão relacionados aos valores verdadeiros. Hyaes (apud
ROSENBERG, 2002, p.106).
Para Pereira (2001, p.86) medida coerentes de um mesmo objeto são aquelas
que, embora o abordem sob um aspecto específico, mantêm alguma relação entre
si, já que mensuram o mesmo objeto. Em outras palavras, um bom indicador é
composto de medidas originais que têm um nível de correlação bem estabelecido
entre si. Para medir a consistência ou confiabilidade de um indicador pode-se utilizar
o coeficiente Alfa de Cronbach.
De acordo com Rosenberg(2002) a estimativa da confiabilidade através do Alfa
de Cronbach demonstra o grau em que os itens do questionário estão inter-
relacionados. Um alto índice de confiabilidade torna mais provável a descoberta de
67
relacionamentos entre variáveis realmente relacionadas, enquanto que a baixa
confiabilidade leva a um grau de incerteza nas conclusões.
Pereira (2001) afirma que o índice de Cronbach trabalha a relação entre
covariâncias e variâncias internas das medidas. Segundo Cronbach (apud
PEREIRA), o teste é robusto o suficiente para tolerar escalas não-homogêneas e
basear-se em correlações calculadas como razão de covariâncias e variâncias.
Quanto mais as variações entre as medidas do fenômeno, realizadas pelas
diferentes variáveis, superar as variações internas das variáveis individualmente,
melhor será o indicador. Além disso, quanto maior for o número de variáveis
compondo o indicador, tanto melhor ele será. A fórmula de cálculo do Alfa de
Cronbach é a seguinte:
/ varcov 1) -(k 1 / varcovk
+=α
k = número de variáveis consideradas
cov = média das covariâncias
var = média das variâncias.
O Alfa de Cronbach pode variar de 0 a 1, onde 1 demonstra presença de
consistência interna de 100% e zero significa a ausência total de consistência entre
os itens. A maioria dos autores pesquisados utiliza como limite de aceitação o valor
de 0,70 para o Alfa de Cronbach (NUNNALLY, 1978, CAMERON, 1978, HAIR Et
Al.,1995 apud ROSEMBERG, 2002), mas valores menores que 0,70 tem sido
considerado aceitos se a pesquisa é de natureza exploratória (Hair et al apud
ROSENBERG, 2002). Embora um valor de alfa de 0,70 seja freqüentemente
considerado para uma consistente estabilidade interna, Nunnally (apud Rosemberg,
2002) considera permissível que os valores de alfa possam ser um pouco menores
para questionário nunca aplicados em uma pesquisa exploratória e sugere o mínimo
de 0,60.
De acordo com Pereira (2001), a razão para que uma variável
concebida para compor um indicador acabe se mostrando inconsistente com o
conjunto das outras medidas componentes do indicador pode ser de pelo menos,
três ordens:
68
- Erro de escolha da variável: a medida não se aplica ao objeto e foi
selecionada ou concebida por conhecimento imperfeito do objeto por parte do
pesquisador.
- Erro de escolha da unidade de medida: as categorias utilizadas para a
variável não são boas descritoras do objeto.
- Erro de validade de face: como muitas medidas qualitativas são
obtidas pela opinião, se a variável não for perfeitamente compreendida pelo
interlocutor, a medida será prejudicada.
3.6 Análise de Correlação
Segundo Stevenson (1981) o objetivo do estudo correlacional é a
determinação da força do relacionamento entre duas observações emparelhadas. O
termo correlação significa literalmente co-relacionamento, pois indica até que ponto
os valores de uma variável estão relacionados com os de outra.
Dizemos que duas variáveis x e y, estão positivamente correlacionadas quando elas
caminham num mesmo sentido, ou seja, valores pequenos de x tendem a estar
relacionados com valores pequenos de y, enquanto valores grande de x tendem a
estar relacionados com valores grandes de y. Estão negativamente correlacionadas
quando elas caminham em sentidos opostos (Barbeta, 1999).
Ainda segundo o autor, o conceito de correlação refere-se a uma associação
numérica entre duas variáveis, não implicando, necessariamente, numa relação de
causa e efeito.
O resultado de uma análise de correlação é o coeficiente de correlação, um
valor que quantifica o grau de correlação (Stevenson, 1981).
O valor do coeficiente de correlação não deve depender da unidade de medida
dos dados. Para evitar o efeito da unidade de medida, Barbeta (1999) informa que
os dados devem ser padronizados da seguinte forma:
xSx-xx'=
onde
e,
====
x,de dados dos padrão desvio S x variávelda dados dos média x
x variávelda valor um xopadronizad valor um x'
x
69
ySy-yy'=
onde
====
x.de dados dos padrão desvio S x variávelda dados dos média x
x variávelda valor um xopadronizad valor um x'
x
O coeficiente de correlação linear r, é definido pela seguinte expressão, em
termos dos valores padronizados:
( )1-n
x'.y'r Σ=
onde n é o tamanho da amostra.
O coeficiente de correlação tem duas propriedades que caracterizam a
natureza de uma relação entre duas variáveis. Uma é o sinal (+ ou -) e a outra é a
sua magnitude. O sinal é o mesmo que o do coeficiente angular de uma reta
imaginária que se ajusta aos dados se fosse traçada num diagrama de dispersão, e
a magnitude de r indica quão próximos da reta estão os pontos individuais. Por
exemplo, valores de r próximos de -1 ou 1 indicam que os valores estão muito
próximos da reta, enquanto que os valores mais próximos de 0 sugerem maior
dispersão.(Stenvenson, 1981).
Neste estudo, a correlação foi utilizada para ratificar a relação entre as
questões para cada grupo do questionário e verificar a relação entre as médias dos
professores.
70
4 ANÁLISE DOS RESULTADOS
O questionário aplicado estava separado em três etapas, sendo a primeira
parte relacionada à organização didático-pedagógica e infra-estrutura do curso, a
segunda quanto à auto-avaliação do aluno e a terceira quanto ao desempenho
docente.
4.1 Análise da Organização Didático-Pedagógica e Infra-Estrutura do Curso
Na avaliação dos cursos pelos alunos, o questionário foi submetido ao teste
de consistência pelo Alfa de Cronbach, que permite identificar se as questões
pertencem ao mesmo grupo e se a utilização da escala foi compreendida, conforme
descrito na metodologia (capítulo 03).
A confiabilidade total medida pelo índice de Cronbach foi de 0,7838. Na
tabela 4.1 encontramos quais seriam os valores do alfa de Cronbach se
retirássemos a questão do questionário. A única questão que, se retirada, aumenta
um pouco este índice é a questão 8 (ambiente físico da sala de aula). Como este
aumento é muito pequeno e o valor encontrado para o grupo está acima de 0,6,
valor aceitável como uma consistente estabilidade (capítulo 3), a pergunta não foi
retirada e o questionário, é portanto, considerado confiável.
Tabela 4.1 - Confiabilidade das questões quanto à organização didático-pedagógica e infra-estrutura do curso
Questões Crombachα se deletado
01 – Os recursos e os materiais pedagógicos disponíveis são apropriados às atividades desenvolvidas 0,7676
02 – Os recursos disponíveis para as atividades práticas e/ou de pesquisa correspondem às necessidades da sua formação profissional. 0,7559
03 – As disciplinas do currículo correspondem às exigências do perfil profissional do curso. 0,7622
04 – A organização das disciplinas favorece a integração entre os conteúdos. 0,7689
05 – O Curso oferece atividades acadêmicas (iniciação científica, monitoria, projetos de extensão) para complementar sua 0,7665
71
aprendizagem. 06 – O Curso oferece atividades em parceria e intercâmbios com a
comunidade. 0,7721 07 – O sistema de atendimento e de informações disponíveis no
Curso, facilita as atividades acadêmicas. 0,7527 08 – O ambiente físico da sala de aula (iluminação, ventilação,
espaço, mobiliário) favorece seu estudo. 0,7848 09 – O acervo da biblioteca atende às necessidades curriculares do
curso. 0,7667 10 – O nível de exigências de aprendizagem do Curso corresponde
às necessidades curriculares do Curso. 0,7561
No gráfico 4.1, verificamos pela análise de cluster (método de Ward) que as
questões se separam em quatro grupos, de acordo com suas similaridades:
- O primeiro (grupo A) é relativo as atividades extra-classe oferecidas pelos
cursos.
- O segundo (grupo B) sobre a grade curricular e sua organização.
- O terceiro (grupo C) trata do ambiente físico, acervo da biblioteca e nível de
exigência do curso.
- O quarto (grupo D) diz respeito aos recursos e aos materiais pedagógicos.
Gráfico 4.1. Análise de Cluster – Similaridade das questões quanto à organização didático-pedagógica e infra-estrutura do curso
GrupamentosMétodo de Ward
1- rPearson
Dis
tânc
ia d
e Li
gaçã
o
0.5
0.6
0.7
0.8
0.9
1.0
1.1
Q6 Q5 Q4 Q3 Q8 Q9 Q10 Q7 Q2 Q1
A B C D
72
Podemos confirmar esta divisão na matriz de correlações apresentada no
Apêndice B1. Verificamos que a maior correlação da questão 1 é com a questão 2
(0,442), sendo que a questão 3 tem uma correlação maior com a 4(0,449) e desta
forma todos os grupos são formados de acordo com as suas correlações entre as
questões.
No gráfico 4.2, apresentamos a média das respostas e transformadas na
escala de 0 a 10 através da fórmula (Média – 1) x 2,5. O menor valor possível é 0 e
o maior 10. Podemos observar o baixo desempenho em quase todas as questões
em especial as questões do grupo A do gráfico 4.1.
Mesmo sendo uma Faculdade Estadual, sem muitos recursos, temos que
providenciar atividades acadêmicas (iniciação científica, monitoria, projetos de
extensão) e atividades em parcerias intercâmbios com a comunidade, para
complementar sua aprendizagem. Confirmamos que o aspecto da falta de recursos,
estão explicitas pelos alunos que avaliaram com uma média muito baixa na questão
dois. Verificamos um contentamento moderado, não questões três e quatro, que
referem-se à grade curricular.
Gráfico 4.2. Média das questões quanto à organização didático-pedagógica e infra-estrutura do curso.
5.3
3.7
6.1
5.5
3.4
2.3
4.1
5.1
4.5
3.6
0.0
1.0
2.0
3.0
4.0
5.0
6.0
7.0
1 2 3 4 5 6 7 8 9 10
Questões
Méd
ias
73
Verificamos no gráfico 4.3 que os cursos seguiram as mesmas tendências
nas suas avaliações, com uma pequena distorção na questão 08, sendo que no
grupo A do gráfico 4.1, com as questões de menor média, o curso de secretariado
atribuiu o menor valor.
Gráfico 4.3. Média por curso das questões quanto organização didático-pedagógica e infra-estrutura do curso.
0.0
1.0
2.0
3.0
4.0
5.0
6.0
7.0
8.0
1 2 3 4 5 6 7 8 9 10
Questões
Méd
ias
Adm. Hospitalar Adm. Pública Ciências ContábeisEconomia Empresas-diurno Empresas-noturnoExterior - Diurno Exterior - Noturno Secret
4.2 Análise da Auto-Avaliação do Aluno
Analisando a consistência do questionário, observamos na tabela abaixo que
nenhuma questão se retirada aumenta a confiabilidade do grupo. O valor índice de
Cronbach para o grupo é de 0,6908. Desta forma, consideramos o questionário
confiável.
74
Tabela 4.2 - Confiabilidade das questões quanto à auto-avaliação do aluno
Questões Crombachα se deletado
1. Sou pontual. 0,6757 2. Permaneço na aula em tempo integral. 0,6522 3. Realizo atividades acadêmicas (leitura, trabalhos, testes,
exercícios, pesquisas) previstas nas disciplinas. 0,6229 4. Consulto, regularmente, bibliografias recomendadas e outros
meios facilitadores para a minha aprendizagem. 0,6435 5. Participo das aulas, com levantamento de questões e sugestões
para a ampliação do meu conhecimento. 0,6541 6. Estou integrado com o meu grupo, favorecendo também minha
aprendizagem. 0,6534 No Apêndice B2 verificamos as correlações entre as questões do
questionário. Notamos que a questão 1 tem maior correlação com a questão 2
(0,440), a questão 3 tem maior correlação com a questão 4(0,433) e a questão 5 tem
um correlação maior com a questão 6(0,420). Através destas correlações
confirmamos como ficam divididos os grupos através do gráfico 4.4. Eles se dividem
em três grupos, pela análise de cluster.
♦O primeiro (grupo A) é relativo à participação das aulas e integração com o corpo
discente.
♦O segundo (grupo B) relaciona as atividades acadêmicas e consulta de bibliografia.
♦O terceiro (grupo C) é sobre pontualidade e permanência em sala de aula.
Gráfico 4.4. Análise de Cluster – Similaridade das questões quanto à auto-avaliação do aluno.
Grupamentos
Método de Ward
1- r Pearson
Dis
tânc
ia d
e Li
gaçã
o
0,5
0,6
0,7
0,8
0,9
1,0
1,1
Q6 Q5 Q4 Q3 Q2 Q1
A B C
75
No gráfico 4.5 visualizamos o baixo valor para as médias nas questões
4(consulto, regularmente, bibliografias recomendadas e outros meios facilitadores
para a minha aprendizagem) e 5(participo das aulas, com levantamento de questões
e sugestões para a ampliação do meu conhecimento) em relação as anteriores. Se
comparado isoladamente não seriam valores tão baixos, mas no contexto é um fator
preponderante para desenvolver um bom aprendizado. Constatou-se através das
respostas dos alunos, que muitos não estão consultando as fontes bibliográficas
indicadas pelos professores e admitem não participar das aulas através de
questionamentos e sugestões.
Gráfico 4.5. Médias das questões quanto à auto-avaliação do aluno
7.3
8.18.0
6.0
7.8
5.5
4.0
4.5
5.0
5.5
6.0
6.5
7.0
7.5
8.0
8.5
1 2 3 4 5 6
Questões
Méd
ias
Observamos no gráfico 4.6 que os as auto-avaliações dos alunos separadas
por cursos, o curso de Administração Pública atribuiu os menores valores para as
questões 4(consulto, regularmente, bibliografias recomendadas e outros meios
facilitadores para a minha aprendizagem) e 5(participo das aulas, com levantamento
de questões e sugestões para a ampliação do meu conhecimento);
76
Gráfico 4.6. Médias por curso das questões quanto à auto-avaliação do aluno.
3.0
4.0
5.0
6.0
7.0
8.0
9.0
10.0
1 2 3 4 5 6
Questões
Méd
ias
Adm. Hospitalar Adm. PúblicaCiências Contábeis EconomiaEmpresas-diurno Empresas-noturnoExterior - Diurno Exterior - NoturnoSecretariado
4.3 Análise do Desempenho Docente Esta etapa do questionário ficou dividida em três grupos:
A – Metodologia e Técnicas de Ensino
B – Postura Ética e Profissional
C – Processo Ensino-Aprendizagem
4.3.1 Análise do questionário
Na avaliação do corpo docente pelos alunos, o questionário teve um ótimo
índice quando calculado como um todo. Quando dividido nas três categorias o valor
do índice diminui, mas não de forma que atrapalha a confiabilidade da pesquisa. A
confiabilidade total medida pelo Alfa de Cronbach foi de 0,9503. Nenhuma questão,
se retirada, aumenta este índice.
77
Tabela 4.3 - Confiabilidade das questões quanto ao desempenho docente
Questão Crombachα se deletado
01 – Informa o programa da disciplina 0,9496 02 – Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso 0,9460 03 – Utiliza linguagem clara e acessível ao ministrar as aulas. 0,9470 04 – Relaciona teoria e prática na abordagem dos conteúdos 0,9470 05 – Indica fontes de consulta adequadas à proposta da disciplina 0,9479 06 – Utiliza procedimentos didáticos adequados à disciplina 0,9458 07 – Demonstra possuir conhecimento atualizado do conteúdo que
desenvolve 0,9474 08 – Estabelece uma relação de respeito mútuo e atenção com os alunos 0,9471 09 – Incentiva a participação, discussão e expressão de idéias durante as
aulas 0,9469 10 – Foi pontual 0,9493 11 – Foi freqüente 0,9497 12 – Cumpre o horário das aulas 0,9488 13 – Aproveita o tempo em sala de aula com explanação do conteúdo e
atividades da disciplina 0,9464 14 – Apresenta-se motivado ao ministrar as aulas 0,9458 15 – Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos 0,9481 16 – Utiliza instrumentos de Avaliação adequados à “disciplina” 0,9468 17 – Discute os critérios a serem adotados nos procedimentos de
Avaliação (o que e como serão cobrados os conteúdos) 0,9475 18 – Analisa e comenta os resultados das Avaliações com os alunos 0,9487
Fazendo a análise do índice de Cronbach nos três grupos do questionário
obtemos os seguintes resultados apresentados nas tabelas 4.4, 4.5 e 4.6.
Tabela 4.4 - Confiabilidade das questões quanto a metodologia e técnicas de ensino.
Questão Crombachα
se deletado01 – Informa o programa da disciplina 0,8988 02 – Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso 0,8671 03 – Utiliza linguagem clara e acessível ao ministrar as aulas. 0,8738 04 – Relaciona teoria e prática na abordagem dos conteúdos 0,8721 05 – Indica fontes de consulta adequadas à proposta da disciplina 0,8828 06 – Utiliza procedimentos didáticos adequados à disciplina 0,8655
A confiabilidade medida pelo índice de Cronbach foi de 0,8954. Somente a
questão 1, se retirada, aumenta timidamente este índice.
78
Tabela 4.5 - Confiabilidade das questões quanto a postura ética e profissional.
Questão Crombachα se deletado
07 – Demonstra possuir conhecimento atualizado do conteúdo que desenvolve 0,8944
08 – Estabelece uma relação de respeito mútuo e atenção com os alunos 0,8902 09 – Incentiva a participação, discussão e expressão de idéias durante as
aulas 0,8936 10 – Foi pontual 0,8923 11 – Foi freqüente 0,8939 12 – Cumpre o horário das aulas 0,8893 13 – Aproveita o tempo em sala de aula com explanação do conteúdo e
atividades da disciplina 0,8835 14 – Apresenta-se motivado ao ministrar as aulas 0,8820
A confiabilidade medida pelo índice de Cronbach foi de 0,9024. Nenhuma
questão, se retirada, aumenta este índice.
Tabela 4.6 - Confiabilidade das questões quanto ao processo de ensino-aprendizagem
Questão Crombachα se deletado
15 – Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos 0,8136 16 – Utiliza instrumentos de Avaliação adequados à “disciplina” 0,7727 17 – Discute os critérios a serem adotados nos procedimentos de
Avaliação (o que e como serão cobrados os conteúdos) 0,7709 18 – Analisa e comenta os resultados das Avaliações com os alunos 0,8240
A confiabilidade medida pelo índice de Cronbach foi de 0,8385. Nenhuma
questão, se retirada, aumenta este índice.
Na Tabela 4.7, consta à freqüência das questões respondidas pelos alunos.
Pode-se observar um destaque maior nas questões 1(Informa o programa da
disciplina), 7(Demonstra possuir conhecimento atualizado do conteúdo que
desenvolve, 10(Foi pontual), 11(Foi freqüente), 12( Cumpre o horário das aulas) e
15( Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos) que
obtiveram percentual acima de 50%.
79
Tabela 4.7 – Freqüências das respostas para cada questão quanto ao desempenho docente
Opções
Questões 1
Nunca 2
Raramente3
Na média 4
Quase sempre 5
Sempre 1 5% 6% 17% 21% 51% 100% 2 4% 9% 21% 26% 40% 100% 3 5% 10% 20% 25% 40% 100% 4 6% 11% 22% 25% 36% 100% 5 8% 14% 24% 24% 30% 100% 6 6% 10% 26% 26% 32% 100% 7 3% 6% 15% 20% 56% 100% 8 5% 7% 16% 22% 50% 100% 9 8% 10% 21% 23% 38% 100%
10 4% 6% 15% 22% 53% 100% 11 4% 5% 14% 21% 56% 100% 12 3% 5% 13% 20% 59% 100% 13 4% 7% 19% 26% 44% 100% 14 5% 7% 20% 24% 44% 100% 15 3% 4% 12% 21% 60% 100% 16 5% 6% 20% 27% 42% 100% 17 7% 8% 20% 25% 40% 100% 18 13% 11% 20% 21% 35% 100%
No gráfico 4.7, verificamos pela análise de cluster ( método de Ward e
distância euclidiana) que as questões se separam em cinco grupos, de acordo com
suas similaridades, aproximando-se muito da proposta do questionário elaborado.
Gráfico 4.7. Análise de Cluster – Similaridade das questões ao desempenho docente.
GrupamentosMétodo de Ward
1- rPearson
Dis
tânc
ia d
e Li
gaçã
o
0.0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
Q12 Q11
Q10 Q14
Q13 Q9
Q8 Q5
Q7 Q4
Q3 Q6
Q2 Q18
Q17 Q16
Q15 Q1
B2 B1 C A1A2
80
A tabela 4.8 mostra a formação obtida na análise de cluster aos grupos
formados, nota-se uma boa validade do questionário, uma vez que eles seguiram a
divisão feita na elaboração do mesmo; ressaltando apenas a formação de pequenos
sub-grupos A1 e B2. O primeiro sub-grupo ficou isolado não por acaso, pois a
questão 1, foi a que, se retirada do grupo, faria o Alfa de Cronbach aumentar, e o
segundo sub-grupo formado por questões sobre pontualidade e freqüência, que
teoricamente também faz parte de uma postura ética e profissional, não apresentou
muita afinidade com o grupo. No gráfico 4.7 verificamos apenas o inconveniente de
que a questão 7 está junto com questões relativas à metodologia, e não de postura
ética como era de se esperar.
Tabela 4.8. Agrupamentos formados pela análise de clusters
AGRUPAMENTOS MAIORES MENORES
QUESTÕES
A1 1 Informa o programa A2 2 Conteúdo Adequado A2 3 Linguagem Clara A2 4 Relaciona Teoria e Prática A2 5 Indica Fontes de Consulta
GRUPO A
A2 6 Utiliza Procedimentos Didáticos A2 7 Possui Conhecimento do Conteúdo
B1 8 Respeito Mútuo e Atenção B1 9 Incentiva Participação B1 13 Utiliza tempo para dar Aula B1 14 Apresenta-se Motivado B2 10 Pontual B2 11 Freqüente
GRUPO B
B2 12 Cumpre Horário C 15 Avaliou os Conteúdos Desenvolvidos C 16 Instrumentos de Avaliação Adequados C 17 Discute Critérios da Avaliação GRUPO C
C 18 Analisa e Comenta Resultados das Avaliações
Na tabela 4.9, verificamos que os fatores 1 e 2 são os que melhor explicam as
variáveis em estudo, sendo que de uma escala de 0 a 18, os seus autovalores
acumulados são de 11,5. Podemos observar que os fatores 1 e 2 explicam 63,92%
da variância total.
81
Tabela 4.9. Autovalores dos componentes principais para as questões quanto ao desempenho docente
VARIÂNCIA FATOR AUTOVALOR % Cumulativa
1 9,8606 54,78% 54,78% 2 1,6442 9,13% 63,92% 3 0,7768 4,32% 68,23% 4 0,7105 3,95% 72,18% 5 0,6503 3,61% 75,79% 6 0,5159 2,87% 78,66% 7 0,4519 2,51% 81,17% 8 0,4440 2,47% 83,63% 9 0,3874 2,15% 85,79%
10 0,3595 2,00% 87,78% 11 0,3271 1,82% 89,60% 12 0,3102 1,72% 91,32% 13 0,3020 1,68% 93,00% 14 0,2766 1,54% 94,54% 15 0,2705 1,50% 96,04% 16 0,2557 1,42% 97,46% 17 0,2394 1,33% 98,79% 18 0,2173 1,21% 100,00%
TOTAL 18,0000 100,00% -
Podemos visualizar os mesmos grupos formados na análise de cluster no
gráfico 4.8 obtido pelo método de componentes principais.
Gráfico 4.8. Análise de componentes principais (2 Fatores) – Similaridade das questões quanto ao desempenho docente.
Componentes PrincipaisRotação - Varimax Normalizada
Fator 1
Q1Q2
Q3Q4Q5
Q6 Q7Q8
Q9
Q10Q11 Q12
Q13
Q14Q15
Q16
Q17Q18
0,0
0,2
0,4
0,6
0,8
1,0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9
A 1
A 2
B 1
B 2
C
82
Podemos observar no gráfico 4.9 que com a contribuição do terceiro fator, as
questões 1, 5 e 2, pertencem a um mesmo grupo, assim como as questões 08 e 09.
Gráfico 4.9. Análise de componentes principais (3 Fatores) – Similaridade das
questões quanto ao desempenho docente.
Componentes Principais
Rotação - Varimax Normalizada
Q1
Q2Q3Q4
Q5
Q6
Q7Q8Q9
Q10Q11Q12
Q13 Q14
Q15 Q16Q17Q18
A
B
C
4.3.2 Análise dos professores
A tabela 4.10 representa a forma como os professores foram classificados
quanto à avaliação dos alunos. Foi feito a média das respostas e transformadas na
escala de 0 a 10 através da fórmula (Média – 1) x 2,5. O menor valor possível foi 0 e
o maior foi 10. Os grupos foram criados com os seguintes critérios:
Tabela 4.10. Critérios para classificação CLASSE NOTAS
D 00 |---┤ 04 C 04 ---┤ 06 B 06 ---┤ 08 A 08 ---┤ 10
83
Com isto, as funções discriminantes obtidas são as seguintes:
Tabela 4.11. Funções de Classificação GRUPO Questão
A B C D 1 4,24 3,68 3,15 2,43 2 3,03 2,34 1,67 0,83 3 3,72 3,01 2,45 1,82 4 3,53 2,83 2,26 1,51 5 2,95 2,21 1,80 1,29 6 2,05 1,39 0,92 0,52 7 5,33 4,90 4,13 3,04 8 5,13 4,43 3,51 2,34 9 3,12 2,43 1,95 1,28
10 2,91 2,47 2,04 1,35 11 3,94 3,36 2,83 2,21 12 4,79 4,21 3,59 2,48 13 3,36 2,67 2,01 1,12 14 3,64 2,85 2,04 1,09 15 4,82 4,48 3,98 2,96 16 3,51 2,84 2,24 1,48 17 3,26 2,68 2,07 1,33 18 2,89 2,16 1,64 1,06
Constante -155,75 -108,58 -72,18 -35,53
Com estas funções obteve-se a seguinte matriz de classificação, no qual
apresenta 96,5% de percentual de acertos.
Tabela 4.12. Matriz de Classificação
Calculado
Percentual Correto A B C D
A 98,4% 4.325 70 0 0 B 97,9% 24 2.602 31 0 C 94,4% 0 80 1.393 2 D 86,2% 0 0 121 754
Obs
erva
do
Total 96,5% 4.349 2.752 1.545 756
No gráfico 4.10 consta uma visão geral da classificação obtida anteriormente.
Nota-se uma boa discriminação no eixo 1. O percentual de acertos das funções
discriminantes de 91,4% para os professores classificados nos grupos C e D que
apresentaram as maiores deficiências segundo a classificação dos alunos.
84
Gráfico 4.10. Clusters formados nas raízes 1 e 2 da análise discriminante. Grupos Discriminados
Raiz 1
Rai
z 2
-5
-4
-3
-2
-1
0
1
2
3
4
5
6
-12 -10 -8 -6 -4 -2 0 2 4
A B
C D
A tabela 4.13 apresenta uma classificação por ordem de importância nas
questões do questionário, de acordo com a função obtida na tabela 4.8. Podemos
verificar que em todos os grupos a questão que mais influenciou foi a 7(possuir
conhecimento atualizado do conteúdo), e a de menor peso foi a questão 6( Utiliza
procedimentos adequados à disciplina).
Tabela 4.13. Classificação das questões nos grupos QUESTÃO A B C D SOMA Q - 7 1 1 1 1 4 Q - 15 3 2 2 2 9 Q - 8 2 3 4 5 14 Q - 12 4 4 3 3 14 Q - 1 5 5 5 4 19 Q - 11 6 6 6 6 24 Q - 3 7 7 7 7 28 Q - 4 9 10 8 8 35 Q - 16 10 9 9 9 37 Q - 14 8 8 11 15 42 Q - 17 12 11 10 11 44 Q - 13 11 12 13 14 50 Q - 10 16 13 12 10 51 Q - 9 13 14 14 13 54 Q - 5 15 16 15 12 58 Q - 2 14 15 16 17 62 Q - 18 17 17 17 16 67 Q - 6 18 18 18 18 72
+
-
85
No gráfico 4.11 verificamos que todos os grupos seguem uma mesma
tendência, e todos apresentaram uma queda nas questões 5(Indica fonte de
consulta), 9(incentiva a participação, discussão e expressão de idéias durante as
aulas), 14(Apresenta-se motivado ao ministrar as aulas) e 18( Analisa e comenta os
resultados das avaliações com os alunos). Desta forma, a faculdade necessita com
urgência providenciar cursos de capacitação para estes professores que fazem parte
do grupo D, pois estão com deficiência nos três grupos do questionário.
Gráfico 4.11. Média das questões quanto ao desempenho docente para os quatro grupos determinantes.
0123456789
10
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
QUESTÃO
NO
TA
A
B
C
D
No Apêndice C1 observamos o quadro comparativo entre as médias dos
professores, no qual foi feito um teste de Tuckey. As células vermelhas indicam 99%
de confiança no teste, as amarelas indicam 95% de confiança e as brancas não há
diferença significativa, ou seja, apesar dos professores não possuírem médias iguais
não são significativamente diferentes ao nível de 95% de confiança.
No Apêndice C2 verificamos as notas médias de cada questão por professor.
As células amarelas indicam notas inferiores a seis. Os dez últimos professores
estão com deficiências em todas as áreas. Podemos visualizar ainda que alguns
professores com médias abaixo de sete, possuem um rendimento baixo no grupo do
questionário de Metodologia e Técnicas de Ensino. Para sanar este problema a
faculdade poderia providenciar um curso específico para este grupo. Ainda
86
visualizamos uma deficiência em muitos professores que estão acima da média na
questão nove do segundo grupo (Incentiva a participação, discussão e expressão de
idéias durante as aulas) e na questão dezoito do terceiro grupo (Analisa e comenta
os resultados das avaliações com os alunos). Estas questões podem ser levantadas
para todos os professores nas reuniões dos departamentos pelos coordenadores de
cursos, no intuito de melhorar a performance dos mesmos nos aspectos abordados
nessas questões.
4.3.3 Análise dos cursos Podemos verificar através da tabela 4.14 uma boa média de cada questão por
curso. Observamos que os cursos que apresentam as notas acima das médias
gerais em cada questão estão com as células amarelas. Os cursos de Administração
de Empresas Diurno e Noturno e Administração em Comércio Exterior Noturno são
os cursos que apresentam maior descontentamento entre os alunos.
Tabela 4.14. Média por curso das questões quanto ao desempenho docente.
Questões Adm
. H
ospi
tala
r
Adm
. Púb
lica
Ciê
ncia
s.
Con
tábe
is
Eco
nom
ia
Empr
esas
di
urno
Empr
esas
no
turn
o
Ext
erio
r D
iurn
o
Ext
erio
r N
otur
no
Sec
reta
riado
TOTAL 1 7.78 7.97 7.28 8.15 7.43 7.69 7.61 7.49 8.25 7.67 2 7.10 7.50 7.11 7.54 7.05 7.17 7.28 7.06 7.86 7.22 3 7.07 7.08 7.02 7.28 7.03 7.06 7.41 7.12 7.47 7.12 4 6.67 6.99 6.87 7.10 6.71 6.85 6.93 6.79 7.15 6.86 5 6.05 6.41 5.80 7.11 6.31 6.51 6.04 6.19 6.61 6.30 6 6.58 6.71 6.66 7.17 6.58 6.52 6.63 6.50 7.51 6.65 7 8.01 8.05 7.93 8.39 7.93 7.90 7.96 7.79 8.46 7.97 8 7.55 7.80 7.81 8.05 7.37 7.46 7.53 7.53 8.05 7.62 9 6.74 6.87 6.96 7.29 6.64 6.81 6.98 6.59 7.52 6.84 10 8.00 8.28 8.12 7.95 7.34 7.77 7.64 7.84 8.67 7.90 11 8.09 8.32 8.51 8.11 7.59 8.00 7.66 7.83 8.29 8.03 12 8.23 8.50 8.54 8.24 7.53 8.12 7.74 8.12 9.03 8.18 13 7.44 7.71 7.45 7.64 7.10 7.42 7.31 7.24 8.17 7.43 14 7.28 7.48 7.71 7.74 6.93 7.31 7.08 7.08 8.08 7.33 15 8.25 8.32 8.50 8.48 7.95 8.06 8.47 8.39 9.13 8.30 16 7.28 7.38 7.42 7.90 7.24 7.20 7.49 7.18 8.19 7.35 17 6.98 7.16 7.15 7.66 6.95 6.85 7.02 6.84 7.30 7.02 18 5.92 6.65 6.51 7.29 5.96 6.18 6.14 6.25 6.43 6.32
87
No gráfico 4.12, verificamos as mesmas tendências já observadas nos grupos
formados no gráfico 4.4. Podemos acrescentar que nos grupos em que o
questionário ficou dividido, metodologia e técnicas de ensino ficaram com as
menores médias.
Gráfico 4.12. Média por curso das questões quanto ao desempenho docente.
5.5
6.0
6.5
7.0
7.5
8.0
8.5
9.0
9.5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18QUESTÕES
NO
TA M
ÉDIA
Adm. Hospitalar Adm. PúblicaCiências Contábeis EconomiaEmpresas-diurno Empresas-noturnoExterior - Diurno Exterior - NoturnoSecretariado
METODOLOGIA E TÉCNICAS DE ENSINO
POSTURA ÉTICA E PROFISSIONAL
PROCESSO ENSINO APRENDIZAGEM
Analisando o gráfico acima em cada grupo do questionário temos:
A - Metodologia e Técnicas de Ensino
Ponto Negativo;
♣Questão 05(Indica fontes e conteúdo da disciplina): 22% das respostas
foram “nunca ou raramente”, sendo;
do curso de Comércio Exterior Diurno são 26% (Apêndice D1) , do 3º Ano são 41%
(Apêndice D2) e do 5º Ano são 40% (Apêndice D3).;
88
do curso de Adm. Hospitalar são 26% (Apêndice D4), do 2º Ano são 26%
(Apêndice D5) e do 3º Ano são 28% (Apêndice D6);
do curso de Ciências Contábeis são 27% (Apêndice D7), do 2º Ano são 30%
(Apêndice D8) e do 4º Ano são 48% (Apêndice D9).
Ponto Positivo;
♣Questão 01(Informa o Programa da disciplina): 51% das respostas foram
“sempre”, sendo:
do curso de Comércio Exterior Diurno são 55% (Apêndice D1), do 2º Ano são 64%
(Apêndice D10)e do 5º Ano são 68% (Apêndice D3);
do curso de Adm. Pública são 56% (Apêndice D11), do 1º Ano são 54% (Apêndice
D12), do 2º Ano são 71% (Apêndice D13) e do 5º Ano são 61% (Apêndice D14);
do curso de Ciências Econômicas são 61% (Apêndice D15), do 1º Ano são 72%
(Apêndice D16), do 2º Ano são 61% (Apêndice D17) e do 3º Ano são 58%
(Apêndice D18).
B – Postura Ética e Profissional
Pontos Negativos;
♣Questão 09(Incentiva a participação, discussão e expressão de idéias):
17% das respostas foram “nunca ou raramente”, sendo;
do curso de Comércio Exterior Diurno são 18% (Apêndice D1), do 3º Ano são 37%
(Apêndice D2) e do 4º Ano são 46% (Apêndice D19);
do curso de Adm. Pública são 24% (Apêndice D11), do 3º Ano são 25% (Apêndice
D20) e do 5º Ano são 24% (Apêndice D14).
89
♣Questão 14 (Apresenta-se motivado ao ministrar as aulas): 12% das
respostas foram “nunca ou raramente”, sendo;
do curso de Adm. Empresas Diurno são 16% (Apêndice D21), do 2º Ano são 22%
(Apêndice D27) e do 3º Ano são 29% (Apêndice D23).
Pontos Positivos;
♣Questão 07(Demonstra possuir conhecimento atualizado): 56% das
respostas foram “sempre”, sendo:
do curso de Ciências Econômicas são 63% (Apêndice D15), do 1º Ano são 72%
(Apêndice D16) e do 4º Ano são 71% (Apêndice D24).
do curso de Secretariado Executivo Trilíngüe são 69% (Apêndice D25), sendo
todas do 1º Ano.
♣Questão 10(Foi pontual): 54% das respostas foram “sempre”,
sendo:
do curso de Adm. Pública são 69% (Apêndice D11), do 1º Ano são 66% (Apêndice
D12), do 2º Ano são 69% (Apêndice D13) e do 5º Ano são 69% (Apêndice D14).
do curso de Secretariado Executivo Trilíngüe são 64% (Apêndice D25), sendo
todas do 1º Ano.
do curso de Ciências Econômicas são 59% (Apêndice D15), do 1º Ano são 67%
(Apêndice D16), do 2º Ano são 64% (Apêndice D17) e do 3º ano são 63%
(Apêndice D18).
♣Questão 12(Cumpre o horário das aulas): 59% das respostas
foram “sempre”, sendo:
do curso de Adm. Pública são 67% (Apêndice D11), do 1º Ano são 69% (Apêndice
D12), do 2º Ano são 71% (Apêndice D13) e do 5º Ano são 67% (Apêndice D14).
90
do curso de Secretariado Executivo Trilíngüe são 75% (Apêndice D25), sendo
todas do 1º Ano.
do curso de Ciências Contábeis são 65% (Apêndice D7), do 3º Ano são 71%
(Apêndice D26) e do 5º Ano são 72% (Apêndice D27)
C – Processo Ensino Aprendizagem
Ponto Negativo;
♣Questão 18(Analisa e comenta os resultados das avaliações):
24% das respostas foram “nunca ou raramente”, sendo;
do curso de Adm. Empresas Diurno são 29% (Apêndice D21), do 4º Ano são 41%
(Apêndice D28) e do 5º Ano são 45% (Apêndice D29).
do curso de Adm. Hospitalar são 30% (Apêndice D4), do 1º Ano são 38%
(Apêndice D30) e do 5º Ano são 33% (Apêndice D31);
Ponto Positivo;
♣Questão 15 (Exigiu nas avaliações os conteúdos desenvolvidos):
61% das respostas foram “sempre”, sendo:
do curso de Comércio Exterior Diurno são 66% (Apêndice D1), do 1º Ano são 80%
(Apêndice D32) e do 2º Ano são 66% (Apêndice D10).
do curso de Ciências Econômicas são 65% (Apêndice D15), do 1º Ano são 75%
(Apêndice D16), do 2º Ano são 72% (Apêndice D17) e do 3º Ano são 71%
(Apêndice D18).
do curso de Secretariado Executivo Trilíngüe são 64% (Apêndice D25), sendo
todas do 1º Ano.
91
Na Figura 4.1, observamos a comparação entre as médias dos cursos, no
qual foi feito um teste de Tuckey. As células vermelhas indicam 99% de confiança no
teste, as amarelas indicam 95% de confiança e as brancas não apresentam
diferença significativa, ou seja, apesar dos cursos não possuírem médias iguais não
são significativamente diferentes ao nível de 95% de confiança.
Figura 4.1 – Comparação das médias dos cursos quanto ao desempenho docente
4.3.4 Análise dos departamentos
Na figura 4.2 verificamos que o departamento de Métodos Quantitativos é o
melhor da faculdade nas avaliações dos alunos. Sua média não é significativamente
diferente em relação ao departamento de Ciências Humanas, apesar de possuírem
médias diferentes, ao nível de 99% de confiança. O departamento com menor média
é o departamento de Economia. Sua média é significativamente diferente em relação
a todos os departamentos, ao nível de 99 de confiança.
92
Figura 4.2 – Comparação das médias dos departamentos quanto ao desempenho
dos docentes.
4.3.5 Análise dos anos
Na figura abaixo, observamos que os alunos dos 2os Anos estão mais
satisfeitos com os seus professores. Sua média é significativamente diferente em
relação aos demais anos.
Figura 4.3 – Comparação das médias dos anos quanto
ao desempenho docente
93
5 CONCLUSÕES E RECOMENDAÇÕES
A avaliação institucional precisa ser um elo entre o administrador (direção e
coordenação) e o professor. O primeiro necessita conhecer como está a sua
instituição, na visão dos seus clientes os alunos, e desta forma, dar condições de
trabalho aos professores, para que possam se aperfeiçoar nos seus pontos fracos e
até mesmo trocar experiências com outros docentes, em relação a seus pontos
fortes. Assim a avaliação institucional que foi proposta tem a intenção não de punir
mas sim mostrar pontos relevantes que possam ser úteis para toda comunidade
acadêmica. Só assim será possível construir uma instituição de ensino que almeja
estar no caminho de um crescimento seguro.
5.1 CONCLUSÕES Com a realização deste estudo de caso, foi possível verificar vários pontos
relevantes que irão contribuir para a instituição refletir como um todo. A auto-
avaliação dos alunos, mostrou características interessantes de serem repassadas
para o corpo docente e até mesmo o corpo discente. Em relação aos objetivos do
início do trabalho, pode-se afirmar que todos foram alcançados, conforme mostrado
a seguir:
1)O modelo de avaliação elaborado através da análise de vários questionários,
resultou em um instrumento que alcançou uma confiabilidade acima dos valores
considerados aceitáveis, pelos autores descritos neste trabalho. O índice encontrado
na análise do alfa de Cronbach foi assim determinado:
Para a avaliação dos cursos 0,78;
Para a auto-avaliação dos alunos 0,69;
Para a avaliação dos docentes 0,95.
2)Na avaliação dos cursos quanto a organização didático pedagógica e sua
infra-estrutura, os alunos não atribuíram boas notas, para que fosse possível
ressaltar pontos positivos. Os principais problemas que foram constatados nesta
análise são:
94
Os recursos disponíveis para atividades práticas e ou de pesquisa não
correspondem às necessidades da sua formação profissional;
Os cursos não oferecem atividades acadêmicas (iniciação científica,
monitoria, projetos de extensão) para complementar a sua
aprendizagem;
Os cursos não oferecem atividades em parceria e intercâmbios com a
comunidade;
O sistema de atendimento e de informações disponíveis no curso, não
facilitam as atividades acadêmicas;
O ambiente físico da sala de aula não favorece os estudos;
O acervo da biblioteca não atende às necessidades curriculares do
curso.
Diante destas informações, nas quais os alunos estão mostrando sua
indignação com o seu curso, atribuindo médias baixas em quase todos os itens do
questionário, (valores estes já relatados no capitulo quatro), os coordenadores e a
administração da instituição precisam encontrar caminhos para mudar este quadro.
Todos os cursos tiveram médias muito próximas, não diferenciando mais do que 1
ponto numa escala de zero a 10. Um item que ficou com média 5,1 e, desta forma,
não mencionada anteriormente, é a questão 10 (o nível de exigência de
aprendizagem do curso). Apenas 26% dos alunos responderam (quase sempre e
sempre), os outros de alguma forma estão informando que poderiam ser mais
exigidos. Na segunda parte do questionário (auto-avaliação dos alunos)
encontramos uma relação bastante interessante que vem de encontro com esta
posição.
3)A auto avaliação dos alunos apresentou médias relativamente altas, mas, em
geral, pode-se perceber que os discentes estão fazendo somente o mínimo
necessário para exercer sua posição de estudante, ou seja, atribuíram ótimas notas
no seguintes quesitos:
Sou pontual;
Permaneço na aula em seu tempo integral;
Realizo atividades acadêmicas (leituras, trabalhos, testes, exercícios,
pesquisa) previstas nas disciplinas;
Estou integrado com o meu grupo, favorecendo também minha
aprendizagem.
95
Observa-se, portanto, que são itens que não exigem nenhum esforço além do
que costumeiramente os alunos são cobrados. As outras duas questões que
requerem um esforço maior do aluno, obtiveram notas inferiores as outras, ou seja,
os alunos não estão:
consultando fontes bibliográficas e
participando das aulas com levantamento de questões e sugestões.
São pontos que realmente fazem a diferença no aprendizado, pois não basta
ter um bom quadro docente, se os alunos não estiverem imbuídos em participar
ativamente do processo ensino-aprendizagem.
4)Na terceira parte do questionário, onde os alunos avaliam os professores,
temos uma divisão bastante significativa quanto às diferenças dos grupos. Apesar
de estarem divididos em quatro grupos que são:
♦A – média maior que 8 e menor ou igual a 10;
♦B – média maior que 6 e menor ou igual a 8;
♦C – média maior que 4 e menor ou igual a 6;
♦D – média maior ou igual a zero e menor ou igual a 4,
Todos obtiveram uma linha de tendência que se aproximam nas oscilações. As
questões a seguir tiveram uma queda em suas médias, em todos os grupos:
Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso;
Indica fontes de consulta adequadas à proposta da disciplina;
Incentiva a participação, discussão e expressão de idéias durante as
aulas;
Apresenta-se motivado ao ministrar as aulas;
Utiliza instrumentos de avaliação adequados à disciplina;
Discute os critérios a serem adotados nos procedimentos de avaliação.
Analisa e comenta os resultados das avaliações com os alunos.
Pode-se observador que no grupo A estas oscilações não foram tão
acentuadas.
Estas questões necessariamente podem ser analisadas e discutidas em cada
curso, com seus coordenadores e professores, e, desta forma, encontrar meios para
melhorar o desempenho dos docentes.
Por outro lado é necessário frisar que não só pontos negativos foram
detectados. Alguns dos pontos fortes detectados e que podem ser constatados
através do gráfico 4.11 (p.86) são que o professor:
96
Demonstra possuir conhecimento atualizado do conteúdo que
desenvolve.
Foi freqüente.
Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos.
O grupo de questões do questionário que se refere à metodologia e técnica de
ensino recebeu as menores médias. Portanto, é fundamental que a instituição
providencie cursos de reciclagem. No anexo 5 verificou-se que alguns professores
que obtiveram média geral acima de 6,0, em algumas questões deste grupo
possuem também certas deficiências na visão dos alunos.
Analisando os cursos na tabela 4.14 (p.87), observamos que os alunos de
Administração de Empresas Noturno e Administração em Comércio Exterior Diurno
e Noturno são os que atribuíram médias aos seus professores, menores que as
médias gerais. Este portanto é um fato que os seus respectivos coordenadores
necessitam detectar onde estão as causas. Pode ser que são alunos mais críticos,
mas, de qualquer forma, existe um descontentamento maior em relação aos demais
cursos.
Na figura 4.19 (p.92), que compara as médias dos cursos através das médias
gerais de cada curso, esta diferença não está tão realçada, pois as médias são
diferentes, mas não são significativas ao nível de 99% de confiança.
Na tabela 4.13 (p.85) verificou-se algo interessante a ser passado para todos
os coordenadores e professores, que são as questões com maior peso na
classificação da função discriminante. Em ordem de importância as três primeiras
são:
1º.O professor demonstra possuir conhecimento atualizado do conteúdo
que desenvolve;
2º.O professor exigiu nas avaliações de aprendizagem os conteúdos
desenvolvidos;
3º.O professor estabelece uma relação de respeito mútuo e atenção com
os alunos.
Nestes critérios, percebemos que os alunos levam em consideração o grau de
conhecimento atualizado, mas não deixa de questionar as avaliações e querem
sempre um bom relacionamento entre professor e aluno.
As duas com menor grau de importância na classificação, são:
1º.O professor utiliza procedimentos didáticos adequados à disciplinas;
97
2º.O professor analisa e comenta os resultados das avaliações com os
alunos;
A primeira questão que representa o menor grau de importância, pode ser
justificada com o fato de vários professores serem profissionais liberais nas áreas
que ministram, conhecendo profundamente o assunto, mas não possuem didática
para transmitir adequadamente aos alunos. Para os discentes, o que está
importando é o grau de conhecimento.
Na outra questão, é preciso que coordenadores e professores reflitam o que
estão fazendo quanto a avaliação, pois se os alunos não estão considerando
importante analisar e comentar os resultados de uma avaliação, então o verdadeiro
sentido da avaliação perde o seu significado. Os conteúdos devem ser elos de uma
corrente, e, desta forma, é de vital importância discutir os itens que não foram
compreendidos pelos educandos em uma avaliação.
5.2 RECOMENDAÇÕES Como recomendações para novos trabalhos podemos apresentar três itens:
1º.Fazer duas pesquisas durante o ano. A primeira no final do primeiro
semestre, onde os resultados podem ser discutidos com todos, e a
segunda no final do segundo semestre, para fazer um comparativo se
houve melhora no desempenho.
2º.Fazer uma pesquisa no final do ano, identificando os alunos com suas
respectivas notas. Desta forma poderemos verificar se os alunos
avaliam os seus professores em função das notas que recebem.
3º.Fazer uma auto-avaliação dos professores, para verificar se há relação
com as respostas dos alunos.
98
REFERÊNCIAS BIBLIOGRÁFICAS ANDERSON, D. R; SWEENEY, D. J; WILLIAMS, T. A. Estatística Aplicada à Administração e Economia. São Paulo: 2ª edição, Pioneira Thomson Learning, 2002. BARBETTA, P. Alberto. Estatística aplicada às Ciências Sociais. Florianópolis: 3ª edição. Ed. Da UFSC, 1999. GÓES, L; PIRES JUNIOR, A. Provão faz parte de um amplo sistema de avaliação Revista do Provão, Brasília, Nº 1 Ano III, p. 6, 2001. BOUROCHE, Jean-Marie; SAPORTA, Gilbert. Análise de Dados. Rio de Janeiro, Zarah Editores, 1980 BUSSAB, W. de Oliveira; Miazaki, E. Shizue; De.Andrade, D. Francisco. Introdução a Análise de Agrupamentos. São Paulo-SP, 9º Simpósio Nacional de Probabilidade e Estatística, 1990. BUSSAB, W. O; MORETTIN, P. A. Estatística Básica. São Paulo, 4ª edição, Atual, 1985. CAMARGO, C. Celso B. Técnicas de Análise do Comportamento dos Consumidores. Florianópolis-Sc. Apontamentos do curso de Mestrado, 2001. CATANI, A. M; OLIVEIRA, J. F. Educação Superior No Brasil: Petrópolis, Vozes, 2002. CAUMO, T. O que os novos tempos exigem do professor no ensino universitário. EDUCAÇÃO. Porto Alegre, nº 32, Ediprucsl, 1997. COÊLHO, I. M; Avaliação institucional da universidade pública. Avaliação. Campinas, Ano 2. Vol 2. Nº 3. Set/1997. COSTA NETO, P.L. O; Estatística. São Paulo: Edgard Blücher Ltda, 1977. CRIVISQUI, Eduardo. Apresentação da Análise em Componentes Principais. Londrina-PR: Programa Presta, 1995. DE DÉA, R. M. D’Amato. Desempenho substitui papéis e carimbos. Revista do Provão. Brasília: Nº 6, 2001.
DE SOUZA, C. P; Avaliação de aluno universitário: alguns pontos para reflexão. In: SEMINÁRIO INTERNACIONAL SOBRE AVALIAÇÃO NO ENSINO SUPERIOR. 1997. Anais...Uberlândia. DIAS SOBRINHO, J; Avaliação da Educação Superior. Petrópolis: Vozes, 2000.
99
DIAS SOBRINHO, J. Avaliação institucional: marcos teóricos e políticos. Avaliação. Campinas, Ano 1. Nº 1. Jul/1996. DOWNING, D; CLARK, J. Estatística Aplicada, São Paulo: Saraiva 1998. GAMA, Z. JAEGGER. O provão morreu. Revista Espaço Acadêmico. Rio de Janeiro: Nº 32 – Jan/2004. LAPPONI, J. C. Estatística usando o Excel. São Paulo: Lapponi Treinamento e Editora, 2000. LEITE, D; TUTIKIAN, J.; HOLZ, N. Avaliação & Compromisso. Porto Alegre: Ed. Universidade/UFRGS, 2000. LORENZONI, L. M; KERTÉSZ, I. Avaliação de desempenho do professor de ensino superior: uma proposta para análise e reflexão. EDUCAÇÃO. Porto Alegre: nº 21, Ediprucsl, 1991.
MACHADO E. C. Barbosa. Avaliação das universidades: Uma proposta nacional. In: SEMINÁRIO ESTADUAL DE AVALIAÇÃO INSTITUCIONAL, 2001, Anais... Itajaí: MOREIRA, Marcos A. Avaliação do professor pelo aluno como instrumento de melhoria do ensino universitário. Educação e Seleção. São Paulo: Nº 3. Jan-Julho/1981.
PASQUALI, Luiz. Questionário de avaliação de docência. Educação e Seleção. São Paulo: Nº 9. Jan-Jun/1984. PEREIRA, J. T. Vieira Avaliação institucional: objetivos e critérios. Avaliação. Campinas, Ano 2. Vol 2. Nº 3. Set/1997. Pereira, J. C. Rodrigues. Análise de Dados Qualitativos. São Paulo:. Edusp, 2001. PORTO, G. Silveira. A decisão empresarial de desenvolvimento tecnológico por meio da cooperação empresa-universidade. 2000. Dissertação (Mestrado) – Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo. São Paulo-SP. RAMOS, M. G. Avaliando o desempenho docente mediante a pesquisa cooperativa. EDUCAÇÃO. Porto Alegre, , nº 33, Ediprucsl, 1997.
RAMOS, Mozart Neves. Um instrumento de avaliação. Revista do Provão. Brasília: Nº 7., 2002. REIS, Elizabeth. Estatística Multivariada Aplicada. Lisboa. Edições Silabo, 1997.
100
DIAS SOBRINHO, J. A universidade e o compromisso da avaliação institucional na reconstrução do espaço social. Avaliação. Campinas: Ano 1, Nº 2, Dezembro/1996
NATAL, L; GUEDES, F; MELLO, G. O provão seis anos depois. Revista do Provão, Brasília: Nº 6., 2001. RIVERA, L. E. Stefani. Avaliação da qualidade do ensino-desafio e compromisso. EDUCAÇÃO. Porto Alegre: nº 22, Ediprucsl, 1992. RODRIGUES, M. C. Prates; Potencial de Desemvolvimento dos municípios Fluminenses: Uma metodologia Alternativa ao IQM. Com Base na Análise Fatorial Exploratória e na Análise de Clusters. Caderno de Pesquisas em Administração, São Paulo, v.09, nº 1, janeiro/março 2002. ROSENBERG, Gerson. Desempenho global da fundação oswaldo cruz: um instrumento de auto-avaliação. 2002. Dissertação (Mestrado) - Escola de Química - UFRJ – Rio de Janeiro-RJ. SILVA, E. L. & MENEZES, E. Metodologia da pesquisa e elaboração de dissertação. Florianópolis: Laboratório de Ensino a Distância da UFSC, 2000. SOUZA, Paulo Renato. A revolução do ensino superior. Revista do Provão, Brasília: Nº 5., 2000. SOUZA, Paulo Renato. O ensino superior. Revista do Provão, Brasília: Nº 6., 2001. STEVENSON, William J. Estatística Aplicada à Administração; São Paulo: Harbra, 1981. TOLEDO, G. L. & OVALLE, I. I. Estatística Básica. São Paulo: 2ª edição, Atlas, 1981. TRINDADE, Hélgio. A avaliação institucional das universidades federais: resistência e construção. Avaliação. Campinas: Ano 1, Nº 2, Julho/1996 Valentin, Jean Louis. Ecologia Numérica. Rio de Janeiro. Interciência, 2000. Verdinelli, Miguel Angel. Análise Multivarida. Florianópolis-SC. Apontamentos do curso de mestrado, UFSC, 2001. WONNACOTT, T. H.; WONNACOTT, R. J. Estatística Aplicada à Economia e à Administração. Livros Técnicos e Científicos, Rio de Janeiro, 1981.
101
APÊNDICES
102
Apêndice A
QUESTIONÁRIO
103
QUESTIONÁRIO – 1ª PARTE
104
QUESTIONÁRIO – 2ª PARTE
105
Apêndice B
CORRELAÇÕES
106
Apêndice B1
Tabela 1. Correlação entre as questões do questionário quanto à organização didático-pedagógica e infra-estrutura do curso
Questões .Questões 1 2 3 4 5 6 7 8 9
1 - 2 0,442 - 3 0,236 0,313 - 4 0,239 0,217 0,449 - 5 0,249 0,302 0,216 0,275 - 6 0,218 0,261 0,179 0,150 0,427 - 7 0,255 0,380 0,316 0,302 0,312 0,416 - 8 0,168 0,166 0,215 0,145 0,144 0,114 0,262 - 9 0,265 0,397 0,233 0,141 0,209 0,201 0,320 0,282 - 10 0,267 0,340 0,419 0,389 0,257 0,195 0,408 0,246 0,330
107
Apêndice B2
Tabela 2. Correlação entre as questões do questionário quanto à auto-avaliação do aluno
Questão 1 2 3 4 5 1 - 2 0,440 - 3 0,275 0,327 - 4 0,179 0,219 0,433 - 5 0,105 0,215 0,270 0,329 - 6 0,181 0,154 0,300 0,265 0,420
108
Apêndice C
MÉDIAS DOS PROFESSORES
109
Apêndice C1
Figura 1. Comparação das médias dos professores
110
Apêndice C2
Figura 2. Médias das questões por professor
111
Apêndice D
FREQÜÊNCIAS DAS QUESTÕES
112
Apêndice D1
Gráfico 1. Freqüência das questões do curso de Adm. Com. Exterior Diurno
7%
4%
5%
8%
14%
8%
4%
6%
7%
5%
6%
6%
7%
7%
4%
6%
8%
15%
7%
9%
7%
9%
12%
9%
5%
6%
11%
8%
10%
8%
8%
7%
3%
5%
7%
12%
14%
19%
18%
18%
21%
24%
14%
17%
16%
12%
8%
11%
15%
22%
8%
17%
20%
20%
18%
25%
24%
24%
23%
24%
19%
21%
23%
22%
19%
19%
23%
21%
19%
25%
22%
16%
55%
43%
46%
42%
31%
35%
58%
50%
43%
53%
56%
56%
47%
43%
66%
47%
43%
38%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
113
Apêndice D2
Gráfico 2. Freqüência das questões do curso do 3º Ano Adm. Com. Exterior – Diurno
17%
15%
18%
27%
28%
28%
18%
17%
25%
18%
18%
18%
22%
18%
18%
18%
20%
30%
5%
8%
3%
13%
13%
12%
10%
7%
12%
10%
15%
12%
13%
8%
8%
12%
13%
12%
18%
28%
17%
13%
15%
17%
10%
28%
10%
10%
7%
8%
7%
20%
8%
12%
18%
13%
13%
8%
18%
17%
8%
17%
22%
13%
12%
23%
18%
22%
18%
20%
32%
28%
20%
15%
47%
40%
43%
30%
35%
27%
40%
35%
42%
38%
42%
40%
40%
33%
33%
30%
28%
30%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
114
Apêndice D3
Gráfico 3. Freqüência das questões do 5º Ano Administração Com. Exterior – Diurno
5%
5%
8%
11%
16%
14%
14%
3%
11%
0%
3%
3%
19%
14%
11%
11%
8%
16%
3%
11%
8%
19%
24%
19%
14%
14%
11%
11%
14%
3%
11%
11%
8%
8%
14%
5%
11%
38%
24%
14%
19%
38%
16%
11%
14%
5%
5%
16%
16%
16%
11%
24%
22%
19%
14%
14%
27%
24%
32%
5%
16%
8%
43%
19%
16%
38%
19%
22%
19%
22%
11%
19%
68%
32%
32%
32%
8%
24%
41%
65%
22%
65%
62%
41%
35%
38%
51%
35%
46%
41%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
115
Apêndice D4
Gráfico 4. Freqüência das questões do curso de Adm. Hospitalar
3%
4%
4%
5%
10%
7%
2%
5%
7%
2%
2%
2%
4%
4%
2%
4%
7%
16%
7%
10%
12%
12%
16%
12%
6%
7%
12%
7%
7%
5%
7%
7%
4%
9%
10%
14%
18%
23%
22%
26%
24%
26%
16%
17%
23%
14%
14%
15%
21%
23%
13%
20%
20%
21%
20%
25%
24%
25%
23%
24%
20%
23%
23%
24%
24%
19%
25%
24%
22%
24%
24%
17%
52%
38%
39%
32%
28%
32%
56%
48%
36%
54%
54%
59%
43%
42%
58%
43%
39%
32%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
116
Apêndice D5
Gráfico 5. Freqüência das questões do 2º Ano Administração Hospitalar
3%
3%
4%
4%
13%
7%
2%
5%
8%
5%
6%
4%
3%
6%
2%
4%
5%
18%
8%
11%
11%
15%
23%
10%
4%
8%
14%
11%
10%
6%
7%
8%
5%
5%
11%
11%
16%
20%
22%
26%
26%
29%
15%
19%
25%
17%
17%
18%
20%
26%
12%
19%
23%
24%
23%
30%
27%
25%
21%
29%
21%
24%
21%
16%
14%
15%
25%
23%
23%
29%
22%
13%
49%
36%
36%
30%
17%
25%
58%
44%
32%
50%
53%
57%
45%
38%
57%
43%
39%
33%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
117
Apêndice D6
Gráfico 6. Freqüência das questões do 3º Ano Administração Hospitalar
3%
7%
6%
9%
14%
11%
4%
7%
9%
1%
0%
1%
5%
7%
2%
9%
13%
14%
6%
13%
16%
12%
14%
18%
12%
7%
14%
5%
2%
5%
9%
7%
5%
14%
12%
15%
21%
31%
22%
28%
26%
22%
18%
14%
21%
12%
14%
13%
25%
21%
15%
21%
18%
20%
16%
23%
22%
27%
23%
21%
21%
29%
22%
29%
25%
21%
26%
29%
21%
20%
28%
24%
54%
27%
34%
25%
22%
28%
44%
43%
35%
53%
59%
60%
35%
36%
58%
36%
29%
27%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
118
Apêndice D7
Gráfico 7. Freqüência das questões do curso de Ciências Contábeis
7%
4%
5%
6%
10%
6%
3%
3%
6%
3%
2%
2%
4%
3%
1%
4%
7%
14%
7%
10%
10%
10%
17%
12%
7%
7%
10%
5%
4%
3%
6%
7%
4%
7%
8%
8%
18%
21%
20%
23%
26%
25%
14%
16%
21%
12%
10%
10%
21%
17%
11%
20%
20%
20%
22%
27%
28%
27%
25%
25%
23%
26%
25%
23%
19%
20%
27%
25%
21%
26%
23%
19%
46%
38%
36%
34%
23%
33%
54%
49%
38%
57%
65%
65%
43%
49%
63%
43%
42%
39%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
119
Apêndice D8
Gráfico 8. Freqüência das questões do 2º Ano Ciências Contábeis
8%
0%
3%
3%
10%
3%
1%
2%
4%
0%
0%
0%
2%
1%
0%
2%
3%
7%
7%
10%
9%
9%
20%
9%
3%
3%
8%
2%
2%
3%
5%
6%
5%
6%
8%
8%
17%
17%
16%
26%
25%
28%
10%
17%
23%
16%
10%
13%
22%
15%
11%
20%
20%
23%
23%
32%
29%
28%
26%
27%
21%
25%
29%
27%
22%
22%
31%
25%
16%
29%
27%
21%
46%
42%
42%
33%
20%
33%
65%
52%
36%
56%
67%
62%
40%
53%
67%
43%
42%
40%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
120
Apêndice D9
Gráfico 9. Freqüência das questões do 4º Ano Ciências Contábeis
12%
8%
12%
10%
22%
9%
4%
7%
14%
0%
0%
0%
5%
5%
2%
12%
18%
33%
10%
14%
11%
10%
26%
18%
12%
13%
11%
9%
2%
2%
11%
10%
6%
15%
10%
11%
22%
32%
29%
25%
25%
31%
22%
24%
29%
22%
19%
13%
26%
22%
17%
24%
25%
20%
21%
20%
22%
21%
14%
14%
16%
30%
20%
29%
22%
25%
28%
27%
20%
25%
22%
13%
34%
25%
27%
33%
13%
28%
46%
25%
25%
40%
57%
60%
30%
36%
55%
24%
25%
23%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
121
Apêndice D10
Gráfico 10. Freqüência das questões do 2º Ano de Adm. Com. Exterior Diurno
6%
1%
4%
7%
15%
7%
1%
4%
6%
4%
5%
4%
4%
5%
0%
4%
9%
17%
6%
11%
10%
8%
12%
9%
4%
6%
15%
7%
7%
6%
5%
4%
3%
6%
10%
17%
14%
24%
25%
26%
28%
34%
17%
21%
26%
15%
11%
10%
21%
35%
13%
24%
19%
29%
11%
29%
25%
25%
25%
24%
23%
28%
21%
20%
22%
23%
22%
20%
18%
27%
23%
16%
64%
35%
37%
35%
20%
26%
55%
40%
32%
54%
56%
57%
49%
36%
66%
40%
38%
21%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
122
Apêndice D11
Gráfico 11. Freqüência das questões do curso de Adm. Pública
5%
4%
6%
6%
8%
7%
4%
6%
8%
4%
4%
4%
5%
6%
4%
6%
9%
11%
4%
6%
8%
9%
14%
8%
5%
6%
11%
2%
3%
3%
6%
6%
3%
5%
7%
10%
14%
20%
21%
22%
23%
27%
14%
14%
19%
13%
12%
8%
14%
16%
11%
19%
16%
19%
21%
25%
26%
26%
24%
27%
21%
20%
24%
20%
21%
17%
27%
25%
19%
27%
24%
19%
56%
45%
39%
37%
31%
31%
57%
54%
39%
61%
61%
67%
49%
47%
62%
43%
44%
40%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
123
Apêndice D12
Gráfico 12. Freqüência das questões do 1º Ano de Adm. Pública
4%
2%
9%
8%
7%
7%
4%
5%
8%
1%
1%
1%
3%
8%
1%
5%
7%
9%
4%
6%
8%
10%
13%
7%
5%
7%
10%
3%
2%
2%
7%
7%
3%
6%
8%
13%
17%
25%
22%
22%
24%
28%
14%
16%
20%
11%
14%
9%
17%
19%
17%
22%
18%
23%
20%
25%
25%
26%
27%
27%
23%
19%
22%
20%
21%
18%
24%
22%
19%
26%
22%
13%
54%
42%
37%
35%
29%
32%
54%
52%
40%
66%
61%
69%
49%
44%
59%
41%
45%
42%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
124
Apêndice D13
Gráfico 13. Freqüência das questões do 2º Ano de Adm. Pública
6%
6%
5%
7%
7%
8%
3%
6%
9%
9%
9%
9%
9%
7%
8%
9%
12%
15%
2%
7%
9%
7%
15%
10%
5%
5%
10%
2%
3%
2%
6%
6%
4%
6%
5%
7%
8%
16%
20%
20%
18%
25%
13%
12%
18%
7%
8%
6%
9%
14%
7%
14%
12%
16%
13%
23%
21%
22%
19%
17%
17%
18%
23%
13%
10%
12%
23%
22%
12%
22%
21%
13%
71%
48%
45%
45%
40%
39%
62%
59%
41%
69%
70%
71%
54%
50%
70%
48%
49%
48%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
125
Apêndice D14
Gráfico 14. Freqüência das questões do 5º Ano de Adm. Pública
3%
3%
5%
4%
8%
3%
0%
8%
8%
1%
3%
1%
1%
4%
3%
3%
11%
20%
7%
9%
11%
12%
13%
8%
8%
16%
4%
1%
8%
5%
9%
15%
15%
13%
23%
19%
23%
21%
27%
21%
20%
12%
16%
9%
11%
25%
17%
17%
31%
16%
17%
16%
12%
33%
25%
28%
21%
20%
17%
21%
9%
16%
13%
25%
27%
23%
16%
20%
19%
61%
53%
32%
36%
29%
39%
51%
47%
43%
69%
71%
67%
43%
43%
51%
45%
39%
29%
11%
7%
5%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
126
Apêndice D15
Gráfico 15. Freqüência das questões do curso de Ciências Econômicas
4%
5%
7%
5%
5%
6%
3%
4%
9%
4%
4%
3%
3%
4%
2%
2%
4%
7%
5%
5%
7%
9%
11%
6%
5%
7%
7%
7%
6%
5%
5%
6%
2%
3%
4%
6%
14%
18%
18%
22%
20%
24%
12%
14%
18%
13%
11%
12%
21%
20%
12%
18%
17%
18%
16%
29%
24%
23%
27%
26%
17%
18%
20%
17%
18%
20%
26%
19%
19%
27%
26%
19%
61%
43%
43%
41%
37%
38%
63%
57%
46%
59%
62%
60%
44%
51%
65%
51%
49%
49%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
127
Apêndice D16
Gráfico 16. Freqüência das questões do 1º Ano de Ciências Econômicas
5%
2%
7%
7%
3%
5%
3%
5%
6%
1%
2%
2%
2%
3%
1%
3%
9%
7%
4%
3%
7%
5%
7%
6%
1%
5%
7%
6%
4%
1%
4%
5%
2%
3%
1%
6%
11%
19%
17%
18%
20%
18%
8%
9%
12%
8%
8%
9%
11%
12%
10%
17%
16%
19%
9%
14%
17%
20%
22%
21%
16%
15%
14%
17%
15%
18%
17%
14%
12%
18%
24%
12%
72%
62%
52%
50%
47%
50%
72%
67%
59%
67%
71%
71%
66%
66%
75%
60%
51%
55%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
128
Apêndice D17
Gráfico 17. Freqüência das questões do 2º Ano de Ciências Econômicas
5%
5%
8%
4%
6%
5%
3%
4%
10%
3%
2%
1%
3%
4%
2%
2%
2%
5%
4%
4%
8%
10%
10%
6%
6%
8%
7%
6%
6%
5%
3%
5%
1%
0%
3%
6%
13%
14%
17%
19%
17%
27%
12%
14%
17%
10%
9%
9%
25%
24%
8%
13%
13%
11%
17%
35%
28%
26%
29%
27%
18%
20%
26%
17%
20%
23%
28%
20%
18%
31%
26%
22%
61%
41%
38%
40%
38%
36%
61%
54%
40%
64%
63%
62%
41%
48%
72%
54%
56%
56%
0% 20% 40% 60% 80% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
129
Apêndice D18
Gráfico 18. Freqüência das questões do 3º Ano de Ciências Econômicas
5%
6%
9%
3%
7%
5%
3%
4%
12%
2%
2%
1%
3%
4%
2%
2%
2%
5%
4%
5%
8%
9%
12%
7%
6%
9%
7%
6%
7%
6%
4%
5%
1%
0%
2%
5%
15%
15%
17%
21%
19%
26%
13%
14%
16%
11%
9%
10%
26%
25%
8%
14%
13%
11%
18%
36%
25%
24%
31%
26%
18%
22%
23%
17%
18%
22%
27%
18%
18%
31%
26%
21%
58%
38%
41%
44%
31%
35%
59%
51%
42%
63%
64%
61%
40%
48%
71%
54%
56%
58%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
130
Apêndice D19
Gráfico 19. Freqüência das questões do 4º Ano de Com. Exterior Diurno
20%
19%
15%
22%
25%
15%
12%
19%
19%
15%
15%
19%
19%
20%
17%
17%
15%
22%
5%
14%
15%
14%
12%
15%
17%
14%
27%
14%
36%
29%
24%
19%
7%
10%
7%
25%
17%
14%
19%
20%
39%
36%
34%
29%
15%
22%
10%
17%
20%
31%
7%
25%
34%
14%
15%
29%
20%
19%
12%
20%
22%
15%
17%
15%
5%
12%
27%
14%
29%
20%
20%
12%
42%
25%
31%
25%
12%
14%
15%
24%
22%
34%
34%
24%
10%
17%
41%
27%
24%
27%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
3
5
7
9
11
13
15
17
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
131
Apêndice D20
Gráfico 20. Freqüência das questões do 3º Ano de Adm. Pública
11%
7%
10%
10%
13%
10%
8%
8%
10%
4%
2%
2%
5%
7%
4%
9%
12%
13%
6%
7%
7%
9%
14%
4%
5%
7%
15%
3%
2%
2%
5%
4%
4%
6%
6%
11%
14%
17%
21%
21%
24%
31%
14%
13%
20%
15%
10%
9%
15%
14%
12%
14%
18%
19%
30%
29%
26%
32%
27%
34%
26%
27%
25%
27%
27%
21%
32%
33%
26%
29%
27%
27%
39%
40%
37%
28%
22%
22%
47%
46%
30%
51%
59%
65%
42%
42%
54%
42%
38%
30%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
132
Apêndice D21
Gráfico 21. Freqüência das questões do curso de Adm. Empresas-Diurno
8%
6%
7%
8%
9%
9%
6%
9%
7%
6%
6%
7%
7%
5%
6%
9%
15%
6%
10%
8%
10%
13%
8%
7%
10%
8%
6%
8%
8%
9%
5%
6%
10%
14%
18%
20%
20%
24%
24%
26%
17%
18%
23%
17%
15%
16%
19%
20%
12%
20%
16%
19%
18%
23%
27%
23%
24%
26%
19%
23%
23%
22%
21%
18%
27%
26%
22%
27%
26%
23%
50%
41%
38%
36%
30%
31%
55%
46%
35%
46%
51%
51%
39%
38%
56%
41%
39%
29%
3% 5%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
133
Apêndice D22
Gráfico 22. Freqüência das questões do 2º Ano de Adm. Empresas Diurno
12%
9%
8%
10%
11%
11%
3%
8%
12%
13%
14%
12%
12%
11%
8%
10%
12%
20%
5%
17%
10%
11%
11%
6%
6%
6%
11%
11%
10%
8%
10%
11%
9%
5%
9%
10%
13%
16%
17%
18%
24%
24%
18%
17%
20%
14%
12%
15%
14%
18%
12%
26%
13%
20%
13%
19%
26%
21%
20%
26%
15%
22%
20%
17%
15%
17%
22%
26%
16%
20%
24%
20%
57%
40%
39%
39%
34%
32%
57%
47%
37%
44%
49%
49%
42%
34%
55%
39%
41%
30%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
134
Apêndice D23
Gráfico 23. Freqüência das questões do 3º Ano de Adm. Empresas-Diurno
11%
10%
11%
13%
19%
17%
7%
13%
17%
10%
10%
5%
13%
13%
11%
14%
17%
18%
8%
14%
8%
11%
11%
10%
9%
14%
9%
10%
7%
11%
10%
16%
8%
8%
8%
17%
22%
18%
22%
20%
23%
27%
23%
15%
20%
22%
22%
17%
14%
19%
20%
20%
19%
20%
17%
23%
18%
19%
17%
16%
21%
19%
20%
19%
19%
21%
28%
16%
22%
23%
22%
18%
43%
36%
40%
38%
30%
31%
40%
39%
34%
39%
42%
46%
35%
36%
39%
36%
34%
27%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
135
Apêndice D24
Gráfico 24. Freqüência das questões do 4º Ano de Ciências Econômicas
0%
3%
2%
3%
1%
2%
1%
2%
4%
10%
10%
5%
0%
0%
0%
2%
5%
7%
8%
2%
9%
10%
3%
3%
2%
4%
5%
6%
3%
2%
3%
2%
2%
7%
7%
17%
19%
17%
27%
23%
23%
10%
19%
21%
22%
14%
16%
16%
13%
14%
19%
23%
26%
21%
38%
29%
25%
28%
30%
16%
12%
21%
18%
23%
27%
46%
28%
29%
27%
30%
28%
54%
32%
50%
36%
38%
42%
71%
65%
50%
45%
48%
50%
35%
55%
56%
51%
38%
34%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
136
Apêndice D25
Gráfico 25. Freqüência das questões do curso de Secretariado Exec. Trilíngüe
1%
2%
4%
4%
8%
5%
1%
3%
5%
0%
1%
0%
2%
2%
1%
1%
8%
9%
4%
6%
10%
11%
14%
9%
8%
9%
8%
3%
3%
3%
6%
6%
1%
3%
7%
13%
15%
19%
18%
21%
23%
19%
10%
13%
18%
12%
16%
9%
15%
20%
7%
15%
16%
20%
24%
21%
20%
21%
19%
17%
11%
15%
19%
21%
24%
13%
17%
11%
14%
28%
22%
27%
56%
51%
48%
42%
37%
51%
69%
61%
50%
64%
56%
75%
60%
61%
77%
53%
46%
31%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
137
Apêndice D26
Gráfico 26. Freqüência das questões do 3º Ano de Ciências Contábeis.
4%
5%
3%
7%
9%
9%
4%
2%
7%
11%
8%
10%
9%
8%
3%
4%
8%
17%
7%
8%
13%
8%
14%
12%
4%
3%
13%
4%
4%
2%
5%
5%
3%
4%
5%
6%
14%
24%
26%
29%
27%
24%
13%
16%
22%
4%
7%
8%
20%
23%
10%
21%
22%
19%
28%
26%
33%
27%
22%
28%
29%
24%
29%
19%
16%
9%
26%
23%
24%
27%
24%
16%
48%
38%
25%
29%
29%
27%
49%
55%
30%
63%
65%
71%
41%
41%
60%
43%
42%
42%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
138
Apêndice D27
Gráfico 27. Freqüência das questões do 5º Ano de Ciências Contábeis.
9%
3%
6%
7%
2%
4%
1%
0%
2%
0%
0%
0%
3%
1%
0%
3%
3%
5%
5%
12%
11%
7%
11%
22%
14%
4%
11%
2%
4%
5%
8%
14%
4%
6%
13%
5%
13%
31%
23%
29%
22%
23%
17%
9%
20%
6%
11%
8%
13%
17%
13%
20%
12%
14%
17%
32%
32%
26%
43%
25%
27%
31%
15%
18%
11%
15%
27%
24%
21%
25%
36%
13%
56%
23%
28%
29%
22%
25%
41%
56%
53%
74%
75%
72%
48%
44%
62%
45%
37%
63%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
139
Apêndice D28
Gráfico 28. Freqüência das questões do 4º Ano de Adm. Empresas - Diurno.
6%
4%
5%
7%
5%
4%
4%
3%
8%
4%
7%
3%
4%
5%
3%
4%
5%
15%
3%
5%
8%
11%
17%
13%
2%
10%
15%
7%
7%
21%
8%
12%
4%
9%
15%
26%
9%
23%
24%
38%
35%
38%
22%
31%
36%
22%
14%
21%
43%
26%
12%
27%
18%
22%
15%
24%
29%
20%
29%
33%
22%
24%
25%
24%
26%
21%
34%
36%
27%
26%
24%
23%
68%
43%
34%
24%
13%
12%
49%
31%
16%
43%
47%
34%
10%
21%
54%
34%
38%
14%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
140
Apêndice D29
Gráfico 29. Freqüência das questões do 5º Ano de Adm. Empresas - Diurno.
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
0%
27%
27%
18%
18%
18%
0%
9%
18%
18%
9%
0%
18%
18%
27%
18%
18%
45%
36%
18%
9%
18%
27%
27%
45%
27%
18%
36%
18%
82%
27%
45%
18%
36%
18%
0%
27%
36%
18%
18%
45%
45%
27%
18%
45%
18%
9%
0%
45%
9%
9%
9%
9%
36%
36%
18%
45%
45%
9%
9%
27%
45%
18%
27%
64%
18%
9%
27%
45%
36%
55%
18%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
141
Apêndice D30
Gráfico 30. Freqüência das questões do 1º Ano de Adm. Hospitalar.
3%
4%
3%
4%
9%
9%
1%
5%
6%
1%
0%
1%
4%
3%
2%
2%
5%
19%
10%
8%
13%
13%
13%
13%
3%
7%
13%
5%
6%
4%
5%
5%
4%
8%
9%
19%
19%
21%
20%
26%
20%
20%
15%
18%
19%
10%
12%
14%
23%
23%
13%
22%
19%
21%
20%
23%
27%
24%
25%
25%
19%
19%
25%
28%
25%
21%
24%
22%
25%
27%
26%
16%
49%
43%
37%
32%
33%
33%
62%
51%
37%
56%
57%
60%
44%
46%
56%
41%
41%
25%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
142
Apêndice D31
Gráfico 31. Freqüência das questões do 5º Ano de Adm. Hospitalar.
4%
3%
3%
7%
4%
6%
4%
3%
3%
0%
1%
1%
4%
3%
4%
4%
8%
15%
8%
10%
7%
13%
8%
14%
8%
14%
11%
8%
7%
7%
11%
15%
7%
13%
13%
18%
17%
28%
34%
27%
32%
38%
20%
23%
39%
23%
24%
23%
21%
30%
10%
21%
24%
30%
27%
30%
14%
27%
20%
18%
14%
32%
24%
28%
25%
21%
27%
28%
27%
21%
30%
17%
44%
30%
42%
27%
35%
24%
54%
28%
23%
41%
42%
48%
37%
24%
52%
41%
25%
20%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre
143
Apêndice D32
Gráfico 32. Freqüência das questões do 1º Ano de Com. Exterior - Diurno.
4%
1%
1%
2%
7%
3%
1%
2%
3%
3%
3%
2%
2%
2%
0%
2%
4%
8%
9%
6%
3%
6%
10%
5%
1%
3%
4%
6%
6%
5%
6%
5%
1%
2%
3%
6%
12%
11%
12%
12%
13%
16%
8%
11%
11%
9%
7%
10%
10%
13%
5%
10%
18%
17%
25%
26%
24%
25%
25%
28%
16%
20%
24%
24%
20%
15%
26%
24%
14%
24%
22%
16%
50%
56%
59%
54%
45%
48%
74%
64%
58%
57%
64%
68%
56%
56%
80%
61%
52%
52%
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Que
stõe
s
Nunca Raramente Na Média Quase Sempre Sempre