Jos. Ricardo dos Santos

144
Universidade Federal de Santa Catarina Programa de Pós-Graduação em Engenharia de Produção JOSÉ RICARDO DOS SANTOS AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE APUCARANA – FECEA – UM ESTUDO DE CASO Florianópolis 2004

Transcript of Jos. Ricardo dos Santos

Page 1: Jos. Ricardo dos Santos

0

Universidade Federal de Santa Catarina Programa de Pós-Graduação em Engenharia de Produção

JOSÉ RICARDO DOS SANTOS

AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE

APUCARANA – FECEA – UM ESTUDO DE CASO

Florianópolis 2004

Page 2: Jos. Ricardo dos Santos

1

JOSÉ RICARDO DOS SANTOS

AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE

APUCARANA – FECCEA – UM ESTUDO DE CASO

Dissertação apresentada ao Programa de Pós-graduação em Engenharia de Produção da Universidade Federal de Santa Catarina, como requisito parcial para obtenção do grau de Mestre em Engenharia de Produção.

Orientador: Prof. Dr. Miguel Angel Verdinelli

Florianópolis 2004

Page 3: Jos. Ricardo dos Santos

2

Ficha catalográfica

Santos, José Ricardo dos. S233a Avaliação do Desempenho dos Docentes e dos Cursos da

Faculdade Estadual de Ciências Econômicas de Apucarana – Fecea – Um Estudo De Caso / José Ricardo dos Santos. – Florianópolis, 2004. 144p.

Orientador: Prof. Dr. Miguel Angel Verdinelli. Dissertação (Mestrado) – Universidade Federal de Santa Catarina.

Programa de Pós Graduação em Engenharia de Produção.

Referências: p.

1.Ensino Superior 2. Avaliação estatística – Ensino Superior 3.Ensino Superior – Desempenho 4.Ensino Superior – Multivariada 5. Ensino Superior – Qualidade do ensino. I. Verdinelli, Miguel Angel. II. Universidade Federal de Santa Catarina. III. Título.

CDU: 378:311.213.3

Page 4: Jos. Ricardo dos Santos

3

JOSÉ RICARDO DOS SANTOS

AVALIAÇÃO DO DESEMPENHO DOS DOCENTES E DOS CURSOS DA FACULDADE ESTADUAL DE CIÊNCIAS ECONÔMICAS DE APUCARANA - FECEA

UM ESTUDO DE CASO

Esta dissertação foi julgada e aprovada para a obtenção do grau de Mestre em Engenharia

de Produção no Programa de Pós-Graduação em Engenharia de Produção da

Universidade Federal de Santa Catarina.

Florianópolis, 14 de maio de 2004

Prof. Edson Pacheco Paladini, Dr Coordenador do Programa

BANCA EXAMINADORA

Prof. Miguel Angel Verdinelli, Dr. Orientador

Prof. Sandré Granzotto Macedo, Dr.

Prof. Henri Stuker, Dr.

Page 5: Jos. Ricardo dos Santos

4

A minha esposa Alessandra,

Aos meus filhos Matheus e Larissa,

A minha mãe Nilza,

pelo apoio, carinho, paciência e orações.

Page 6: Jos. Ricardo dos Santos

5

AGRADECIMENTOS

A Deus,

À Universidade Federal de Santa Catarina,

Ao orientador, Prof. Dr. Miguel Angel Verdinelli,

Aos professores do curso de Pós-Graduação,

Ao Prof. Ralph de Andrade Rabelo pelo apoio técnico,

À Faculdade Estadual de Ciências Econômicas de Apucarana,

À Prof. Rosangela Norvila Valério, companheira de trabalho e mestrado,

À minha família pelo apoio constante,

A todos que direta ou indiretamente contribuíram para a realização desta pesquisa.

Page 7: Jos. Ricardo dos Santos

6

“Sabemos qual educação não queremos e

temos idéia da educação que queremos.

Precisamos descobrir como iremos

transitar de um lado para o outro.

Se organizarmos o mundo educacional

de tal maneira que tornamos as

diferenças ainda mais profunda,

a educação perde a razão de ser”.

Daniel Schugurensky

Page 8: Jos. Ricardo dos Santos

7

RESUMO

SANTOS, José Ricardo dos . Avaliação do desempenho dos docentes e dos cursos da Faculdade Estadual de Ciências Econômicas de Apucarana – FECEA: Um Estudo de Caso. 2004. 144p. Dissertação (Mestrado em Engenharia de Produção) – Universidade Federal de Santa Catarina, Florianópolis.

O presente trabalho procura elaborar um instrumento de pesquisa para avaliar

os cursos e os docentes da Faculdade Estadual de Ciências Econômicas de Apucarana. Desta forma os alunos da faculdade responderam um questionário contendo uma auto-avaliação e questões sobre os cursos e desempenho docente. Os dados coletados foram tabulados e analisados através de técnicas de análise multivariada, dentre as quais, aplicou-se análise de componentes principais, análise discriminante, análise de agrupamentos (método de cluster). Ao questionário foi aplicado um teste de consistência para verificar sua confiabilidade através do alfa de Cronbach. As análises utilizadas bem como as questões do questionário permitiram obter um panorama geral das condições dos cursos e dos docentes da instituição e agrupá-los, conforme suas características (similaridades e dissimilaridades) de acordo com os objetivos estabelecidos no trabalho. Com este trabalho levantaram-se propostas de melhoria dos cursos e docentes para facilitar a gestão escolar na tomada de decisão e na qualidade do ensino.

Palavras-chave: Avaliação, questionário, desempenho, multivariada, qualidade do ensino.

Page 9: Jos. Ricardo dos Santos

8

ABSTRACT

SANTOS, José Ricardo dos. Evaluation of performance the teacher and of the courses of Faculdade Estadual de Ciências Econômicas de Apucarana – FECEA. A study of case. 2004. 144p. Dissertation (Masters in Production Engineering) – Post-Graduation Program in Production Engineering, UFSC, 2004.

This work tries to elaborate a research instrument for evaluation of the courses and professors of “Faculdade Estadual de Ciências Econômicas de Apucarana.” Thus, the college students answered a questionnaire, which contained a self-evaluation test and questions about the courses and performance of the professors. The collected data were compiled and analyzed through multivariate analysis techniques, among them, one that applied analysis of main components, discriminating analysis and analysis of gatherings (cluster method). It was applied a consistency test to the questionnaire in order to check its reliability through Cronbach alpha. The applied analyses as well as the questionnaire propositions allowed us to obtain a general view of the institution courses and professors conditions and to gather them according to their characteristics (similarities and differences) considering the aims established in the work. This work led to proposals that were taken into account for the improvement of the courses and professors in order to facilitate school management when taking decision and in teaching quality. Key words: evaluation, questionnaire, performance, multivariate, teaching quality.

Page 10: Jos. Ricardo dos Santos

9

SUMÁRIO

1 INTRODUÇÃO....................................................................................................17 1.1 Contextualização................................................................................................17 1.2 Justificativa e Importância do Trabalho...........................................................18 1.3 Objetivos.............................................................................................................19

1.3.1 Objetivo Geral....................................................................................................19

1.3.2 Objetivos Específicos........................................................................................19

1.4 Metodologia........................................................................................................20

1.5 Estrutura do Trabalho........................................................................................20

2 FUNDAMENTAÇÃO TEÓRICA.....................................................................21

2.1 O Provão Veio Para Melhorar............................................................................21

2.2 Principais Programas e Mecanismos da Educação Superior no Brasil........23

2.3 A Revolução Do Ensino Superior.....................................................................24 2.4 O Impacto do Provão no Ensino Superior.......................................................25 2.5 O Provão é um Instrumento de Avaliação.......................................................26

2.6 Novo sistema de avaliação................................................................................30

2.7 Programa Avaliação Institucional Das Universidades Brasileiras – Paiub..................................................................................................................31

2.8 Qualidade Dos Professores..............................................................................34 2.8.1 Avaliação de desempenho do professor de ensino superior............................35

2.8.2 A observação do desempenho.........................................................................36

2.8.3 Avaliação da qualidade do ensino-desafio e compromisso..............................37

2.9 Avaliação Institucional Em Outros Países......................................................44 2.9.1 Histórico da avaliação institucional no Brasil e em outros países....................45

2.9.1.1 Avaliação institucional no Brasil.....................................................................46

2.9.2 Avaliação institucional na Argentina..................................................................47

2.9.3 Avaliação institucional no Canadá.....................................................................47

2.9.4 Avaliação institucional no Chile.........................................................................48

2.9.5 Avaliação institucional na Colômbia..................................................................48

2.9.6 Avaliação institucional na França......................................................................49

2.9.7 Avaliação institucional na Holanda – Países Baixos.........................................49

Page 11: Jos. Ricardo dos Santos

10

2.9.8 Avaliação institucional na Inglaterra..................................................................51

2.9.9 Avaliação institucional no Japão.......................................................................51

2.9.10 Avaliação institucional do México....................................................................52

2.9.11 Avaliação institucional do Uruguai...................................................................52

2.9.12 Avaliação institucional nos Estados Unidos....................................................53

3 ESTUDO DE CASO..........................................................................................54 3.1 FECEA – Histórico e Descrição da Instituição................................................54 3.2 Estrutura do Instrumento de Coleta de Dados................................................55 3.3 Aplicação do Instrumento de Coleta de Dados...............................................57 3.4 Análise Multivariada...........................................................................................58 3.4.1 Análise de componentes principais...................................................................59

3.4.2 Análise discriminante.........................................................................................61

3.4.2.1 Função discriminante.....................................................................................62

3.4.2.2 Pressupostos da função discriminante...........................................................63

3.4.3 Análise de clusters............................................................................................64

3.5 Confiabilidade do Questionário........................................................................66 3.6 Análise de Correlação........................................................................................68

4 ANÁLISE DOS RESULTADOS.....................................................................70 4.1 Análise da Organização Didático-Pedagógica e Infra-Estrutura do Curso...70 4.2 Análise da Auto-Avaliação do Aluno................................................................73

4.3 Análise do Desempenho Docente.....................................................................76 4.3.1 Análise do questionário.....................................................................................76

4.3.2 Análise dos professores....................................................................................82

4.3.3 Análise dos cursos............................................................................................86

4.3.4 Análise dos departamentos...............................................................................91

4.3.5 Análise dos anos...............................................................................................92

5 CONCLUSÕES E RECOMENDAÇÕES.....................................................93

5.1 Conclusões.........................................................................................................93 5.2 Recomendações.................................................................................................97

Page 12: Jos. Ricardo dos Santos

11

REFERÊNCIAS BIBLIOGRÁFICAS................................................................98

APÊNDICES.........................................................................................................101

APÊNDICE A – Questionário...................................................................................102 APÊNDICE B – Correlações....................................................................................105

Apêndice B1 – Correlação entre as questões do questionário quanto à organização

didático-pedagógica e infra-estrutura do curso................................106

Apêndice B2 – Correlação entre as questões do questionário quanto à auto-valiação

do aluno..........................................................................................107

APÊNDICE C – Médias dos professores.................................................................108

Apêndice C1 – Comparação das médias dos professores......................................109

Apêndice C2 – Médias das questões por professor.................................................110

APÊNDICE D – Freqüências das questões.............................................................111

Apêndice D1 – Freqüência das questões do curso de Adm. Com. Exterior Diurno.112

Apêndice D2 – Freqüência das questões do 3º Ano Adm. Com. Exterior Diurno....113

Apêndice D3 – Freqüência das questões do 5º Ano Adm. Com. Exterior Diurno....114

Apêndice D4 – Freqüência das questões do curso de Adm. Hospitalar..................115

Apêndice D5 – Freqüência das questões do 2º Ano Adm. Hospitalar.....................116

Apêndice D6 – Freqüência das questões do 3º Ano Adm. Hospitalar.....................117

Apêndice D7 – Freqüência das questões do curso de Ciências Contábeis.............118

Apêndice D8 – Freqüência das questões do 2º Ano de Ciências Contábeis...........119

Apêndice D9 – Freqüência das questões do 4º Ano de Ciências Contábeis...........120

Apêndice D10 – Freqüência das questões do 3º Ano Adm. Com. Exterior Diurno..121

Apêndice D11 – Freqüência das questões do curso de Adm. Pública.....................122

Apêndice D12 – Freqüência das questões do 1º Ano Adm. Pública........................123

Apêndice D13 – Freqüência das questões do 2º Ano Adm. Pública........................124

Apêndice D14 – Freqüência das questões do 5º Ano Adm. Pública........................125

Apêndice D15 – Freqüência das questões do curso de Ciências Econômicas.......126

Apêndice D16 – Freqüência das questões do 1º Ano de Ciências Econômicas.....127

Apêndice D17 – Freqüência das questões do 2º Ano de Ciências Econômicas.....128

Page 13: Jos. Ricardo dos Santos

12

Apêndice D18 – Freqüência das questões do 3º Ano de Ciências Econômicas.....129

Apêndice D19 – Freqüência das questões do 4º Ano Adm. Com. Exterior Diurno..130

Apêndice D20 – Freqüência das questões do 3º Ano Adm. Pública........................131

Apêndice D21 – Freqüência das questões do curso de Adm. Empresas Diurno.....132

Apêndice D22 – Freqüência das questões do 2º Ano Adm. Empresas Diurno........133

Apêndice D23 – Freqüência das questões do 3º Ano Adm. Empresas Diurno........134

Apêndice D24 – Freqüência das questões do 4º Ano Ciências Econômicas..........135

Apêndice D25 – Freqüência das questões do curso de Secretariado Executivo

Trilingüe.........................................................................................136

Apêndice D26 – Freqüência das questões do 3º Ano de Ciências Contábeis.........137

Apêndice D27 – Freqüência das questões do 5º Ano de Ciências Contábeis.........138

Apêndice D28 – Freqüência das questões do 4º Ano Adm. Empresas Diurno........139

Apêndice D29 – Freqüência das questões do 5º Ano Adm. Empresas Diurno........140

Apêndice D30 – Freqüência das questões do 1º Ano Adm. Hospitalar...................141

Apêndice D31 – Freqüência das questões do 5º Ano Adm. Hospitalar...................142

Apêndice D32 – Freqüência das questões do 1º Ano Adm. Com. Exterior Diurno..143

Page 14: Jos. Ricardo dos Santos

13

LISTA DE GRÁFICOS

Gráfico 4.1 – Análise de Cluster – Similaridade das questões quanto à organização

didático-pedagógica e infra-estrutura do curso...................................71

Gráfico 4.2 – Média das questões quanto à organização didático-pedagógica e infra-

estrutura do curso................................................................................72

Gráfico 4.3 – Média por curso das questões quanto à organização didático-

pedagógica e infra-estrutura do curso.................................................73

Gráfico 4.4 – Análise de Cluster – Similaridade das questões quanto à auto-

avaliação do aluno...............................................................................74

Gráfico 4.5 – Médias das questões quanto à auto-avaliação do aluno.....................75

Gráfico 4.6 – Médias por curso das questões quanto à auto-avaliação do aluno.....76

Gráfico 4.7 – Análise de Cluster – Similaridade das questões ao desempenho

docente................................................................................................79

Gráfico 4.8 – Análise de componentes principais (2 Fatores) – Similaridade das

questões quanto ao desempenho docente.........................................81

Gráfico 4.9 – Análise de componentes principais (3 Fatores) – Similaridade das

questões quanto ao desempenho docente.........................................82

Gráfico 4.10 – Clusters formados nas raízes 1 e 2 da análise discriminante...........84

Gráfico 4.11 – Média das questões quanto ao desempenho docente para os quatro

grupos determinantes........................................................................85

Gráfico 4.12 – Média por curso das questões quanto ao desempenho docente......87

Page 15: Jos. Ricardo dos Santos

14

LISTA DE FIGURAS

Figura 4.1 – Comparação das médias dos cursos quanto ao desempenho dos

docente..................................................................................................91

Figura 4.2 – Comparação das médias dos departamentos quanto ao desempenho

dos docentes.........................................................................................92

Figura 4.3 – Comparação das médias dos anos quanto ao desempenho

docente..................................................................................................92

Page 16: Jos. Ricardo dos Santos

15

LISTA DE TABELAS

Tabela 4.1 – Confiabilidade das questões quanto à organização didático-pedagógica

e infra-estrutura do curso......................................................................70

Tabela 4.2 – Confiabilidade das questões quanto à auto-avaliação do aluno...........74

Tabela 4.3 – Confiabilidade das questões quanto ao desempenho docente............77 Tabela 4.4 – Confiabilidade das questões quanto a metodologia e técnicas de

ensino....................................................................................................77

Tabela 4.5 – Confiabilidade das questões quanto a postura ética e profissional......78 Tabela 4.6 – Confiabilidade das questões quanto ao processo de ensino-

aprendizagem.......................................................................................78

Tabela 4.7 – Freqüências das respostas para cada questão quanto ao desempenho

docente.................................................................................................79

Tabela 4.8 – Agrupamentos formados pela análise de clusters................................80

Tabela 4.9 – Autovalores dos componentes principais para as questões quanto ao

desempenho docente...........................................................................81

Tabela 4.10 – Critérios para classificação.................................................................82

Tabela 4.11 – Funções de Classificação...................................................................83

Tabela 4.12 – Matriz de Classificação.......................................................................83

Tabela 4.13 – Classificação das questões nos grupos..............................................84

Tabela 4.14 – Média por curso das questões quanto ao desempenho docente.......86

Page 17: Jos. Ricardo dos Santos

16

LISTA DE SIGLAS E ABREVIATURAS

ADM. – Administração

ANDIFES – Associação Nacional dos Dirigentes de Instituições Federais de

Ensino Superior.

BC MISSION – British Council Mission

CAPES – Coordenação de Aperfeiçoamento de Pessoal de Ensino Superior

CNPQ – Conselho Nacional de Desenvolvimento Científico e Tecnológico

COM. - Comércio

ENC – Exame Nacional de Cursos

IES – Instituições de Ensino Superior

IFES – Instituições Federais de Ensino Superior

MEC – Ministério da Educação e do Desporto

PAUIB – Programa de Avaliação Institucional das Universidades Brasileiras

PUCRS – Pontifícia Universidade Católica do Rio Grande do Sul

SESu – Secretaria de Educação Superior

UFC – University Funding Council

UNB – Universidade de Brasília

Page 18: Jos. Ricardo dos Santos

17

1 INTRODUÇÃO

1.1 Contextualização

Os avanços que ocorrem em todas as áreas de atividade humana se

acentuaram na segunda metade do século XX e se transformaram em dinâmicas

cada vez mais velozes nas duas últimas décadas, acentuando assim as exigências

no que refere a qualidade de produtos e serviços. A preocupação em oferecer o

melhor ao consumidor passou a ser sinônimo não apenas de concorrência, mas

especialmente de referência e de crescimento com segurança.

Trata-se da sociedade pós-moderna, melhor informada pelo volume de

comunicação colocada à sua disposição, com um leque de opção muito mais amplo,

se comparado com o que tinha uma geração anterior.

A educação é sem dúvida a maior responsável por estas transformações. A

ciência e a tecnologia são aplicadas para se alcançar resultados de melhor

qualidade em tudo que a sociedade contemporânea necessita. Sabe-se, portanto,

que para se obter patamares melhores de qualidade de vida é imprescindível que as

instituições educacionais dos sistemas tanto público quanto privado ofereçam

qualidade de ensino.

No mesmo espaço das transformações mencionadas surgiram exigências e

mesmo denúncias em relação à qualidade do ensino oferecido em todos os graus.

No caso dos cursos de graduações, criados e instalados, entre as décadas de 1960

e 1980, utilizaram-se de critérios políticos e não educacionais, fazendo com que a

qualidade do ensino fosse prejudicada. Isto ocorreu principalmente devido a

aspectos de distribuição geográfica, já que se trata de um país com diversidades

sociais e culturais peculiares. Vários outros fatores também contribuíram para que a

qualidade do ensino decaísse. Entre eles as condições de preparo dos professores,

a motivação em relação aos salários, a ausência de estruturas adequadas como

bibliotecas e laboratórios.

Assim, as condições qualitativas do ensino decaíram vindo a não atender as

exigências daqueles que viriam utilizar-se dos serviços oferecidos pelos profissionais

colocados no mercado por estas instituições. Mas, esta decadência não ocorreu

Page 19: Jos. Ricardo dos Santos

18

somente no interior do país. Muitas instituições educacionais dos centros maiores e

mesmo algumas tradicionais tiveram também problemas com a qualidade de

ensino.

A partir do momento em que a questão passou a ser mais discutida, as

autoridades que ocupam suas funções no governo, os estudiosos, os responsáveis

pela área da educação e a sociedade comprometida com as mudanças necessárias

para melhorar aquilo que não é satisfatório, passaram a discuti-la e a apresentar

possíveis soluções. Entre as propostas apresentadas, a de maior ênfase foi a

criação de uma avaliação permanente dos cursos e especificamente do corpo

docente.

Em 1996 foi criado pelo Ministério da Educação o chamado “Provão”, com o

objetivo de avaliar o desempenho dos alunos. Neste caso evidenciam-se variáveis

que atingem alunos, professores e a instituição como um todo.

É sobre o contexto geral da avaliação das instituições educacionais,

abordando o que é realizado no Brasil e também em outros países que se pretende

desenvolver o presente estudo.

1.2 Justificativa e Importância do Trabalho

Quando se tem um problema para resolver quanto maior o índice de

conhecimento sobre ele, mais fácil se torna a sua solução.

Embora a questão da avaliação do ensino superior já seja discutida há

algumas décadas em outros países e vem se tornando melhor conhecida por grande

parte da sociedade brasileira, ela ainda é um desafio a ser mais profundamente

conhecido em suas causas e conseqüências para que se possa apresentar

propostas permanentes para resolvê-la a contento.

Diante desta exposição tem-se a importância do presente trabalho que visa

aprofundar conhecimentos a respeito da avaliação institucional de um

estabelecimento de ensino superior. Mas, para que isso aconteça, é necessário que

se trabalhe uma visão geral a respeito do assunto, permitindo comparações e

aproveitamentos relacionados com as mesmas, buscando assim, alcançar

Page 20: Jos. Ricardo dos Santos

19

resultados de melhor qualidade no contexto da educação no nível de graduação,

com extensão a cursos posteriores.

Trata-se, sem a menor dúvida, de um desafio estudar com detalhes todos os

aspectos que envolvem o conhecimento de como uma instituição esteja

desempenhando sua função educacional. Por isso, o presente estudo envolve um

estudo de campo em que os professores, os cursos são avaliados e os alunos fazem

uma auto-avaliação. Certamente, após a realização deste estudo, é possível ter uma

visão diferente tanto no campo teórico como prático, de como se encontra a

qualidade de ensino superior na instituição tomada como amostra, com

comparações estabelecidas em relação a outras, tendo como base o que a teoria

mostra na literatura consultada.

1.3 Objetivos

1.3.1 Objetivo Geral

Avaliar o desempenho dos docentes e a qualidade dos cursos da Faculdade

Estadual de Ciências Econômicas de Apucarana através de coleta de informações

dos alunos (questionário), para posteriormente sugerir soluções.

1.3.2 Objetivos Específicos

•Elaborar um modelo de avaliação da qualidade de ensino realizado na

Faculdade Estadual de Ciências Econômicas de Apucarana, em uma

pesquisa de campo realizada entre os alunos;

•Verificar a avaliação que os alunos fazem quanto à organização didático-

pedagógica e infra-estrutura do curso;

•Verificar a auto-avaliação feita pelos alunos;

Page 21: Jos. Ricardo dos Santos

20

•Verificar o desempenho do corpo docente, na avaliação que os alunos

fazem a respeito da metodologia e técnicas de ensino, postura ética e

profissional e processo de ensino-aprendizagem.

•Diagnosticar os pontos negativos e positivos quanto à avaliação do curso,

auto-avaliação dos alunos e avaliação do corpo docente.

1.4 Metodologia

A realização deste estudo se deu através de uma dupla metodologia: a

pesquisa bibliográfica e a pesquisa de campo. Na realização da primeira foi feito

inicialmente um levantamento da literatura que trata do tema, numa diversidade de

livros, revistas, boletins de seminários e congressos e opiniões das mais diferentes

que apresentaram informações a respeito do assunto. Este material levantado foi

lido, analisado, citado e comentado de forma que representou ao mesmo tempo o

entendimento e o posicionamento a respeito dos conteúdos conhecidos. Na segunda

foi elaborado um questionário, para os discentes da Faculdade Estadual de Ciências

Econômicas de Apucarana, que responderam questões quanto à organização

didática pedagógica e a infra-estrutura do curso, quanto a auto avaliação e quanto

ao desempenho docente. Os dados colhidos foram tabulados e analisados,

permitindo a aquisição de conhecimentos a respeito da avaliação realizada nesta

instituição e conseqüentemente a elaboração de uma proposta em relação ao que

precisa ser mudado e o que pode ser mantido.

1.5 Estrutura do Trabalho

Este trabalho foi estruturado com a presente Introdução, seguida da

Fundamentação Teórica, Estudo de Caso; Análises dos resultados, Conclusões e

recomendações para futuros trabalhos; e, finalmente, as Referências bibliográficas e

os Apêndices.

Page 22: Jos. Ricardo dos Santos

21

2 FUNDAMENTAÇÃO TEÓRICA

2.1 O Provão Veio Para Melhorar

Em 1996, o governo federal tomou a decisão de investir na avaliação dos

cursos superiores no Brasil buscando avanços na qualidade de ensino. A medida

tomada pelo MEC, com a entrada em vigor do Decreto 2026, de 10 de outubro de

1996, passou a exigir todas as medidas necessárias para que o ensino superior

passasse a ser avaliado tanto no que refere a instituições e aos corpos docente,

discente e técnico-administrativo.

Catani, Oliveira (2002, p. 59), a avaliação da educação superior no Brasil

ganhou maior relevo na década de 90, especialmente a partir do primeiro mandato

do governo Fernando Henrique Cardoso (1995-1998). Desde então vem sendo

constituído amplo sistema que contempla um conjunto de mecanismos e

procedimentos de avaliação, incluindo alguns que já existiam, como é o caso da

sistemática de Avaliação dos Programas de Pós-Graduação, o Programa de

Avaliação Institucional das Universidades Brasileiras (PAIUB) e as Avaliações de

Cursos de Graduação pelas Comissões de Ensino.

De um modo geral, o sistema de avaliação do ensino superior vem adquirindo

grande centralidade no processo da reforma, principalmente se levar em

consideração os procedimentos de avaliação introduzidos nos anos recentes, tais

como o Exame Nacional de Cursos (Enc), iniciado em 1996, e a Avaliação das

Condições de Oferta de Cursos de Graduação, a partir de 1997. Além desses

instrumentos, o governo tem produzido censos anuais, com indicadores quantitativos

globais, que fornecem estatísticas da evolução do sistema e da situação

particularizada de cada IES. Vale lembrar, também, que no caso das IES, mantidas

pelo executivo Federal, o volume de informações que vem sendo obtido é ainda

maior, uma vez que o governo dispõe de sistemas de acompanhamento e controle

de pessoal e de aplicação dos recursos orçamentários, além de contar com as

informações obtidas através da Gratificação de Estímulo à Docência (Ged),

programa criado em 1998.

Observa-se, portanto, que o governo Fernando Henrique Cardoso vem

instituindo um sistema de avaliação, que privilegia o ensino de graduação – sistema

Page 23: Jos. Ricardo dos Santos

22

esse articulado à política de expansão do ensino superior que está sendo praticada

no país. No contexto dessa expansão, a avaliação tem a incumbência de zelar pela

qualidade dos cursos e das instituições, impondo uma cultura de aprimoramento “.

Segundo o ministro da educação, Paulo Renato Souza, a “política de avaliação e

expansão do ensino superior” adotada, devido às “distorções do sistema” e aos

“baixos percentuais de oferta”, permite que ocorra uma “abertura de novos cursos”,

sem restrição ou cerceamentos corporativos de algumas áreas profissionais. Para

ele, “as limitações orçamentárias à expansão da esfera pública, onde tentaremos

ampliar e diversificar a oferta por meio de projeto de autonomia universitária [...], faz

com que dependamos da iniciativa privada” (Souza, 1999, 2000b).

A vinculação da expansão do ensino superior com um determinado tipo de

avaliação teve início com o ENC. Todavia, foi melhor explicitada em 10 de outubro

de 1996, quando o Presidente da República baixou o Decreto nº 2.026/96 que

“estabelece procedimentos para o processo de avaliação dos cursos e instituições

de ensino superior”. Esse Decreto promove ampla reorganização do sistema de

avaliação do ensino superior, inclusive ajustando os mecanismos avaliativos

existentes anteriormente. Os procedimentos indicados de avaliação dos cursos e

instituições do ensino superior, conforme o art. 1º, são os seguintes:

I – análise dos principais indicadores de desempenho global do sistema

nacional de ensino superior, por região e unidade de federação, segundo as

áreas do conhecimento e o tipo ou a natureza das instituições;

II – avaliação do desempenho individual das instituições de ensino superior,

compreendendo todas as modalidades de ensino, pesquisa e extensão;

III – avaliação do ensino de graduação, por curso, por meio da análise das

condições de oferta pelas diferentes instituições de ensino e pela análise dos

resultados do Exame Nacional de Cursos;

IV – avaliação dos programas de mestrado e doutorado, por área do

conhecimento.

Ocorreram reações diversas por parte de alunos e professores, de interessados

diversos, inclusive políticos para que não fosse implantado o sistema de provão, por

exemplo. Mas, entendo que seja preciso considerar que a iniciativa no sentido de

oferecer a oportunidade de melhorar a qualidade de ensino, foi tomada. As

manifestações iniciais, as negativas no sentido de não permitirem que se

realizassem as provas foram diminuindo com o decorrer do tempo.

Page 24: Jos. Ricardo dos Santos

23

2.2 Principais Programas e Mecanismos da Educação Superior no Brasil

De acordo com Catani, Oliveira (2002, p. 63), em 1998, a Capes promoveu

alterações na sistemática de avaliação. Até aquela data, eram atribuídos conceitos

de A a E aos programas, baseados na análise das comissões de especialistas, com

validade de dois anos. Na nova sistemática de avaliação, a classificação passou a

ser composta por sete níveis de conceitos – de 1 a 7 -, sem frações. A avaliação

passou, também, a ser efetuada por programa de pós-graduação e não mais

separadamente por curso (mestrado ou doutorado). Além disso, decidiu-se que

conceitos superiores a cinco somente poderiam ser atribuídos a um programa que

mantivesse curso de doutorado. Na primeira avaliação, dentro da nova sistemática,

os parâmetros estabelecidos pelas Comissões de Área para compor o “perfil de um

Curso A” corresponderam ao perfil dos programas com conceito cinco, até então.

Passaram a ser avaliados também os cursos de pós-graduação, para melhorar

determinadas falhas que vinham acontecendo e estavam prejudicando os cursos de

graduação devido a qualidade dos professores que constituíam o corpo docente

destes.

Os resultados da avaliação da pós-graduação, em 1998, foram amplamente

divulgados no meio acadêmico e na mídia, em geral. Destacaram-se os programas

melhor classificados, especialmente aqueles considerados de nível internacional.

Nessa avaliação, 23 programas, de diferentes áreas, obtiveram nota sete, sendo

considerados como de excelência. Em geral, tais programas foram bem avaliados

nos quesitos: proposta do programa, corpo docente, atividades de pesquisa,

atividades de formação, corpo docente, teses e dissertações e produção intelectual

(Revista Época, apud CATANI, OLIVEIRA, p.64, 2002). Todos os programas que

receberam a nota sete pertenciam às regiões sul e sudeste, com destaque para a

Universidade de São Paulo (USP) que teve dez programas (65% do total) com a

nota máxima.

A divulgação dessa variação foi acompanhada de muitos protestos,

especialmente daqueles programas que foram rebaixados em seus conceitos.

Muitos programas recorreram da avaliação obtida junto à Capes. Os embates

promoveram, inclusive, a destituição de Comissões de Área. Além desses

Page 25: Jos. Ricardo dos Santos

24

desgastes, parece ter sido intensificada a luta no campo em prol de uma maior

distinção, o qual fatalmente implicará numa maior competição.

2.3 A Revolução Do Ensino Superior

A análise realizada a respeito do provão depende muito da pessoa que a

realiza. É evidente que ainda há críticos que se orientam pelo aspecto negativo.

Porém, é bom observar que esses não apresentam propostas alternativas. Pelo

menos tem-se um programa de avaliação que passa por vários processos, entre eles

o provão realizado anualmente com os alunos.

Segundo Souza (2000, p. 53), nós temos afirmado que o Exame Nacional de

Cursos – a parte mais visível de um amplo sistema de avaliação – promoveu uma

revolução na Universidade brasileira. Está terminando a era do curso superior que

só funciona para entregar diplomas. Atualmente, a sociedade, o mercado, a

velocidade com que se criam novas tecnologias exigem qualidade, cabeças

preparadas para esses desafios.

Nenhum programa, nenhuma política de desenvolvimento, têm sucesso, hoje,

se não levar em conta a necessidade, sempre urgente, da formação de profissionais

altamente qualificados e em permanente aprendizado. O Brasil precisa, cada vez

mais, de gente capacitada a gerir e fazer funcionar os novos meios de produção que

aparecem todos os dias.

Souza ainda reforça que esse profissional só pode ser formado em centros de

ensino e pesquisa muito bem qualificados e criticamente fiscalizados. Para o autor o

Provão é um dos meios que vão nos levar nessa passagem de um sistema de

ensino, por vezes simples reprodutor de conhecimentos, para uma Universidade

criativa e geradora de novos saberes e dos quadros profissionais indispensáveis à

transformação do Brasil e à melhoria da qualidade de vida dos brasileiros.

É importante frisar que o Provão não se preocupa apenas na área de avaliação

da aprendizagem. Todos os aspectos que proporcionam a melhoria na educação a

na formação de profissionais nas diferentes áreas, são tratados criteriosamente.

A modernização do nosso sistema de ensino, desde o nível fundamental, é

prioridade de governo. Várias reformas foram implementadas ou estão em curso. Em

Page 26: Jos. Ricardo dos Santos

25

abril de 2001, os ministérios da Educação e da Ciência e Tecnologia criaram um

fundo que geraria, em 2001, R$ 1,2 bilhão para aplicação em programas de melhoria

da estrutura física das instituições federais do ensino superior. A esse valor,

poderiam ser somados recursos de fundos para financiamento de pesquisa e bolsas

de estudos cuja criação foram proposta ao Congresso Nacional.

Ainda segundo Souza, é preciso formar gente que veja além da especialidade

escolhida como campo de atuação profissional. A estratégia de crescimento do país

não pode ficar assentada apenas na capacidade de operarmos novas máquinas. O

sistema educacional moderno deve formar cidadãos na sua plenitude. Cidadãos

bem formados vão gerar uma elite dirigente mais capaz de trabalhar pelo

desenvolvimento do país com verdadeiro espírito público, um empresariado

consciente do papel social de suas organizações e trabalhadores preparados para

os desafios do novo século.

2.4 O Impacto do Provão no Ensino Superior

O modelo de Provão adotado no Brasil não é original, já é conhecido em vários

países do mundo. Portanto, o modelo apenas foi adaptado para a realidade

brasileira.

Segundo Castro (1998) , a Europa está revendo a sistemática implantada há

tantos anos um pouco anterior a Thatcher. A autora afirma que a Holanda está

revendo seu sistema de avaliação do ensino superior. Para tanto grandes debates

estão sendo realizados sobre o tema através do Ministério da Educação. Castro

ainda menciona o fato de ter participado de um seminário na Bulgária recentemente

onde foram discutidos intensamente os problemas ligados à auto-avaliação.

Há, em alguns países europeus, um certo retorno à avaliação externa

centralizada, mas também não se têm respostas como também não se tem muita

clareza sobre qual processo de avaliação é o mais adequado. Desta forma o que é

mais importante na avaliação é provocar o debate,provocar mudanças e melhorias.

Para Castro nunca teremos um sistema de avaliação que seja absolutamente

auto-suficiente, que seja absolutamente inatacável. Ao contrário, o autor acha que

todos os sistemas de avaliação precisam ser questionados, para que possam estar

Page 27: Jos. Ricardo dos Santos

26

em permanente interlocução com as instituições, com diferentes atores, para que

possamos atingir aquilo que queremos, ou seja, a melhoria da qualidade da

educação.

O Provão é uma avaliação que tem como objetivo avaliar o curso a partir do

desempenho médio dos alunos. Assim, com certeza ele agitou o Ensino Superior no

Brasil, pois tínhamos instituições, tanto nos grandes centros como no interior, que

estavam acomodadas e simplesmente desempenhavam o papel de distribuir

diplomas. Com essas novas formas de avaliar alunos, professores e instituição,

todos começaram a se preocupar com o desempenho de sua instituição no Exame

Nacional de Cursos. Desta forma, os alunos reivindicam uma qualidade melhor das

bibliotecas, dos laboratórios, investimento em infra-estrutura e qualificação dos

professores.

2.5 O Provão é um Instrumento de Avaliação

Diante das exigências de qualidade de ensino, alguma coisa teria que ser feita.

Não havia como permanecer estático diante de uma situação quase caótica, que

vinha prejudicando a formação dos profissionais em quase todas as áreas, pelo fato

de não se ter informações suficientes para avaliar e propor mudanças. Logo, o

Provão passou a ser um ótimo instrumento de avaliação que deu início a importantes

mudanças na qualidade de ensino no Brasil.

De acordo com Ramos (2002, p. 24), foi pensando assim que, a partir de 1996,

o Ministério da Educação implementou dois importantes instrumentos para aferir a

qualidade do ensino superior: a Avaliação das Condições de Oferta e o Exame

Nacional de Cursos, mais conhecido como Provão. A cada ano, essas duas

ferramentas vem se consolidando no cenário da educação superior, promovendo

maior reflexão e responsabilidade social por parte das instituições.

Vários cursos que regularmente vêm obtendo o conceito máximo “A” têm

discutido os resultados do exame com seus alunos, visando a um aprimoramento

permanente dos conteúdos curriculares e uma maior reflexão acerca do ensino

oferecido. Contudo, apesar dos avanços alcançados, o exame precisa ser

aperfeiçoado em alguns aspectos.

Page 28: Jos. Ricardo dos Santos

27

Para o autor, em primeiro lugar, o Provão não pode ser visto pela sociedade

como o instrumento de avaliação, de forma que seu objetivo inicial seja preservado,

ou seja, o de complementar as avaliações mais abrangentes das instituições. Dois

outros aspectos que necessitam atenção especial é o fato de que o boicote por parte

dos alunos e o crescente custo de aplicação do exame não interfiram na

interpretação dos resultados institucionais. Como todo processo de avaliação,

ajustes são sempre necessários e, o autor não tem dúvida de que o Provão é parte

integrante do arcabouço da avaliação institucional brasileira.

Para Souza (2001, p. 8), “quem tem competência se estabelece, diziam nossos

avós.” Segundo o autor, isto não é coisa passado e sim do futuro. Souza ainda

explica que com a sociedade globalizada exigindo cada vez mais qualidade, e o

mercado de trabalho caçando os talentos com maior nível de excelência, é

fundamental investir na qualidade para não ficar em desvantagem. O autor ainda

reforça que só um curso superior de bom nível poderá formar profissionais bem

preparados para os desafios do mundo moderno.

Foi nesse contexto que o ministro da Educação, Paulo Renato Souza, propôs e

o Congresso Nacional aprovou a criação, em 1995, do Exame Nacional de Cursos,

que logo passou a ser chamado de Provão, um instrumento para avaliar os cursos

superiores brasileiros, diagnosticar as deficiências e contribuir para melhorar a

qualidade da educação (Natal, Guedes, Mello, p.8, 2001).

Ainda segundo os autores, superadas as reações iniciais (mesmo na

universidade as grandes inovações provocam desconfianças e o boicote de alguns

mais refratários à avaliação), o Provão está consolidado como um dos principais

indicadores da qualidade e um importante agente de transformação do ensino

superior no Brasil. Houve aumento do número de professores com mestrado e

doutorado. E mais da metade dos 131 cursos que ficaram com conceito D, ou E, no

ano em que foram incluídos na avaliação, tiveram desempenho melhor no Provão

2000.

“Se o provão tivesse sido implantado há dez anos, hoje as instituições estaria

bem melhores”. A opinião é da reitora do Centro Universitário da Grande Dourados,

de Mato Grosso do Sul, professora Rosa Maria D’Amato de Déa. “No início, houve

boicote, mas hoje fazemos palestras orientando, explicando que o diploma que eles

obterão é para a vida toda e nele estará o nome da instituição onde se graduaram”,

afirmou De Déa (2001)

Page 29: Jos. Ricardo dos Santos

28

Góes, Pires Jr ( p.6, 1998) explica que na época do Exame Nacional de

Cursos, os jornais ficam abarrotados com notícias sobre o Provão. Seis meses

depois, a história se repete com a divulgação dos resultados. É uma visão limitada

do que realmente está acontecendo no ensino superior. A grande mudança ainda é

um fato pouco conhecido. Desde a publicação do decreto que criou o Sistema

Nacional de Avaliação do Ensino Superior, que o Ministério da Educação e as

universidades brasileiras vêm trabalhando para descobrir formas para avaliar todos

os aspectos da educação de terceiro grau.

“O Provão oferece um indicador importante sobre a formação do aluno. Mas,

‘para avaliar com precisão a universidade, usamos outros instrumentos compatíveis

com o grande número de atividades desenvolvidas por elas”, defende o secretário

de Ensino Superior do Ministério (Neves, apud GÓES, PIRES Jr, p.6, 1998).

Além de saber o que o aluno aprendeu, é importante averiguar as condições

em que o aprendizado ocorreu. Qualidade da biblioteca e dos professores,

laboratórios e equipamentos disponíveis e projeto pedagógico estão entre os

aspectos que precisam ser verificados. As visitas das chamadas Comissões de

Especialistas têm esse objetivo.

Cada curso possui uma comissão, formada por profissionais de todas as

regiões do país com experiência acadêmica e de mercado. Antes de ir até a

instituição, o grupo de especialistas se encontra e define alguns patamares mínimos

que toda faculdade precisa preencher, como as condições da estrutura física dos

laboratórios. “Os critérios ajudam a tornar a avaliação mais objetiva com a garantia

de que todas as instituições tenham o mesmo tratamento”, explica Neves(apud

GÓES, PIRES Jr, 1998).

Os primeiros cursos a receberem a visita das comissões foram aqueles que

obtiveram conceito D ou E no primeiro Provão. A missão do grupo não era punir,

mas verificar os aspectos que não foram medidos pelo exame e, principalmente,

fazer sugestões para melhoria desses cursos.

Para os autores o curso de Administração da Universidade do Contestado, em

Curitibanos, Santa Catarina, foi um dos que recebeu a visita a comissão, depois de

ter ficado com conceito E no primeiro Provão, Werner Bertoldi , professor da

faculdade, conta que ficou surpreso com a praticidade demonstrada pelo grupo.

Dizia o professor Werner Bertoldi (1998) “tínhamos medo de que a visita

virasse mais um relatório sem resultados. Mas os especialistas nos fizeram

Page 30: Jos. Ricardo dos Santos

29

sugestões concretas que pudemos utilizar imediatamente”, lembra. E completa:

“Eles mostraram que vieram aqui não para criticar, mas para contribuir”. O resultado

da primeira rodada de visitas aos cursos de Administração, Direito e Engenharia Civil

produziu um relatório com informações completas sobe a faculdade.

Outra novidade que surpreendeu as universidades citadas: os critérios

adotados para classificar o corpo docente. Muitas escolas, especialmente as

particulares que obtiveram conceito A pelo desempenho de seus alunos no 1º

provão, criticaram o fato de a nota dos professores ter sido baseada somente na

titulação, número de horas dedicadas à sala de aula e à pesquisa.

Por isso, decidiu-se que, nos cursos voltados principalmente para formação de

mão-de-obra qualificada para o mercado de trabalho, a experiência profissional dos

docentes fora da academia também seria considerada. Caso da Administração,

Direito e Engenharia Civil.

Os autores afirmam que a próxima meta seria ampliar a visita das comissões

para todos os cursos participantes do Provão, independentemente do conceito

recebido, até cobrir a totalidade das faculdades do país, em todas as áreas de

conhecimento. Atualmente, as comissões de especialistas já começaram a conhecer

todas as escolas que participaram do Exame Nacional de Cursos no ano passado.

O Exame Nacional de Cursos realizado através do Provão, em áreas diferentes

de conhecimento selecionada a cada ano em instituições de todo o país, é de tal

forma eficiente que está sendo mantido pelo governo atual.

Mas o esforço para avaliar o ensino superior não começou com o Provão ou o

decreto presidencial. Desde 1992, várias universidades mantinham programas de

avaliação institucional, ou seja, programas que analisam o conjunto de atividades

desempenhadas pela instituição. As universidades federais de Brasília, Minas, Rio

Grande do Sul, Ceará e Unicamp são apenas alguns exemplos de escolas que

desenvolveram formas próprias de auto-avaliação.

Page 31: Jos. Ricardo dos Santos

30

2.6 Novo Sistema de Avaliação

De acordo com a Lei nº 10.861, de 14 de abril de 2004 fica instituído um novo

Sistema Nacional de Avaliação da Educação Superior (SINAES) estará substituindo

o Exame Nacional de Cursos (ENC), popularmente chamado de Provão.

A avaliação das instituições de educação superior terá por objetivo identificar

o seu perfil e o significado de sua atuação, por meio de suas atividades, cursos,

programas, projetos e setores, considerando as diferentes dimensões institucionais,

dos cursos de graduação e do desempenho acadêmico de seus estudantes, nos

termos do art. 9º, VI, VII e IX, da Lei nº 9.394, de 20 de dezembro de 1996.

Para Gama(2004) o Sinaes é um sistema mais completo que terá como

enfoque central a instituição, onde será composto por quatro instrumentos de

avaliação: auto-avaliação institucional, avaliação institucional externa; avaliação das

condições de ensino (ACE) e um Processo de Avaliação Integrada do

Desenvolvimento Educacional e da Inovação da Área (PAIDEIA), que terá uma

prova aplicada aos alunos, por amostragem, no meio e no final do curso, as

principais áreas de conhecimentos: ciências humanas, exatas, tecnológicas e

biológicas e da saúde.

Ainda para Gama, ao contrário do Provão, seu objeto de avaliação está

voltado para o trabalho pedagógico e científico, em seu sentido técnico e formativo,

e para as atividades mais diretamente vinculadas aos compromissos sociais da

instituição. Em sua abrangência procura abarcar “as relações sociais e as condições

de trabalho, a eficiência administrativa e a eficácia dos processos interpessoais que

se desenvolvem nas distintas instituições” e, da mesma forma, as condições de

sustentabilidade e continuidade infra-estrutural, os fluxos de informação, e

funcionamentos das câmaras, conselhos, comissões e outros colegiados. Trata,

portanto, de avaliar como as IES desenvolvem o ensino, formam, promovem e

inserem seus profissionais no mercado de trabalho, integram teoria e prática, e como

atendem a demandas sociais imediatas.

Page 32: Jos. Ricardo dos Santos

31

2.7 Programa Avaliação Institucional Das Universidades Brasileiras – Paiub

O PAIUB surge das bases universitárias. A Associação Nacional de Dirigentes

das Instituições Federais de Ensino Superior (ANDIFES) reivindica para si a tarefa

da avaliação adiantando-se ao Estado, propondo ao Ministério da Educação um

Programa de Avaliação, que é aceito. Tal programa caracteriza-se por ter dotação

financeira própria, livre adesão das universidades através da concorrência de

projetos e princípios de avaliação coerentes com a posição emancipatória e

participativa.

Com duração média de dois anos, o PAIUB estabelece três fases centrais para

o processo a ser desenvolvido em cada universidade: Avaliação Interna, Avaliação

Externa e Reabilitação. Os resultados da primeira e da segunda faze, ou seja, da

Auto-Avaliação por seu “segmentos constitutivos” e da Avaliação Externa por experts

das áreas do conhecimento e/ou provedores de informações da comunidade externa

(representantes de sindicatos, de associações profissionais, usuários das profissões

e egressos), são discutidos posteriormente no intuito de estabelecer ações para a

melhoria da qualidade dos cursos e restabelecimento de seu projeto pedagógico e

de desenvolvimento. No 1º ciclo avaliativo proposto, o PAIUB dedicou-se ao ensino

de graduação, uma vez que a pesquisa e a pós-graduação já eram

sistematicamente avaliadas pelo MEC/Capes/CNPq ( Leite, Tutukian, Holz, 2000, p.

35).

Os autores explicam que o controle do processo de avaliação pertence a cada

universidade que livremente aderiu ao programa e teve seu projeto aprovado pelos

pares indicados pela Comissão Nacional de Avaliação. A supervisão do programa

cabe ao SESu/MEC, que repassa os recursos pelo Comitê Assessor do PAIUB às

universidades que prestam contas, via relatórios técnicos e financeiros, das ações

desenvolvidas e dos gastos realizados. Paralelamente ao desenvolvimento dos

projetos em cada universidade ou IES, o Ministério da Educação reúne

esporadicamente comissões de estudo para a definição de metodologias comuns de

avaliação. Concluíram-se, assim, os trabalhos de evasão, retenção e diplomação no

conjunto das universidades públicas. O objetivo foi o de perseguir uma linguagem

comum que permitisse não o ranqueamento de instituições, mas o estabelecimento

Page 33: Jos. Ricardo dos Santos

32

de diagnósticos com unidade e metodologias comuns, do conhecimento de todos.

Além disso, o PAIUB prevê o uso de indicadores selecionados que servem à

Avaliação Interna e Externa e permite, respeitando a identidade institucional e sua

globalidade, repensar objetivos, compromissos e orientar as mudanças necessárias.

Segundo os autores o Estado avaliativo mostra-se ambíguo, pois por um lado

age como colonizador, impondo seus decretos, criando secretarias de avaliação,

comissões de elaboração de provas e avaliação de exames. Por outro lado, acolhe o

PAIUB, destina recursos e mantém em funcionamento um Comitê Assessor PAIUB

em diálogo com a ANDIFES e as demais associações. No entanto, não devemos

menosprezar a atuação do Estado, pois sem dúvida a avaliação extrapolou o

simples fato de ser um organizador qualificado que permite ver com objetividade os

problemas, os pontos fortes e fracos das universidades, visando à correção de

trajetórias.

Em 1993, as entidades representantes dos segmentos público e privado do

ensino superior e o Ministério resolveram criar um grupo de trabalho para propor

uma forma única de auto-avaliação que poderia ser usada por qualquer universidade

brasileira. Do resultado nasceu o PAIUB – Programa de Avaliação Institucional das

Universidades Brasileiras. O governo reservou recursos para bancar os gastos com

o processo. As faculdades que aderiram as idéias apresentavam um projeto. Depois

de aprovado, recebiam o dinheiro para aplicar a avaliação (Góes, Pires Jr, p.6,

1998).

“Durante algum tempo havia um conflito entre a filosofia de avaliação que o

ministério queria implantar com o provão e o modelo proposto do PAIUB”, diz Belloni

(Apud GÓES, PIRES JR, (1998), uma das criadoras do programa e pesquisadora da

Faculdade de Educação da UnB. “Queríamos pesar todos os aspectos juntos e

acreditávamos que o MEC estava disposto a medir isoladamente o desempenho dos

alunos”, explica.

As divergências acabaram sendo solucionadas com a inclusão do PAIUB no

Sistema Nacional de Avaliação. Luiz Roberto Curi, do Departamento de Políticas do

Ensino Superior, acompanhou o processo de integração do PAIUB. Ele diz que

houve algumas adaptações na sistemática do programa para que o resultado fosse

considerado juntamente com os outros instrumentos de avaliação do ministério.

Ainda segundo os autores à adesão permanece sendo voluntária, mas com

uma grande diferença: é preciso a aprovação do colegiado maior da instituição. Em

Page 34: Jos. Ricardo dos Santos

33

seu formato original, o PAIUB permitia que um departamento participasse e outro

não. Com a nova regra, espera-se que exista um compromisso com toda a

instituição em se avaliar. Como acontece com o resultado do Provão, o PAIUB

também teria a partir de 1998 uma divulgação periódica. A expectativa é de que 140

escolas participariam a partir de 1998, sendo 40 públicas e 100 particulares.

O Programa de Avaliação Institucional das Universidades Brasileiras – PAIUB,

criado antes da criação do Provão foi aproveitado no sentido de garantir avaliar os

cursos, os alunos e especialmente as instituições.

O PAIUB desenvolvido desde 1994, envolve a SESu/MEC e mais de 90

instituições de ensino superior. Existe, portanto, uma significativa experiência e

competência, construída no seio das IES’s, com apoio institucional e financeiro do

próprio MEC, que não pode ser desconsiderada ou substituída por uma prova

circunstancial, reduzindo a dimensão do processo avaliativo e as expectativas de

mudança institucional dele decorrentes (Dias Sobrinho, p.11, 1996).

Segundo Leite, Tutukian, Holz (p.36, 2000) a unidade de análise do PAIUB, no

1º ciclo avaliativo, foi o curso de graduação, não de departamento. O curso de

graduação é visto em suas relações com a pesquisa e a pós-graduação, a extensão

e a gestão acadêmica. Em cada curso se examinam quantitativa e qualitativamente

as relações entre corpo docente, discente, técnico-administrativo, currículo, as

instalações físicas, os laboratórios e as bibliotecas, além das relações de cada curso

com a comunidade externa à universidade, aí incluído o mercado profissional. Em

1998 o 1º ciclo avaliativo do PAIUB estava em andamento, com ritmos diferenciados.

Naquela época, 138 das 144 universidades/IES brasileiras aderiram ao mesmo.

Conquanto esse programa tenha sido ainda um projeto piloto, ele é visto como parte

do sistema regular de avaliação. A seu respeito, manifestou Teichler e Winkler

(1994, p.5) que o PAIUB serve ao mesmo tempo para prestar contas e melhorar o

desempenho institucional – utilizando uma abordagem com o uso de indicadores,

auto-avaliação e avaliação externa.

Page 35: Jos. Ricardo dos Santos

34

2.8 Qualidade Dos Professores

A exigência de qualidade dos professores sempre esteve presente na

disposição de análise da comunidade educacional. Os próprios professores buscam

a auto-avaliação na tentativa de garantir melhores resultados em suas atividades. No

caso do Brasil esta busca intensificou-se a partir da década de 70, com grande parte

do corpo docente sendo questionada de fora para dentro, mas também ao contrário.

Para Ramos, (1997, p. 62), desde a década de 70 tem havido um crescente

interesse na busca do auto-conhecimento por parte das instituições de ensino,

principalmente em nível superior. Essas iniciativas têm procurado avaliar a

instituição como um todo, contemplando os aspectos político, acadêmico e

administrativo. Nas Universidades têm-se destacado a avaliação do desempenho

docente, pois, conforme Grisllo (1992), apesar de reconhecer que diversos fatores

influem na qualidade de ensino, com freqüência, a maior responsabilidade recai

sobre o professor.

Moreira (1981, p.100) afirma que a avaliação do professor pelo aluno é a mais

usada, porém dois outros podem ser mencionados: a auto-avaliação e a avaliação

pelo colega. O próprio professor é, obviamente, o fator mais crítico na eficácia de

qualquer programa objetivando a melhoria do ensino; somente se o professor julgar

seu desempenho como inadequado ou abaixo de seus próprios padrões é que

haverá condições para mudança e melhoria (Bergquist & Phillips, 1975). A auto-

avaliação pode ser feita através de retroalimentação via áudio ou vídeo-tape. Pode

também o professor prever como os alunos o avaliarão (respondendo ao mesmo

instrumento), e, posteriormente, comparar sua previsão com o resultado do

instrumento utilizado pelos alunos.

A avaliação diversa, em que o professor conhece o aluno e vice-versa, cria

uma forma de reciprocidade que, se colocada como informação para ambas as

partes, acaba se tornando um instrumento de melhoria da qualidade de ensino.

Ainda de acordo com Moreira a avaliação pelo colega, usada em pequena

escala talvez por questão de escrúpulo, é, geralmente, feita de duas maneiras.

a) Avaliação dos materiais instrucionais utilizados pelo colega, incluindo

objetivos, provas, métodos, textos, sistema de avaliação, plano de ensino;

Page 36: Jos. Ricardo dos Santos

35

b) Observação em classe no que se refere a domínio do conteúdo, técnicas de

ensino, relacionamento com o aluno, comportamentos do professor.

Quando feito por imposição, esse tipo de avaliação é problemático tanto para

quem avalia como para quem é avaliado, porém, quando usado de comum acordo

entre os professores, pode certamente contribuir para a melhoria do ensino.

De um modo geral, a avaliação do desempenho do professor, como tal, é feita

com um ou mais dos seguintes objetivos:

a) Melhorar o ensino;

b) Decidir sobre promoção, efetivação, contratação ou recontratação;

c) Prover informações a futuros alunos.

Quanto ao primeiro objetivo, é importante frisar, desde já, que a simples

constatação de eventuais deficiências do professor pouco contribuirá para a

melhoria do ensino se não houver um mecanismo de apoio que lhe ajude a sanar

essas deficiências.

Em relação ao segundo objetivo, a atividade de pesquisa era praticamente o

único critério usado, até bem pouco tempo; porém, face ao crescente número de

candidatos para um número talvez menor de vagas para professores nas

universidades, a avaliação do desempenho didático está sendo cada vez mais

levada em consideração.

Finalmente, argumenta-se que esse tipo de avaliação (no caso a feita pelos

alunos) ajuda os estudantes a selecionarem seus cursos e professores a cada

semestre.

2.8.1 Avaliação de desempenho do professor de ensino superior

Para Lorenzoni e Kertész (1991, p. 81), em qualquer sistema de avaliação de

professores, o objetivo maior deve ser o aperfeiçoamento do processo ensino-

aprendizagem. É preciso, pois, haver uma definição clara de aspectos significativos

que o professor deve atender nesse processo, sem limitar os instrumentos de

avaliação a um modelo teórico de professor e de aula, isto é, à diversidade de

atuação deve corresponder à flexibilidade da avaliação, em termos dos aspectos

específicos inerentes a cada caso.

Page 37: Jos. Ricardo dos Santos

36

O acompanhamento da sistemática de avaliação é importante para indicar a

necessidade de modificações ou ajustamentos nos critérios, nas políticas, nas

rotinas, nos formulários adotados e no treinamento dos avaliadores. Uso, segundo

Chiavenato (apud LORENZONI E KERTÉSZ, 1991) envolve os seguintes aspectos:

•verificar se os métodos de avaliação escolhidos estão dando bons

resultados;

•verificar se os formulários estão adequados aos propósitos da avaliação;

•verificar se os períodos de preenchimento dos formulários (época de

formalização dos resultados da avaliação) estão razoáveis;

•verificar se o preenchimento dos formulários está correto;

•analisar os resultados das avaliações em si e os avaliadores;

•acompanhar as providências e os procedimentos resultantes das

avaliações;

•verificar os critérios de avaliação de desempenho;

•verificar os relatórios efetuados à direção da empresa a respeito das

avaliações de desempenho.

2.8.2 A observação do desempenho

Ainda segundo Lorenzoni e Kertész a administração de uma unidade

universitária exige de quem a administra uma visão globalizadora que perceba a

organização em sua totalidade. Esta atitude, favorecendo melhor compreensão da

organização, também permite que o desempenho de seus recursos humanos seja

melhor identificado. Tal situação auxilia a compreender as necessidades, motivações

e limitações dos recursos humanos e, ao mesmo tempo, acompanhando este

desempenho, pode informá-los, através de uma avaliação continuada, dos aspectos

que necessitam adequação e ajustamento. Do mesmo modo, é possível esperar

que, “pari passu”, eles se voltem a sua auto-avaliação e, por conseqüência, ao seu

autodesenvolvimento.

Além disso, é preciso ter presente à necessidade de haver uma certa

periodicidade na avaliação de desempenho. Isto requer uma observação continuada

Page 38: Jos. Ricardo dos Santos

37

e permanente que favoreça a coleta de dados e informações que se registram em

formulários próprios.

Chiavenato (apud LORENZONI E KERTÉSZ, 1991) adverte: “A observação

não é uma questão de épocas ou períodos. Deve ser um estado de espírito que,

constantemente, o chefe deve desenvolver”.

Muitas pesquisas têm sido feitas a propósito deste assunto. As hipóteses

levantadas por Ryan (apud LORENZONI E KERTÉSZ, 1991), por exemplo, indicam:

1) o comportamento de um professor é função de suas características

pessoais;

2) o comportamento do professor é observável e;

3) o comportamento do professor pode ser classificado tanto qualitativa quanto

quantitativamente;

2.8.3 Avaliação da qualidade do ensino-desafio e compromisso

Para Rivera (1992, p. 198), a explicitação das finalidades e princípios

orientadores da ação avaliativa, a opção por uma metodologia participativa, a

definição pela própria comunidade dos parâmetros utilizados para a avaliação, ou

seja, dos indicadores de qualidade do ensino, foram, os pontos fortes do projeto que

viabilizaram o êxito da experiência da avaliação participativa, com caráter de

pesquisa, desenvolvida no ensino de graduação da PUCRS. À medida que a ação

se desenvolvia, de forma coerente com os princípios estabelecidos, as resistências

foram enfraquecendo e os sentimentos de rejeição e desconfiança substituídas pela

adesão e comprometimento, em graus diferenciados, da maioria das universidades

acadêmicas.

A experiência teve relevância e singularidade na medida em que promoveu a

participação de professores e alunos na definição e desenvolvimento das etapas do

projeto, especialmente na construção e validação dos indicadores de qualidade do

ensino.

Para De Souza (1997, p.137) a avaliação educacional tem várias dimensões.

Podemos falar da avaliação de currículo, de programas, institucional e do processo

ensino-aprendizagem. Na Universidade tem-se discutido muito pouco sobre como

Page 39: Jos. Ricardo dos Santos

38

avaliar processos ensino-aprendizagem. Esta ausência de reflexão nesta área no

interior de nossas universidades, é sentida até pela falta de bibliografia na área que

se contrapõe a constância com que esta dimensão da avaliação é discutida no

âmbito da educação básica.

Segundo Dias Sobrinho (2000, p. 47), é indiscutível que a avaliação pode ser

um precioso mecanismo de valorização da graduação, porém, é discutível que as

mesmas formas e somente os instrumentos comumente utilizados para avaliar a

pesquisa e a pós-graduação sejam plenamente satisfatórios e suficientes para a

avaliação do ensino de graduação.

A avaliação institucional tem-se desenvolvido um pouco em toda parte

estreitamente vinculada ao progressivo aviltamento das políticas sociais, públicas, e

particularmente ao processo gradual de deteriorização dos orçamentos das

universidades. A essa crise das instituições públicas e da educação, de modo geral,

gerada na relação delas com o estado, acrescentam-se às dificuldades cada vez

maiores e mais complexas do setor produtivo, em particular, e de toda a nova ordem

econômica em geral.

Ainda segundo o autor a perspectiva de avaliação que se preocupa muito mais

com o produto que com as relações e comportamentos humanos nas dinâmicas

sociais tende a ser positivista e quantitativista. É amplamente divulgado que esse

paradigma de avaliação garante objetividade, fiabilidade nas informações e nos

procedimentos de obtenção de dados, isenção para interpretar, medir, estabelecer

as relações de causa e efeito, elaborar e analisar as estatísticas. Entretanto, esse

modelo não dá conta da multiplicidade de dimensões dos âmbitos educativos, da

complexa dinâmica da realidade social, nem se preocupa em “compreender a

natureza e a fenomenologia dos processos” Casanova (apud DIAS SOBRINHO,

2000, p.65), Entre a mentalidade de controle e a de autonomia deve prevalecer à

segunda. Assim, o que deve ocorrer é uma avaliação que assuma a complexidade,

opere uma razoável e coerente compreensão de conjunto, produza a consciência

das transformações e os efeitos de melhoria qualitativa de todo o âmbito educativo

da instituição. Por conseguinte, que seja uma avaliação que “considere a

complexidade total do fato educativo e, portanto, não apenas dos resultados, não

apenas os explícitos, mas também os implícitos” Rosales (apud DIAS SOBRINHO,

2000).

Page 40: Jos. Ricardo dos Santos

39

Nessa perspectiva, ganharia relevância à meta-avaliação ou a re-avaliação,

dimensão que se soma à avaliação interna e à avaliação externa. É necessário que

os relatórios não sejam um elenco de tecnicismo, mas constituam matéria para

análises e reflexões críticas sobre o desenvolvimento das universidades. As

comissões de avaliação, além de suas funções relativamente aos processos de cada

instituição, assumiriam, portanto, esse papel de articulação e coerência, catalisação

de resultados e aglutinação de competências inercialmente isoladas, de estímulo e

provocação aos estudos e às discussões, encaminhamentos e sistematização de

resultados, com vistas à consolidação de cada uma das universidades e de

conjuntos intencionalmente organizados.

Dias Sobrinho ainda adverte que o cuidado primeiro é o de assegurar às

instituições educativas a titularidade dos processos de avaliação. A titularidade da

avaliação deve procurar garantir que os processos internos e externos não se

percam, vindo a servir a objetivos, propósitos e grupos diferentes daqueles

estabelecidos pela comunidade acadêmica. Entretanto, também não se perca pela

identificação restrita a eventuais interesses de grupos internos. É fundamental que o

exercício da titularidade deva ser também um compromisso com a missão

institucional em sua face social e pública.

O processo de avaliação, a metodologia da avaliação tem que seguir alguns

passos. Em primeiro lugar, Avaliação Interna ou Auto-Avaliação e, em segundo

lugar, Avaliação Externa. Portanto, o Comitê desaprovaria que em seu projeto de

avaliação não contemplar estes dois passos. Para o Comitê a Avaliação Interna

deve ser feita pelas próprias pessoas, pelos próprios atores da Universidade; feita

pelos professores, alunos, funcionários, administradores. Já há questionários hoje,

bastante específicos para Avaliação de Administradores.

No período de dois meses Machado esteve nos Estados Unidos, no Centro

Nacional de Avaliação da Universidade de Michigan, que é um Centro Nacional de

Avaliação, ele verificou o cuidado que os americanos estão tendo com a Avaliação

de Administradores, que é uma coisa que a Universidade Brasileira não está muito

preocupada. A preocupação no Brasil restringe-se a avaliação dos docentes. É

necessário conscientizar-se que a avaliação dos administradores é de suma

importância. Não se pode deixar os administradores de fora e ficar culpando baixa

ou alta qualidade da Universidade só pelos professores.

Page 41: Jos. Ricardo dos Santos

40

Portanto, os questionários devem avaliar tanto professores quanto

administradores. Os alunos avaliam os professores, avaliam os administradores, se

for o caso. No entanto, a avaliação do administrador por parte dos alunos torna-se

complicada e talvez até insuficiente. O aluno só tem condições visíveis de avaliar um

administrador técnico, por exemplo, quando este o atende ao efetuar sua matrícula,

ou então quando o aluno necessita pedir informações. Somente neste atendimento

breve é que o aluno poderá ter contato direto com um administrador técnico.

Portanto é importante que a Universidade colete não somente as informações dos

alunos quanto à atuação do administrador técnico, mas também dos próprios

administradores técnicos em forma de auto-avaliação em relatório. Esse relatório é

que vai subsidiar a Avaliação Externa e inclusive, é preciso que se diga que se pode

avaliar cursos, programas e isto é uma decisão da Universidade (Machado, 2001, p.

21).

Para Dias Sobrinho(1996, p.8) ainda de acordo com a autora as universidades

deveriam fazer as avaliações dos seus cursos para depois projetar quais os cursos

ideais que elas gostariam de ter. Desta forma iriam descobrir problemas e

discutiriam, entre a equipe administrativa e pedagógica, propostas de melhorias na

qualidade do ensino. O objetivo seria, então, desencadear ações para melhorar a

qualidade do ensino. A autora ainda afirma que uma avaliação que é livre de

ameaças, só pode trazer resultados positivos. Dos cursos que foram avaliados desta

forma, não houve nenhuma reação negativa.

A finalidade da avaliação é à busca do aperfeiçoamento, portanto ela não visa

punição e nem premiação, situação típica da avaliação de aprendizagem. Ao

contrário, porque busca aperfeiçoamento, sua ação central é a de reconstrução.

Eventual premiação, como estímulo ao mérito, não é desaconselhável, pois não

causa dano. Punição, em especial no âmbito das instituições públicas em um País

com escassez de vagas como é o nosso caso, deve ser considerada após a clara

oportunidade para recuperação ou revigoramento ter sido efetivada.

Auto conhecimento significa identificar os acertos e as ineficiências, as

vantagens/potencialidades e as dificuldades; envolve um processo de reflexão sobre

as razões, as causas das situações positivas e das insuficiências; implica em

assumir a responsabilidade efetiva da gestão política e acadêmico-científica da

instituição e do sistema como um todo.

Page 42: Jos. Ricardo dos Santos

41

Ainda segundo o autor a avaliação é global, porque envolve todas as atividades

e instâncias da instituição ou do conjunto das instituições do sistema, seus sujeitos e

seus “produtos”, isto é, o conhecimento, a interpretação de mundo, as tecnologias

que produz e dissemina, diretamente através da qualificação profissional e da

divulgação científica e, indiretamente, através da extensão.

A avaliação é, assim, uma atividade processual, isto é, contínua e sistemática,

que envolve dois tipos de sujeitos:

i) sujeitos internos (alunos, professores e outros servidores técnico-

administrativos) abertos ao exame de si próprios enquanto formuladores/executores

de ações (conhecimento, qualificação, etc.);

ii) sujeitos externos (acadêmicos/pesquisadores, profissionais, empregadores,

trabalhadores, entidades sociais, etc.) sujeitos “patrocinadores” ou “usuários”

daquelas ações.

A Avaliação Institucional é aquela voltada para a instituição de educação

superior e é por ela conduzida. Envolve parceiros internos e externos. Tem como

objeto a instituição em sua individualidade, isto é, está centrada nos processos e

resultados das ações da instituição, tomando em consideração o contexto sócio-

histórico e as políticas públicas, em especial a política educacional, nos quais está

inserida. Esta modalidade de avaliação leva a decisões precípuamente interna à

instituição, seus agentes, seus processos, sua estrutura.

De acordo com Trindade(1996, p.10) não podemos enfrentar as discussões

sobre avaliações em termos estritamente técnicos. No Brasil, a avaliação

ultrapassou os limites de uma discussão entre modelos americano, francês, inglês

ou holandês ou entre as experiências chilena, mexicana ou Argentina. A avaliação,

como já mencionamos anteriormente, tornou-se um problema eminentemente

político, tanto do ponto de vista de sua concepção e das suas conseqüências para a

universidade quanto pelas dificuldades de sua assimilação pela comunidade

acadêmica. Um dos maiores estudiosos da avaliação no Chile, José Joaquim

Brunner, dizia que a relação Estado-Universidade é muito mais uma relação

administrativa e, em conseqüência, um problema de ordem política, o que mostra

que essa problemática não é apenas brasileira, latino-americana, mas constata-se

sua presença também no debate europeu. A pergunta que cabe é: por que a

avaliação tem ocorrido dessa forma nos últimos tempos?

Page 43: Jos. Ricardo dos Santos

42

Segundo Dias Sobrinho (1996, p.17) o modelo de avaliação na ótica

eficientista, instrumentalista e classificatória é predominantemente quantitativo. Para

que se tenha um balanço das dimensões mais visíveis e facilmente descritíveis,

indicadores quantitativos devem ser utilizados. Tais indicadores podem ser utilizados

para delimitar medidas físicas, como área construída, titulação dos professores,

descrição dos corpos docentes, discentes e de servidores, dos produtos, das

formaturas, volumes de insumos, expressões numéricas supostamente

representando qualidades, como no caso de número de citações, muitas vezes

permitindo o estabelecimento de “ranking” de instituições, como sérios efeitos nas

políticas de alocação (ou “deslocamento”?) de financiamento e como organizador

social de estudantes e de profissionais.

Para Pereira(1997, p.29) ao nível de ensino de graduação, por exemplo, uma

Universidade pode preferir ensinar a muitos alunos, ao invés de selecionar e ensinar

apenas alunos brilhantes.

Os critérios de avaliação, portanto, têm que ser definidos de forma

diferenciada. Outro aspecto importante é que os critérios diferem (ou podem diferir)

de acordo com os objetivos específicos de cada parte envolvida. Por exemplo, na

graduação, para o Governo ou para a própria Instituição, o critério pode ser que o

aluno deve ser organizado, de tal forma que conclua dentro do prazo previsto, ou,

que a taxa de evasão não pode ser superior a uma taxa definida como máximo

aceitável. Para os alunos, por outro lado, o critério pode ser que o curso/Instituição

deve oferecer opções diferenciadas e tempo suficiente para o desenvolvimento

pessoal.

A avaliação institucional para atender ao credenciamento induz a um

procedimento de avaliação leve. As exigências ou padrões mínimos são formulados

fora da instituição, podendo-se considerar apenas o desempenho passado. É,

entretanto, tendência predominante analisar se existem condições para que a

instituição venha a se transformar em verdadeira universidade. É importante a

avaliação da qualidade e, nesta situação, utiliza-se à auto-avaliação e avaliação

pelos pares. A diferença, como mencionada, é que os critérios e padrões são

propostos por organismos externos (governo, órgão de representação de classe,

etc.).

Para Coelho (1997, p.44) as avaliações institucionais, cuja metodologia e

processo devem ser rigorosos e consistentes do ponto de vista teórico e técnico,

Page 44: Jos. Ricardo dos Santos

43

além de legítimos do ponto de vista político, não se volta para as pessoas, sua

produção e a qualidade do trabalho que desenvolvem, mas para a existência mesma

da instituição, seus fins e meios, funcionamento, limites e possibilidades, atividades,

relações, projetos, processos e produtos, para os padrões de qualidade com que

desenvolve tudo isso. Pressupõe, pois, que se avaliem o ensino, a pesquisa, a

assistência, a prestação dos segmentos universitários e extra-universitários

envolvidos nos processos e na vida da instituição, as relações desta com o Estado e

a sociedade civil, bem como seu efetivo compromisso com a verdade, as ciências, a

tecnologia, as letras, as artes, a filosofia, a liberdade, a igualdade, a democracia, a

justiça, a superação de toda e qualquer forma de domínio existente nas relações

entre os indivíduos, os grupos, as instituições, os povos, as nações.

Segundo o autor assumir a avaliação da universidade pública como utopia não

significa negar a legitimidade e a necessidade de se realizar a avaliação possível no

momento, enquanto se continua perseguindo a desejável, a que verdadeiramente se

impõe como exigência da lucidez, da ética, do compromisso com o presente e o

futuro da universidade pública. A dimensão da utopia, inerente à natureza mesma da

existência humana, da história e da universidade, não nos lança, pois, no desânimo

e na acomodação. Justamente porque não perdemos de vista o sonho, o imaginário

a utopia e sobretudo porque os assumimos como idéias reguladoras de nosso

pensar e de nosso fazer, é que não podemos deixar de construir a avaliação da

universidade pública. A fidelidade à utopia da avaliação institucional,

verdadeiramente acadêmica e comprometida com a criação da universidade pública,

implica a avaliação permanente desta, da forma mais lúcida, isenta, ética e

responsável, nos limites do que nos é factível cada momento, o que nos levará a

alargar e redefinir os horizontes do próprio possível. E então, o que hoje não é

possível, poderá vir a sê-lo amanhã.

A avaliação da instituição universitária é um processo complexo, perpassado

pelos conflitos e contradições que constituem a sociedade e a própria academia.

Processo no qual perguntamos pela política, projetos, anseios utopias da instituição,

pela contribuição que efetivamente oferece à criação de uma sociedade fundada na

liberdade, igualdade, no respeito ou outro, na cidadania, na justiça. Processo que

deve abranger ainda, conforme Coelho (1997) as áreas e atividades da instituição e

supõe o debate e o enfrentamento dos conflitos e contradições. O questionamento e

a crítica de nossas idéias e práticas e das motivações que nos levam a avaliar.

Page 45: Jos. Ricardo dos Santos

44

De acordo com Caumo (1997, p.98), tradicionalmente, as teorias fundamentam

as ciências. Estas são movidas por pesquisas que, por sua vez, produzem

conhecimentos válidos em determinadas realidades temporais, sociais e culturais.

As pesquisas têm ainda a função inovadora e propulsora de saberes enquanto

habilitam profissionais.

A universidade, na modernidade, transcende a função da transmissão e da

produção do conhecimento para atuar sobre a competência da preparação

profissional especializada. Precisa preparar o professor-pesquisador que exerça com

êxito tanto o magistério quanto a pesquisa, juntamente com os seus alunos e ao

mesmo tempo. Há nisto um triplo desafio: preparar o bom professor, o bom

pesquisador, e proporcionar condições estruturais para o exercício profissional de

ensino e pesquisa.

O professor-pesquisador universitário deixa de ser um funcionário burocrático

para assumir a competência pedagógica enquanto científica. Não mais vai deter-se

na função escolar de repassar saberes quase sempre descontextualizados, sem vida

própria. Passa a contar, também, com o aluno pesquisador nas atividades

pedagógicas. Juntos, praticam pesquisa educativa crítica enquanto reconstroem,

renovam e produzem conhecimentos. Ação e reflexão, teoria e prática mesclam-se:

são questões que comandam o fenômeno da aprendizagem.

De acordo com Pasquali (1984, p.71), a efetividade do ensino tem sido um

tema de constante preocupação nos meios educacionais. Avaliar a qualidade do

ensino é tarefa de grande complexidade e requer cuidadosa atenção. Muitos

esforços têm sido dedicados à área, não só com o objetivo de avaliar os sistemas

instrucionais existentes como também o de fornecer subsídios para auxiliar nas

tomadas de decisões de pessoal das instituições educacionais.

2.9 Avaliação Institucional Em Outros Países

Para Leite, Tutukian, Holz (2000, p. 25), a relação triangular entre qualidade,

pertinência e avaliação supõe que a instituição não deve restringir-se aos limites de

uma organização burocrática moderna, calcada no modelo de outras organizações

vinculadas ao Estado e ao mercado, sob o risco de que, na busca por

Page 46: Jos. Ricardo dos Santos

45

modernização, tal instituição acabe por afastar-se de suas raízes seculares de

instituição social. A idéia de instituição social resgata a combinação entre suas

atividades - fim permanentes nos campos do ensino, da pesquisa e da extensão

universitária e sua característica de universidade aberta em suas dimensões

regionais, nacional e internacional. Em outros termos, não se quer nem a

universidade cativando a sociedade – assim perdendo a sua autonomia institucional

– nem se transformando em uma torre de marfim, isolada dos problemas concretos

de sua sociedade. Deseja-se, isto sim, uma instituição capaz de manter um equilíbrio

dinâmico entre os elementos constitutivos da universidade contemporânea:

qualidade, pertinência e eqüidade.

Quando o Estado decide conduzir a avaliação da universidade, opta em geral,

pela lógica reguladora que tem na avaliação de resultados ou de produto, na

combinação quantitativo/qualitativo, e na comparatividade sua via própria de sentido

e desenvolvimento de critérios. Esta é a lógica preferencialmente adotada pelos

Estados modernos mais desenvolvidos nos quais o mercado, com suas metáforas

economicistas e empresariais preside as relações entre as partes. Leite e Bordas

(apud LEITE, TUTUKIAN, HOLZ, 2000, p. 30).

Para o sistema de ensino superior brasileiro, a convivência com procedimentos

avaliativos não é nova. Desde 1977, o sistema de pós-graduação vem sendo

avaliado pelas Capes (Coordenação de Aperfeiçoamento do Pessoal de Nível

Superior) através de relatórios anuais, credenciamento de cursos, recredenciamento

a cada três anos com visitas aos locais e avaliação por pares. Os critérios e

indicadores usados ao longo do tempo têm-se refinado, constituindo hoje um

sistema exemplar, inclusive para outros países. Os resultados da avaliação,

expressos em notas, são divulgados pela imprensa e servem para a alocação de

recursos e concessão de bolsas.

2.9.1 Histórico da avaliação institucional no Brasil e em outros países

Leite, Tutukian, Holz (2000) traça um histórico quanto à avaliação institucional

no Brasil e em outros países. Assim, neste tópico será utilizada a visão destes

Page 47: Jos. Ricardo dos Santos

46

autores quanto à evolução da avaliação institucional em nível nacional bem como no

continente americano, europeu e asiático.

Ainda que o trinômio avaliação, qualidade e pertinência desafiem as

universidades no início do século XXI, tal questão não ocorre de forma isolada. Para

melhor entendê-la, convém examinar os caminhos históricos e os contextos da

avaliação institucional, especialmente no âmbito das sempre “delicadas” relações

Estado, universidade e sociedade.

Estado e universidade contemporânea, via de regra, mantém entre si relações

de tensão constante. Em verdade, o Estado benevolente e a Universidade auto

justificada por formar as suas elites, constituem um domínio do passado. Por isso, a

análise do hoje não pode ser levada a efeito sem a compreensão de como essas

relações foram se constituindo num determinado contexto histórico, como, por

exemplo, no que diz respeito às universidades latino-americanas, instituições

historicamente datadas, que sofreram intervenções, frutos de regimes ditatoriais

recentes (Argentina 1976-1983; Brasil 1964-1985; Chile 1973-1990), modificadoras

de seu perfil na sociedade.

Salienta-se a descontinuidade política dos governos, que ora realizam

aproximações com as universidades, via promoção de políticas de ciência e

tecnologia, ora, ao inverso, delas buscam distanciamento, via desregulação e

privatização. Brunner (apud LEITE, TUTUKIAN, HOLZ, 2000, p. 29).

2.9.1.1 Avaliação institucional no Brasil

Com ações isoladas, a idéia de avaliação vai-se consolidando. Em 1990, o

Ministério da Educação toma a iniciativa de estudar o uso de indicadores de

qualidade. Constitui uma comissão (comissão coordenadora das atividades de

fomento à melhoria do processo de gerenciamento das IFES), que propõe um

conjunto básico de indicadores a serem utilizados pelas universidades. Promove, em

1992, a vinda da British Council Mission/ufc (University Funding Council), realizando,

em Brasília, um seminário de avaliação institucional, para o qual convida os mais

importantes dirigentes das universidades brasileiras. Entre os presentes, como

membro da BC Mission, encontra-se o professor Gremae Davies, chefe executivo da

Page 48: Jos. Ricardo dos Santos

47

UFC. São realizados encontros com o professor Davies em outras capitais do país,

reunindo altos dirigentes universitários. O sistema de avaliação britânico, já

conhecido pelo seminário de 1989 e agora explicitado em Davies (1992), parece ser

o modelo do Ministério para avaliação institucional, especialmente se considerados

forem os objetivos do anterior projeto GERES(Grupo Executivo para a Reformulação

do Ensino Superior) e o trabalho com os indicadores de qualidade. Aparentemente,

a expectativa do governo seria a de vincular avaliação e financiamento público,

disciplinando o diversificado sistema de aportes financeiros ao ensino superior do

país.

2.9.2 Avaliação institucional na Argentina

O processo de avaliação institucional na Argentina foi motivo de aguda

discussão e tensionamento das relações entre Estado e universidades. Um

antecedente histórico relevante para esse acirramento é o fato de que, desde 1918,

foi assegurado constitucionalmente às instituições de ensino superior ampla

autonomia universitária. Tal autonomia, entretanto, nem sempre pôde ser

plenamente exercida, pois houve períodos na história argentina em que o país

esteve sob o jugo de regimes de exceção. Aliando esses dois fatores, será mais

compreensível a reação do meio acadêmico argentino de resistir, no entender de

Marquis (1994b), a qualquer proposição – por parte do Estado – de controle do que

é feito no contexto universitário, em defesa de uma autonomia historicamente

construída.

2.9.3 Avaliação institucional no Canadá

O ensino superior do Canadá tem seu funcionamento caracterizado pela

descentralização. A planificação e o controle do ensino superior são uma questão

antes improvidencial que realmente nacional.

Apesar de o governo central possuir algumas iniciativas no sentido de realizar

estudos para coordenar e planificar a educação no país, diferenças demográficas,

Page 49: Jos. Ricardo dos Santos

48

idiomáticas, culturais, econômicas e biofísicas fazem com que esses esforços se

revelem pouco eficazes, e em verdade não se tem, por parte do Estado, uma real

intenção de formular uma centralização de poder decisório no tocante à questão

pós-secundária (institutos técnicos e universidades).

2.9.4 Avaliação institucional no Chile

No Chile, a avaliação é vista como um dos primeiros eixos em torno dos quais

se devem estruturar as relações Estado, universidade e sociedade. Brunner (apud

LEITE, TUTUKIAN, HOLZ, 2000, p. 47).

No país, destacam-se procedimentos de reconhecimento de cursos

(acreditação) e de avaliação no contexto de melhoria da qualidade da educação. A

questão da avaliação do sistema de educação se insere, pois, no marco do

Programa de Melhoria da Qualidade da Educação (Mece), que perpassa todo o

sistema desde a pré-escola e que inclui a realização de exames padronizados

anuais para o ensino médio. Zurita (apud LEITE, TUTUKIAN, HOLZ, 2000, p.47).

Há, pelo que se pode ver, a preocupação com a avaliação ao longo de toda a

vida escolar do aluno. Neste caso, quando chega ao curso universitário, nada terá a

opor contra este processo que se encontra incorporado no sistema educacional.

2.9.5 Avaliação institucional na Colômbia

Pode-se dividir a experiência em avaliação institucional colombiana em três

etapas distintas:

a) estatal de avaliação externa (1950-1980) – embasada essencialmente em

documentação, visava especificamente a verificar a viabilidade administrativa e

financeira de acreditação, quando de instituições novas ou de novos cursos nas

instituições já existentes.

b) avaliação institucional através de enfoques sistêmicos (1980-1984) – esforço

que objetiva orientar a coerência entre a missão, propósitos e objetivos de cada

Page 50: Jos. Ricardo dos Santos

49

universidade frente às necessidades de desenvolvimento socioeconômico da

respectiva região e do país em seu conjunto.

c) auto-avaliação, a partir de 1984 – as próprias instituições desenvolvem seus

processos de auto-avaliações, que, em um segundo momento, seriam avaliados por

comissões externas. Essa experiência, teve resultados desiguais quanto ao

cumprimento dos objetivos desejados. Sanclemente (apud LEITE, TUTUKIAN,

HOLZ, 2000, p. 49).

2.9.6 Avaliação institucional na França

A educação superior foi centralizada, havendo uma grande dependência do

Ministério da Educação. Porém, as leis aprovadas entre os anos de 1984 e 1989

permitiram às universidades uma crescente autonomia. Essas leis fizeram parte de

um programa que se propôs a aumentar o número de estudantes no ensino superior

e alterou a política de financiamento. Segundo Cusin (apud LEITE, TUTUKIAN,

HOLZ, 2000), a liberação de recursos para as universidades atende a dois critérios:

parte do orçamento (80%) é liberado conforme o número de alunos e de

laboratórios, e outra parte é outorgada conforme quadrienal firmado entre os

presidentes das universidades e o Ministério da Educação, no qual se mencionam os

objetivos da avaliação a ser realizada.

2.9.7 Avaliação institucional na Holanda – Países Baixos

A Holanda, assim como vários países da Europa, têm passado por um

problema comum: o aumento do número de estudantes universitários e a redução

nos recursos governamentais para a educação superior.

Nos últimos dez anos, o custo unitário por estudante elevou-se ao redor de

40%, o que levou o governo a tomar medidas tais como a redução do número de

professores com horário integral, a redução do nível salarial e a estipulação de

quatro anos como prazo máximo de conclusão do curso pelos estudantes.

Page 51: Jos. Ricardo dos Santos

50

Essa situação gerou um clima de preocupação com a qualidade do ensino

superior. Para assegurar a qualidade, em 1986, as universidades instalaram um

sistema de controle de qualidade com critérios específicos. Assim, entre os anos de

1987 e 1988, quatro disciplinas do Ensino Superior foram avaliadas e, em setembro

de 1988, os resultados foram publicados. Durante o ano acadêmico de 1988/1989,

as disciplinas de Matemática, Informática, Geografia e idiomas não-ocidentais foram

avaliadas.

O modelo holandês de avaliação tem como filosofia a menor interferência do

governo nas instituições, garantindo maior autonomia e liberdade para sua

programação. Trabalha com a idéia de garantia da qualidade de antecipação. O

sistema universitário holandês é homogêneo, todas as universidades são públicas e

recebem 90% de seus recursos do governo.

A avaliação tem sido coordenada pela Associação Cooperativa das

Universidades dos Países Baixos (VSNU), que considera ser seu papel promover a

valorização e a supervisão da qualidade das universidades holandesas. Para isso,

ao analisar diferentes sistemas de avaliação, decidiu-se por uma estratégia

institucional e não-governamental, pela avaliação de pares (Peer Review) e não pela

classificação de instituições (Ranking). Segundo Acherman (apud LEITE,

TUTUKIAN, HOLZ, 2000), a principal razão de optar por uma avaliação de pares é a

dificuldade em classificar as universidades, uma vez que, supostamente, a qualidade

das universidades está em nível similar.

Dessa forma, as universidades se auto-avaliam, os grupos de pares conduzem

a avaliação externa e o governo supervisiona o processo global. Assim, cada

unidade decide sua forma de auto-avaliar-se, o que se dá meio ano antes da visita

dos avaliadores externos, que podem ser selecionados por indicação dos dirigentes

acadêmicos: professores, representantes de organizações profissionais e da

indústria, para carreiras a ela relacionadas. Participam, também, acadêmicos de

outros países e pedagogos. Em suas visitas, o Comitê de Pares interage com o

pessoal da universidade. O comitê analisa alguns aspectos, como a política

educacional, as inovações realizadas nos últimos anos, adequação do currículo

conforme as necessidades do mercado de trabalho, e realiza o controle interno de

qualidade.

Após, a visita, o comitê realiza um informe oral sobre suas observações,

dialogando com os participantes e interessados sobre os pontos fortes e fracos da

Page 52: Jos. Ricardo dos Santos

51

instituição. Realiza, também, um relatório escrito em que constam recomendações

sobre as ações a serem desenvolvidas pela universidade. Em geral, o reitor

pergunta à coordenação das unidades o que esta pretende fazer em face da

avaliação. Isto torna a avaliação um “detonador de mudança”. As visitas dos

avaliadores externos repetem-se a cada cinco anos. Essa forma de avaliação está

centrada no ensino. Permite responder perguntas sobre a formação profissional

realizada hoje e suas perspectivas para os próximos anos, bem como analisar se os

programas de estudos e o processo educativo em geral estão adequadamente

organizados e se a instituição tem capacidade para induzir a qualidade.

2.9.8 Avaliação institucional na Inglaterra

O sistema de avaliação inglês é um dos mais conhecidos e discutidos no meio

acadêmico.

Até os anos 70, as universidades atuavam com autonomia. A avaliação era

realizada através de grupos de pares. Os exames eram internos com assessoria

externa. No setor público, os títulos eram revalidados por um organismo central

(Council for National Academin Awards). Os cursos passavam por uma revisão anual

e qüinqüenal. Ao final dos anos 70, mais precisamente com a chegada da primeira-

ministra Margaret Thatcher ao governo, os recursos das universidades foram

reduzidos.

2.9.9 Avaliação institucional no Japão

Segundo BABA (apud LEITE, TUTUKIAN, HOLZ (2000), desde 1960 houve

uma expansão quantitativa da demanda do ensino superior. Em três décadas e meia

duplicou-se o número de instituições e quadruplicou-se o de alunos, o que acarretou

um incremento de recursos disponíveis para resolver tal demanda. O setor privado

foi o responsável por essa explosão, hoje formando três quartos da população

estudantil. O governo japonês vem, atualmente, investindo em alguns campos de

desenvolvimento e engenharia que atendam as suas necessidades.

Page 53: Jos. Ricardo dos Santos

52

2.9.10 Avaliação institucional do México

A avaliação da educação superior no México é um processo que surge, no final

dos anos 80, juntamente com as ações planificadoras no sistema nacional de

planejamento da educação superior. Os processos de avaliação são entendidos

como complemento necessário às ações de planejamento (Arredondo, apud LEITE,

TUTUKIAN, HOLZ,2000).

2.9.11 Avaliação institucional do Uruguai

Conquanto neste país a avaliação institucional esteja iniciando caberia registrar

que a discussão sobre a função pública da universidade uruguaia sempre incluiu a

discussão sobre a avaliação.

A avaliação pode constituir um insumo significativo no complexo processo de

revalidar na Universidade, a provada compatibilidade entre os princípios da

autonomia e os da responsabilidade pública, em um momento no qual a sociedade

se pergunta sobre o destino dos caudais que inverte na educação e sobre sua

correta aplicação Landinelli (apud LEITE, TUTUKIAN, HOLZ 2000).

Na Universidade de la Republica, a avaliação interna se desenvolveu de forma

autônoma nas unidades, como a Faculdade de Ciências Sociais e nas Engenharias.

No ano de 1998, a área tecnológica, da qual fazem parte as Engenharias, realizou

sua avaliação externa, valendo-se de avaliadores internacionais. Em 1998

(11/8/1998), o CDC – Consejo Directivo Central – aprecia o programa “Sinamientos

para un Programa de Evaluasión Institucional da la UDELAR” que começou a vigorar

em 1999 (aprovado em 14/9/1999). Seminários, encontros, coleta, análise e

discussão de dados, com publicações dirigidas ao corpo docente e discente,

constituem parte da etapa atual, que será seguida por uma avaliação externa a

cargo de experts nacionais e internacionais.

Page 54: Jos. Ricardo dos Santos

53

2.9.12 Avaliação institucional nos Estados Unidos

Historicamente, as universidades americanas são, quase na sua totalidade,

instituições autônomas. São instituições livres para determinar suas metas,

objetivos, padrões de referências. Inicialmente, seguiam o modelo escocês e inglês.

A partir da metade do século XIX, surgiram universidades públicas baseadas nos

princípios da Revolução Francesa. Assim, o sistema de ensino norte-americano

desenvolveu-se em um clima de autonomia e liberdade, inserido num contexto sócio-

econômico peculiar.

A avaliação de cursos, de instituições, dos corpos docente, discente e técnico-

administrativo é realizada independente de qualquer tipo de interferência do poder

público. A liberdade e a responsabilidade se somam em busca da melhor condição

de aproveitamento do potencial do ser humano que é transformado em cidadão.

Page 55: Jos. Ricardo dos Santos

54

3 ESTUDO DE CASO

3.1 FECEA – Histórico e Descrição da Instituição.

A Faculdade Estadual de Ciências Econômicas de Apucarana foi criada pelo

decreto nº. 26.298, publicado no Diário Oficial de 18/11/1959, e autorizada a

funcionar em 27 de julho de 1960, pelo Decreto Presidencial nº. 48376, de

22.06.1960, publicado pelo Diário Oficial da União, em 05.07 e está situada no Norte

do Paraná.

De acordo com o seu projeto pedagógico de 2001 a Fecea tem como missão

“Ser referência na formação integral do cidadão, capacitando-o para atuar como

agente de transformação sócio-econômica e cultural da comunidade, com

competência, ética e técnica. " O perfil do aluno que a Fecea deseja colocar no

mercado com fidelidade à sua missão é :

Visão holística do mercado e da organização, com capacidade de

leitura de cenários;

Visão das pessoas numa perspectiva de cooperação e com habilidade

interpessoal;

Habilidades individuais, sociais, interculturais e de conhecimento;

Conhecimento das áreas propedêuticas à área de sua formação;

Conhecimento técnico das áreas - fim da sua formação;

Competência para propiciar condições de autodesenvolvimento para si

e para seus futuros grupos de trabalho;

Habilidades de comunicação para o diálogo e troca de informações e

emoções junto a outras pessoas;

Habilidades relacionadas à liderança - a capacidade de influenciar

pessoas para atingir objetivos comuns;

Habilidades para que possa desenvolver o aprendizado contínuo.

Atualmente a Fecea mantém nove cursos de graduação que são:

1)Curso de Ciências Econômicas reconhecido em 03 de janeiro de 1968 e

está em exercício desde 1961;

Page 56: Jos. Ricardo dos Santos

55

2)Curso de Administração de Empresas reconhecido em 15 de fevereiro

de 1979 e está em exercício desde 1974,

3)Curso de Administração Hospitalar reconhecido em 15 de setembro de

1979 e está em exercício desde 1974;

4)Curso de Administração Pública reconhecido em 15 de fevereiro de

1979 e está em exercício desde 1974;

5)Curso de Ciências Contábeis reconhecido em 15 de fevereiro de 1979 e

está em exercício desde 1974;

6)Curso de Administração em Comércio Exterior reconhecido em 26 de

Julho de 1984 e está em exercício desde 1980;

7)Curso de Secretariado Executivo Trilíngüe com autorização de

funcionamento em 20 de março de 2001;

8)Curso de Serviço Social com autorização de funcionamento em 30 de

abril de 2002;.

9)Curso de Turismo com autorização de funcionamento em 30 de abril de

2002.

Dos nove cursos que a FECEA oferece atualmente, os sete primeiros foram

objetos desta pesquisa.

3.2 Estrutura do Instrumento de Coleta de Dados

A elaboração do instrumento de pesquisa visou satisfazer os objetivos do

trabalho que abrange três principais itens que são: quanto à organização didático-

pedagógico e infra-estrutura do curso, quanto à auto-avaliação do aluno e, quanto

ao desempenho docente. A partir da análise de vários questionários já aplicados em

várias instituições, chegou-se ao instrumento (Apêndice A) utilizado nesta pesquisa.

Cada item tinha as seguintes questões para serem analisadas pelos alunos:

Quanto a Organização Didático-Pedagógica e Infra-Estrutura do Curso:

1. Os recursos e os materiais pedagógicos disponíveis (tela, retroprojetor,

transparências, xerox, vídeo, etc.) são apropriados às atividades desenvolvidas.

Page 57: Jos. Ricardo dos Santos

56

2. Os recursos disponíveis para as atividades práticas e/ou de pesquisa

correspondem às necessidades da sua formação profissional.

3. As disciplinas do currículo correspondem às exigências do perfil profissional do

curso.

4. A organização das disciplinas favorece a integração entre os conteúdos.

5. O Curso oferece atividades acadêmicas (iniciação científica, monitoria, projetos de

extensão) para complementar sua aprendizagem.

6. O Curso oferece atividades em parceria e intercâmbios com a comunidade.

7. O sistema de atendimento e de informações disponíveis no Curso, facilitam as

atividades acadêmicas.

8. O ambiente físico da sala de aula (iluminação, ventilação, espaço, mobiliário)

favorece seu estudo.

9. O acervo da biblioteca atende às necessidades curriculares do Curso.

10. O nível de exigências de aprendizagem do Curso corresponde às necessidades

curriculares do Curso.

Quanto a Auto-Avaliação do Aluno

1.Sou pontual.

2. Permaneço na aula em tempo integral.

3. Realizo atividades acadêmicas (leitura, trabalhos, testes, exercícios, pesquisas)

previstas nas disciplinas.

4. Consulto, regularmente, bibliografias recomendadas e outros meios facilitadores

para a minha aprendizagem.

5. Participo das aulas, com levantamento de questões e sugestões para a ampliação

do meu conhecimento.

6.Estou integrado com o meu grupo, favorecendo também minha aprendizagem.

Quanto ao Desempenho Docente

A. Metodologia e Técnicas de Ensino

1. Informa o Programa da disciplina.

2. Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso.

3. Utiliza linguagem clara e acessível ao ministrar as aulas.

Page 58: Jos. Ricardo dos Santos

57

4. Relaciona teoria e prática na abordagem dos conteúdos.

5. Indica fontes de consulta adequadas à proposta da disciplina.

6. Utiliza procedimentos didáticos adequados à disciplina.

B. Postura Ética e Profissional

7. Demonstra possuir conhecimento atualizado do conteúdo que desenvolve.

8 .Estabelece uma relação de respeito mútuo e atenção com os alunos.

9. Incentiva a participação, discussão e expressão de idéias durante as aulas.

10. Foi pontual.

11. Foi freqüente.

12. Cumpre o horário das aulas.

13. Aproveita o tempo em sala de aula com explanação do conteúdo e atividades da

disciplina.

14. Apresenta-se motivado ao ministrar as aulas.

C. Processo Ensino-Aprendizagem

15. Exigiu nas Avaliações de aprendizagem os conteúdos desenvolvidos.

16. Utiliza instrumentos de Avaliação adequados à “disciplina”.

17. Discute os critérios a serem adotados nos procedimentos de Avaliação (o que e

como serão cobrados os conteúdos).

18. Analisa e comenta os resultados das Avaliações com os alunos.

3.3 Aplicação do Instrumento de Coleta de Dados

O questionário foi aplicado em novembro de 2001 nos sete cursos existentes

na época: Ciências Econômicas, Administração de Empresas, Administração em

Comércio Exterior, Administração Pública, Administração Hospitalar, Ciências

Contábeis e Secretariado Executivo Trilíngüe. Os alunos presentes no dia da

aplicação totalizaram 1142 alunos. A intenção em fazer a aplicação do questionário

antes das provas bimestrais do quarto bimestre foi de forma proposital, para que os

discentes não utilizassem a avaliação como instrumento de vingança com uma

suposta nota baixa que poderia alcançar no final do ano letivo. Em contra partida, os

Page 59: Jos. Ricardo dos Santos

58

resultados para os docentes só sairiam no mês de fevereiro do ano subseqüente.

Desta forma, todos os alunos poderiam responder as questões com a máxima

fidedignidade pois também não seriam alvo de perseguição, caso avaliassem algum

docente com baixo desempenho. Além disso, foi mantido anonimato do aluno para

resguardá-lo de quaisquer inconvenientes. O docente só poderia saber o seu

desempenho no contexto da turma e não de forma individual. Cada item do

instrumento foi avaliado como uma escala de classificação, apresentada em ordem

ascendete, que são:

1.Nunca

2. Raramente

3. Na Média

4. Quase Sempre

5. Sempre

3.4 Análise Multivariada

Segundo Reis (1997), a estatística multivariada trata-se de um conjunto de

métodos estatísticos que permite a análise simultânea de medidas múltiplas para

cada indivíduo ou objeto em análise, ou seja, qualquer método que permita a análise

simultânea de duas ou mais variáveis pode ser considerada como pertencente a

este campo científico. Sem dúvida que são métodos mais complexos que os de

estatística univariada (análise das distribuições de cada variável) ou bivariada

(cruzamento de variáveis, correlações, regressão simples) mas, em muitos casos,

não passam de generalizações dos métodos anteriores a mais de duas variáveis.

De acordo com Camargo (2001), as técnicas de análise multivariada

compreendem um grupo de procedimentos matemáticos e estatísticos que têm por

objetivo estudar as inúmeras variáveis que condicionam os fenômenos ligados ao

comportamento dos indivíduos. Muitas variáveis aparecem ao se estudar a

criatividade, aprendizado, inteligência, desempenho, produtividade em uma

organização, etc. De um modo geral, os métodos multivariados estudam as

influências de diversas variáveis independentes em uma ou mais variáveis

dependentes. As técnicas de análise multivariada são úteis para descobrir

regularidades no comportamento de duas ou mais variáveis e para testar modelos

Page 60: Jos. Ricardo dos Santos

59

pp xaxaxaxay 13132121111 ++++= K

ppppppp xaxaxaxay ++++= K332211

pp xaxaxaxay 23232221212 ++++= K

M M MM

alternativos de associação entre tais variáveis, incluindo a determinação de quando

e como dois ou mais grupos diferem em seu perfil multivariado.

A seguir serão descritos os métodos de análise multivariada utilizados neste

trabalho que são: Análise de Componentes Principais, Análise Discriminante e

Análise de Cluster.

Dois outros métodos de análise que foram utilizados no trabalho foram os de

Análise de Confiabilidade do Questionário e Análise de Correlação.

3.4.1 Análise de componentes principais

Ainda de acordo com Reis(1997), a análise de componentes principais é um

método estatístico multivariado que permite transformar um conjunto de variáveis

iniciais correlacionadas entre si, num outro conjunto de variáveis não

correlacionas(ortogonais), as chamadas componentes principais, que resultam de

combinações lineares do conjunto inicial. As componentes principais são calculadas

por ordem decrescente de importância, isto é, a primeira explica o máximo possível

da variância ainda não explicada, e assim por diante. A última será a que menor

contribuição dá para a explicação da variância total dos dados originais.

O objetivo da análise de componentes principais não é explicar as correlações

entre as variáveis, mas apenas encontrar funções matemáticas entre as variáveis

iniciais que expliquem o máximo possível da variação existente nos dados e os

permitam descrever e reduzir. A representação matemática das combinações

lineares não pressupõe a imposição de qualquer modelo causal mas também não

permite detectar quaisquer relações de causa-efeito entre as variáveis iniciais

mesmo se existirem.

As componentes principais são expressas como combinações lineares das

variáveis originais. Por exemplo, para m componentes e p variáveis ( m ≤ p);

Page 61: Jos. Ricardo dos Santos

60

Segundo Crivisqui (1997), os objetivos da análise de componentes principais

são:

a) Analisar as informações de uma tabela do tipo indivíduos x variável

quantitativa;

b) Avaliar a semelhança entre indivíduos;

c) Avaliar a relação entre as características consideradas.

Seja D = dij (i=1, 2, ..., n ; j = 1, 2, ..., p) a matriz de dados com p variáveis (x1 , x2 , ...

, xp) e cujo posto r é igual ao número de variáveis (r = p); procuraremos então

determinar y1, y2, ... , yp com as seguintes propriedades:

1) que cada variável y seja uma combinação linear das p variáveis xi

y1 = u11x1 + u12x2 + ... + u1pxp

y2 = u21x1 + u22x2 + ... + u1pxp

M M M M

yp = up1x1 + up2x2 + ... + xpu1p

2) que a soma dos quadrados dos coeficientes uij seja igual a 1;

( ) 11

2 =∑=

p

iiju

3) que as combinações lineares das variáveis estejam ordenadas por suas

variâncias;

Var y1 > Var y2 > ... > Var yp

4) que as novas variáveis y sejam não correlacionas entre si.

A idéia principal é que as primeiras k novas variáveis y, os primeiros

componentes principais, dêem conta da maior parte da variabilidade dos dados

originais, permitindo deixar de computar (p-k) componentes de menor importância.

Obtém-se dessa forma uma redução do número de variáveis sem perda

considerável de informação (Verdinelli)

Assim, a análise de Componentes Principais foi utilizada neste estudo de caso

para examinar as relações entre as variáveis e conseqüentemente reconhecer

agrupamentos de associações entre as variáveis por sua proximidade na projeção

plana.

Page 62: Jos. Ricardo dos Santos

61

3.4.2 Análise discriminante

Segundo Reis (1997) a análise discriminante surgiu com o desejo de se

distinguir estatisticamente entre dois ou mais grupos de indivíduos, previamente

definidos a partir de características conhecidas para todos os membros dos grupos.

Para distinguir os vários grupos entre si, o analista seleciona um conjunto de

características para as quais espera que os grupos apresentem diferenças

significativas. Em outras palavras, pretende-se discriminar grupos de indivíduos

definidos a priori com base num critério pré-definido, a partir da informação recolhida

sobre os indivíduos desses grupos.

Esta técnica de análise multivariada emprega-se para descobrir as

características que distinguem os membros de um grupo dos de outro, de modo que,

conhecidas as características de um novo indivíduo, se possa prever a que grupo

pertence. Desta forma, neste estudo de caso a análise multivariada foi empregada

para se explorar a performance conjunta das variáveis de um questionário e se

determinar a influência ou importância de cada uma, estando as restantes presentes.

A análise discriminante foi originalmente desenvolvida na botânica e a sua aplicação

teve como objetivo fazer a distinção de grupos de plantas com base no tamanho e

tipos de folhas, para que, posteriormente, fosse possível classificar as novas

espécies encontradas(Fisher apud REIS, 1997). Mas a aplicação da análise

discriminante cedo se generalizou a outras ciências, sempre que foi possível

encontrar grupos de indivíduos e conhecer quais as características que os

distinguem uns dos outros.

Em geral, o objetivo da análise discriminante é encontrar a separação máxima

entre os grupos através da maximização da diferença entre as médias dos grupos

relativamente aos desvios padrão no interior de cada grupo. O caso mais simples

seria o de dividir os indivíduos pelos diferentes grupos com base nos valores de uma

só variável.

De acordo com Bouroche e Saporta (1980, p. 102), a análise fatorial

discriminante permite descobrir as ligações que existem entre um caráter qualitativo

a ser explicado e um conjunto de caracteres quantitativos explicativos. A análise

fatorial discriminante permite, com a ajuda de uma visualização num plano fatorial

Page 63: Jos. Ricardo dos Santos

62

apropriado, descrever as ligações entre o caráter a ser explicado e os caracteres

explicativos.

3.4.2.1 Função Discriminante

Para Reis (1997), a análise discriminante é levada a cabo através de uma ou

mais combinações lineares das variáveis independentes utilizadas (Xi). Cada

combinação linear (Yj) constitui uma função discriminante

Yj = aiO + aj1 X1 + ai2 X2 + ... + aip Xp

em que os aij são coeficientes de ponderação e os Xj são as variáveis discriminantes

não-normalizadas. A situação ideal seria encontrar, para uma dada função

discriminante, valores idênticos para todos os casos pertencentes a um mesmo

grupo. Simultaneamente, as funções são determinadas de modo a maximizarem a

separação entre diferentes grupos. Uma vez estimadas as funções discriminantes, é

possível concretizar os dois objetivos da análise discriminante: análise e

classificação.

A análise é feita através de vários instrumentos de interpretação dos dados,

incluindo testes estatísticos para avaliar em que medida as variáveis utilizadas são

bons indicadores para discriminar os grupos. Os coeficientes de ponderação aij

podem ser interpretados como os coeficientes de um modelo de regressão múltipla

ou de análise fatorial e, como tal, servem para identificar as variáveis que mais

contribuem para distinguir os grupos dentro de uma mesma função Yj.

A utilização da análise discriminante como técnica de classificação pode ser

feita depois de dado o passo inicial, isto é, depois de se ter encontrado um conjunto

de variáveis que permita a discriminação significativa dos grupos, para os quais se

conhece a distribuição por grupos. É, então, possível estimar um conjunto de

funções que permitirão a classificação de novos casos, cujo agrupamento seja

inicialmente desconhecido.

Page 64: Jos. Ricardo dos Santos

63

3.4.2.2 Pressupostos da função discriminante

A autora ainda afirma que a técnica, que consiste em encontrar combinações

lineares das variáveis independentes para discriminar indivíduos pertencentes a

diferentes grupos, é considerada "a melhor" quando permite a minimização dos erros

de incorreta classificação. No entanto, este fato só é verdadeiro quando se verificam

os pressupostos seguintes:

1. Os grupos deverão ser retirados de populações que seguem uma

distribuição normal multivariada para as p variáveis discriminantes:

2. Dentro dos grupos a variabilidade deverá ser idêntica, isto é, as

matrizes de variância e covariância devem ser iguais para todos os

grupos.

A estes dois pressupostos metodológicos poderão ser ainda

acrescentados cinco outros pressupostos:

3. Existe um critério pré-definido que nos permite dividir os indivíduos

em dois ou mais grupos (k≥ 2);

4. O número de observações em cada grupo é pelo menos dois

(nj≥ 2);

5. O número de variáveis discriminantes (p) poderá ser qualquer, desde

que verifique a seguinte condição: ser menos que o número total de

observações (n) menos 2 (0 < p < n - 2);

6. Nenhuma das variáveis discriminantes poderá ser combinação linear

das restantes; sendo:

k = número de grupos

p = número de variáveis discriminantes

nj = número de indivíduos no grupo j (j = 1, 2, ..., k)

n = número total de indivíduos nos k grupos.

Assim a análise discriminante foi utilizada para encontrar grupos de professores

separados através da diferença entre médias dos grupos. Através da função

discriminante determinou-se também quais as questões do questionário que tem

maior relevância para os alunos, para classificar um professor em um determinado

grupo.

Page 65: Jos. Ricardo dos Santos

64

3.4.3 Análise de clusters

A análise de clusters, também conhecida como análise de conglomerado, é

uma técnica para agrupar pessoas ou itens em conglomerados de elementos

similares. Neste tipo de análise, “tenta-se identificar elementos similares pelas suas

características. Formam-se então grupos, ou conglomerados, que são homogêneos

e diferentes de outros grupos. Correlações e funções de distância entre elementos

são utilizados na definição dos grupos.” Aczel (apud PORTO, 2000, p.119).

Esta análise examina um conjunto completo de relacionamentos

interdependentes sem fazer distinção entre variáveis dependentes e independentes,

com o objetivo primário de classificar objetos em grupos relativamente homogêneo,

baseado no grupo de variáveis consideradas e diferentes dos outros grupos.

“Quando utilizada dessa maneira, a análise de conglomerados é o reverso da

análise fatorial, posto que reduz o número de objetos e não o número de variáveis,

por meio de agrupamentos destes em um menor número de conglomerados.”

Malhotra (apud PORTO, 2000, p.119).

Segundo Johnson e Wichern (apud RODRIGUES, 2002), a análise de clusters

corresponde também a uma importante técnica exploratória que busca identificar

uma estrutura de agrupamentos naturais para avaliar a dimensionalidade dos dados,

identificar outiliers e fornecer interessantes hipóteses acerca de associações – neste

último caso ela é usada sobretudo para grupar variáveis. Existem dois métodos de

agrupamento, o hierárquico e o não hierárquico.

O método hierárquico pode ser de dois tipos: aglomerativo (bottom-up) e

divisível (top-down). Estabelece-se uma relação de hierarquia entre o objeto

(individual) e o conjunto dos objetos(clusters). Uma vez incorporado a um grupo, o

objeto permanece associado a ele até o final do processo de clustering. Nesse

método, os critérios de grupamentos mais utilizados são o da associação simples

(baseada nas menores distâncias entre os objetos) e o da associação completa

(baseada na maior distância entre os objetos). Cada solução de cluster gerada deve

ser devidamente interpretada, a fim de que se identifique qual a mais adequada para

dar um significado aos dados em questão.

No método não hierárquico o processo de clustering é mais dinâmico e

interativo. Diferentemente do método hierárquico, ele permite que objetos deixem um

Page 66: Jos. Ricardo dos Santos

65

cluster e se associem a outro, de modo que esses reposicionamentos sucessivos

possam contribuir para melhorar os resultados finais. O critério não hierárquico mais

utilizado é o K-means, que permite que se defina inicialmente o vetor central dos

clusters(ou centróides), e que se busque, em seguida, inserir os objetos mais

próximos a eles. Como se vê, ao contrário do método anterior, o K-means possibilita

que se estabeleça, de antemão, o número de clusters com que se quer trabalhar, e

que se busque testar essa hipótese a partir do significado encontrado para aquela

solução de cluster.

Segundo Reis (1997) escolhida uma medida de distância, surge um problema

a resolver em qualquer análise de clusters: a escolha do critério de (des)agregação

dos indivíduos. Pode-se dizer que os vários métodos pretendem responder, de forma

diferente, às seguintes questões:

- distância entre indivíduos do mesmo grupo e distância entre indivíduos

de grupos diferentes;

- dispersão dos indivíduos dentro do grupo;

- densidade dos indivíduos dentro e fora dos grupos.

Os vários métodos de agregação dos indivíduos diferem no modo como

estimam distâncias entre grupos já formados e outros grupos ou indivíduos por

agrupar. O processo de agrupamento de indivíduos já agrupados depende da

distância entre os grupos. Portanto, diferentes definições destas distâncias poderão

resultar em diferentes soluções finais. Não existe aquilo a que se possa chamar o

melhor critério de (des)agregação dos casos em análise de clusters.

Neste estudo foi utilizado o critério de Ward, que segundo o autor baseia-se

na perda de informação resultante do agrupamento dos indivíduos e medida através

da soma dos quadrados dos desvios das observações individuais relativamente às

médias dos grupos em que são classificadas. Este método pode ser resumido nas

seguintes etapas:

- primeiro são calculadas as médias das variáveis para cada grupo;

- em seguida, é calculado o quadrado da distância Euclidiana entre essas médias e

os valores das variáveis para cada indivíduo;

- somam-se as distâncias para todos os indivíduos;

- por último, pretende-se otimizar a variância mínima dentro dos grupos.

A função objetivo que se pretende minimizar é também chamada soma dos

quadrados dos erros (ESS) ou soma dos quadrados dentro dos grupos (WSS). No

Page 67: Jos. Ricardo dos Santos

66

início do processo de agrupamento, cada indivíduo constitui um grupo e WSS = O.

Em seguida, são agrupados os dois indivíduos que provocam um aumento mínimo

no valor da soma dos quadrados dos erros, passando a existir n - 1 grupos; estes n -

1 grupos são então reexaminados e transformados em n - 2 grupos, mas de tal

modo que o aumento na função objetivo seja minimizado; o processo continua de

forma sistemática até todos os indivíduos formarem um grupo apenas.

Sendo assim, este estudo de caso optou por utilizar o método de análise de

clusters para confirmar e analisar a estrutura do questionário verificando se,

mediante as respostas dos alunos, as perguntas do questionário ficaram separadas

em grupos, conforme a proposta inicial do trabalho.

3.5 Confiabilidade do Questionário

Para Rosenberg(2002) quando se constrói um questionário para verificar a

percepção das pessoas sobre qualquer problema, o que se pretende é ter a certeza

de que as medições reflitam com precisão os resultados do questionário e estejam

livres de erros aleatórios. Quando estes são introduzidos nas medições, o resultado

observado é menos confiável para estimar o valor verdadeiro das medições.

Definiu-se a confiabilidade como sendo “o grau com que as medições estão

isentas de variâncias de erros aleatórios, onde esses erros diminuem a

confiabilidade das medições”, ou seja, a confiabilidade reflete o quanto os valores

observados estão relacionados aos valores verdadeiros. Hyaes (apud

ROSENBERG, 2002, p.106).

Para Pereira (2001, p.86) medida coerentes de um mesmo objeto são aquelas

que, embora o abordem sob um aspecto específico, mantêm alguma relação entre

si, já que mensuram o mesmo objeto. Em outras palavras, um bom indicador é

composto de medidas originais que têm um nível de correlação bem estabelecido

entre si. Para medir a consistência ou confiabilidade de um indicador pode-se utilizar

o coeficiente Alfa de Cronbach.

De acordo com Rosenberg(2002) a estimativa da confiabilidade através do Alfa

de Cronbach demonstra o grau em que os itens do questionário estão inter-

relacionados. Um alto índice de confiabilidade torna mais provável a descoberta de

Page 68: Jos. Ricardo dos Santos

67

relacionamentos entre variáveis realmente relacionadas, enquanto que a baixa

confiabilidade leva a um grau de incerteza nas conclusões.

Pereira (2001) afirma que o índice de Cronbach trabalha a relação entre

covariâncias e variâncias internas das medidas. Segundo Cronbach (apud

PEREIRA), o teste é robusto o suficiente para tolerar escalas não-homogêneas e

basear-se em correlações calculadas como razão de covariâncias e variâncias.

Quanto mais as variações entre as medidas do fenômeno, realizadas pelas

diferentes variáveis, superar as variações internas das variáveis individualmente,

melhor será o indicador. Além disso, quanto maior for o número de variáveis

compondo o indicador, tanto melhor ele será. A fórmula de cálculo do Alfa de

Cronbach é a seguinte:

/ varcov 1) -(k 1 / varcovk

+=α

k = número de variáveis consideradas

cov = média das covariâncias

var = média das variâncias.

O Alfa de Cronbach pode variar de 0 a 1, onde 1 demonstra presença de

consistência interna de 100% e zero significa a ausência total de consistência entre

os itens. A maioria dos autores pesquisados utiliza como limite de aceitação o valor

de 0,70 para o Alfa de Cronbach (NUNNALLY, 1978, CAMERON, 1978, HAIR Et

Al.,1995 apud ROSEMBERG, 2002), mas valores menores que 0,70 tem sido

considerado aceitos se a pesquisa é de natureza exploratória (Hair et al apud

ROSENBERG, 2002). Embora um valor de alfa de 0,70 seja freqüentemente

considerado para uma consistente estabilidade interna, Nunnally (apud Rosemberg,

2002) considera permissível que os valores de alfa possam ser um pouco menores

para questionário nunca aplicados em uma pesquisa exploratória e sugere o mínimo

de 0,60.

De acordo com Pereira (2001), a razão para que uma variável

concebida para compor um indicador acabe se mostrando inconsistente com o

conjunto das outras medidas componentes do indicador pode ser de pelo menos,

três ordens:

Page 69: Jos. Ricardo dos Santos

68

- Erro de escolha da variável: a medida não se aplica ao objeto e foi

selecionada ou concebida por conhecimento imperfeito do objeto por parte do

pesquisador.

- Erro de escolha da unidade de medida: as categorias utilizadas para a

variável não são boas descritoras do objeto.

- Erro de validade de face: como muitas medidas qualitativas são

obtidas pela opinião, se a variável não for perfeitamente compreendida pelo

interlocutor, a medida será prejudicada.

3.6 Análise de Correlação

Segundo Stevenson (1981) o objetivo do estudo correlacional é a

determinação da força do relacionamento entre duas observações emparelhadas. O

termo correlação significa literalmente co-relacionamento, pois indica até que ponto

os valores de uma variável estão relacionados com os de outra.

Dizemos que duas variáveis x e y, estão positivamente correlacionadas quando elas

caminham num mesmo sentido, ou seja, valores pequenos de x tendem a estar

relacionados com valores pequenos de y, enquanto valores grande de x tendem a

estar relacionados com valores grandes de y. Estão negativamente correlacionadas

quando elas caminham em sentidos opostos (Barbeta, 1999).

Ainda segundo o autor, o conceito de correlação refere-se a uma associação

numérica entre duas variáveis, não implicando, necessariamente, numa relação de

causa e efeito.

O resultado de uma análise de correlação é o coeficiente de correlação, um

valor que quantifica o grau de correlação (Stevenson, 1981).

O valor do coeficiente de correlação não deve depender da unidade de medida

dos dados. Para evitar o efeito da unidade de medida, Barbeta (1999) informa que

os dados devem ser padronizados da seguinte forma:

xSx-xx'=

onde

e,

====

x,de dados dos padrão desvio S x variávelda dados dos média x

x variávelda valor um xopadronizad valor um x'

x

Page 70: Jos. Ricardo dos Santos

69

ySy-yy'=

onde

====

x.de dados dos padrão desvio S x variávelda dados dos média x

x variávelda valor um xopadronizad valor um x'

x

O coeficiente de correlação linear r, é definido pela seguinte expressão, em

termos dos valores padronizados:

( )1-n

x'.y'r Σ=

onde n é o tamanho da amostra.

O coeficiente de correlação tem duas propriedades que caracterizam a

natureza de uma relação entre duas variáveis. Uma é o sinal (+ ou -) e a outra é a

sua magnitude. O sinal é o mesmo que o do coeficiente angular de uma reta

imaginária que se ajusta aos dados se fosse traçada num diagrama de dispersão, e

a magnitude de r indica quão próximos da reta estão os pontos individuais. Por

exemplo, valores de r próximos de -1 ou 1 indicam que os valores estão muito

próximos da reta, enquanto que os valores mais próximos de 0 sugerem maior

dispersão.(Stenvenson, 1981).

Neste estudo, a correlação foi utilizada para ratificar a relação entre as

questões para cada grupo do questionário e verificar a relação entre as médias dos

professores.

Page 71: Jos. Ricardo dos Santos

70

4 ANÁLISE DOS RESULTADOS

O questionário aplicado estava separado em três etapas, sendo a primeira

parte relacionada à organização didático-pedagógica e infra-estrutura do curso, a

segunda quanto à auto-avaliação do aluno e a terceira quanto ao desempenho

docente.

4.1 Análise da Organização Didático-Pedagógica e Infra-Estrutura do Curso

Na avaliação dos cursos pelos alunos, o questionário foi submetido ao teste

de consistência pelo Alfa de Cronbach, que permite identificar se as questões

pertencem ao mesmo grupo e se a utilização da escala foi compreendida, conforme

descrito na metodologia (capítulo 03).

A confiabilidade total medida pelo índice de Cronbach foi de 0,7838. Na

tabela 4.1 encontramos quais seriam os valores do alfa de Cronbach se

retirássemos a questão do questionário. A única questão que, se retirada, aumenta

um pouco este índice é a questão 8 (ambiente físico da sala de aula). Como este

aumento é muito pequeno e o valor encontrado para o grupo está acima de 0,6,

valor aceitável como uma consistente estabilidade (capítulo 3), a pergunta não foi

retirada e o questionário, é portanto, considerado confiável.

Tabela 4.1 - Confiabilidade das questões quanto à organização didático-pedagógica e infra-estrutura do curso

Questões Crombachα se deletado

01 – Os recursos e os materiais pedagógicos disponíveis são apropriados às atividades desenvolvidas 0,7676

02 – Os recursos disponíveis para as atividades práticas e/ou de pesquisa correspondem às necessidades da sua formação profissional. 0,7559

03 – As disciplinas do currículo correspondem às exigências do perfil profissional do curso. 0,7622

04 – A organização das disciplinas favorece a integração entre os conteúdos. 0,7689

05 – O Curso oferece atividades acadêmicas (iniciação científica, monitoria, projetos de extensão) para complementar sua 0,7665

Page 72: Jos. Ricardo dos Santos

71

aprendizagem. 06 – O Curso oferece atividades em parceria e intercâmbios com a

comunidade. 0,7721 07 – O sistema de atendimento e de informações disponíveis no

Curso, facilita as atividades acadêmicas. 0,7527 08 – O ambiente físico da sala de aula (iluminação, ventilação,

espaço, mobiliário) favorece seu estudo. 0,7848 09 – O acervo da biblioteca atende às necessidades curriculares do

curso. 0,7667 10 – O nível de exigências de aprendizagem do Curso corresponde

às necessidades curriculares do Curso. 0,7561

No gráfico 4.1, verificamos pela análise de cluster (método de Ward) que as

questões se separam em quatro grupos, de acordo com suas similaridades:

- O primeiro (grupo A) é relativo as atividades extra-classe oferecidas pelos

cursos.

- O segundo (grupo B) sobre a grade curricular e sua organização.

- O terceiro (grupo C) trata do ambiente físico, acervo da biblioteca e nível de

exigência do curso.

- O quarto (grupo D) diz respeito aos recursos e aos materiais pedagógicos.

Gráfico 4.1. Análise de Cluster – Similaridade das questões quanto à organização didático-pedagógica e infra-estrutura do curso

GrupamentosMétodo de Ward

1- rPearson

Dis

tânc

ia d

e Li

gaçã

o

0.5

0.6

0.7

0.8

0.9

1.0

1.1

Q6 Q5 Q4 Q3 Q8 Q9 Q10 Q7 Q2 Q1

A B C D

Page 73: Jos. Ricardo dos Santos

72

Podemos confirmar esta divisão na matriz de correlações apresentada no

Apêndice B1. Verificamos que a maior correlação da questão 1 é com a questão 2

(0,442), sendo que a questão 3 tem uma correlação maior com a 4(0,449) e desta

forma todos os grupos são formados de acordo com as suas correlações entre as

questões.

No gráfico 4.2, apresentamos a média das respostas e transformadas na

escala de 0 a 10 através da fórmula (Média – 1) x 2,5. O menor valor possível é 0 e

o maior 10. Podemos observar o baixo desempenho em quase todas as questões

em especial as questões do grupo A do gráfico 4.1.

Mesmo sendo uma Faculdade Estadual, sem muitos recursos, temos que

providenciar atividades acadêmicas (iniciação científica, monitoria, projetos de

extensão) e atividades em parcerias intercâmbios com a comunidade, para

complementar sua aprendizagem. Confirmamos que o aspecto da falta de recursos,

estão explicitas pelos alunos que avaliaram com uma média muito baixa na questão

dois. Verificamos um contentamento moderado, não questões três e quatro, que

referem-se à grade curricular.

Gráfico 4.2. Média das questões quanto à organização didático-pedagógica e infra-estrutura do curso.

5.3

3.7

6.1

5.5

3.4

2.3

4.1

5.1

4.5

3.6

0.0

1.0

2.0

3.0

4.0

5.0

6.0

7.0

1 2 3 4 5 6 7 8 9 10

Questões

Méd

ias

Page 74: Jos. Ricardo dos Santos

73

Verificamos no gráfico 4.3 que os cursos seguiram as mesmas tendências

nas suas avaliações, com uma pequena distorção na questão 08, sendo que no

grupo A do gráfico 4.1, com as questões de menor média, o curso de secretariado

atribuiu o menor valor.

Gráfico 4.3. Média por curso das questões quanto organização didático-pedagógica e infra-estrutura do curso.

0.0

1.0

2.0

3.0

4.0

5.0

6.0

7.0

8.0

1 2 3 4 5 6 7 8 9 10

Questões

Méd

ias

Adm. Hospitalar Adm. Pública Ciências ContábeisEconomia Empresas-diurno Empresas-noturnoExterior - Diurno Exterior - Noturno Secret

4.2 Análise da Auto-Avaliação do Aluno

Analisando a consistência do questionário, observamos na tabela abaixo que

nenhuma questão se retirada aumenta a confiabilidade do grupo. O valor índice de

Cronbach para o grupo é de 0,6908. Desta forma, consideramos o questionário

confiável.

Page 75: Jos. Ricardo dos Santos

74

Tabela 4.2 - Confiabilidade das questões quanto à auto-avaliação do aluno

Questões Crombachα se deletado

1. Sou pontual. 0,6757 2. Permaneço na aula em tempo integral. 0,6522 3. Realizo atividades acadêmicas (leitura, trabalhos, testes,

exercícios, pesquisas) previstas nas disciplinas. 0,6229 4. Consulto, regularmente, bibliografias recomendadas e outros

meios facilitadores para a minha aprendizagem. 0,6435 5. Participo das aulas, com levantamento de questões e sugestões

para a ampliação do meu conhecimento. 0,6541 6. Estou integrado com o meu grupo, favorecendo também minha

aprendizagem. 0,6534 No Apêndice B2 verificamos as correlações entre as questões do

questionário. Notamos que a questão 1 tem maior correlação com a questão 2

(0,440), a questão 3 tem maior correlação com a questão 4(0,433) e a questão 5 tem

um correlação maior com a questão 6(0,420). Através destas correlações

confirmamos como ficam divididos os grupos através do gráfico 4.4. Eles se dividem

em três grupos, pela análise de cluster.

♦O primeiro (grupo A) é relativo à participação das aulas e integração com o corpo

discente.

♦O segundo (grupo B) relaciona as atividades acadêmicas e consulta de bibliografia.

♦O terceiro (grupo C) é sobre pontualidade e permanência em sala de aula.

Gráfico 4.4. Análise de Cluster – Similaridade das questões quanto à auto-avaliação do aluno.

Grupamentos

Método de Ward

1- r Pearson

Dis

tânc

ia d

e Li

gaçã

o

0,5

0,6

0,7

0,8

0,9

1,0

1,1

Q6 Q5 Q4 Q3 Q2 Q1

A B C

Page 76: Jos. Ricardo dos Santos

75

No gráfico 4.5 visualizamos o baixo valor para as médias nas questões

4(consulto, regularmente, bibliografias recomendadas e outros meios facilitadores

para a minha aprendizagem) e 5(participo das aulas, com levantamento de questões

e sugestões para a ampliação do meu conhecimento) em relação as anteriores. Se

comparado isoladamente não seriam valores tão baixos, mas no contexto é um fator

preponderante para desenvolver um bom aprendizado. Constatou-se através das

respostas dos alunos, que muitos não estão consultando as fontes bibliográficas

indicadas pelos professores e admitem não participar das aulas através de

questionamentos e sugestões.

Gráfico 4.5. Médias das questões quanto à auto-avaliação do aluno

7.3

8.18.0

6.0

7.8

5.5

4.0

4.5

5.0

5.5

6.0

6.5

7.0

7.5

8.0

8.5

1 2 3 4 5 6

Questões

Méd

ias

Observamos no gráfico 4.6 que os as auto-avaliações dos alunos separadas

por cursos, o curso de Administração Pública atribuiu os menores valores para as

questões 4(consulto, regularmente, bibliografias recomendadas e outros meios

facilitadores para a minha aprendizagem) e 5(participo das aulas, com levantamento

de questões e sugestões para a ampliação do meu conhecimento);

Page 77: Jos. Ricardo dos Santos

76

Gráfico 4.6. Médias por curso das questões quanto à auto-avaliação do aluno.

3.0

4.0

5.0

6.0

7.0

8.0

9.0

10.0

1 2 3 4 5 6

Questões

Méd

ias

Adm. Hospitalar Adm. PúblicaCiências Contábeis EconomiaEmpresas-diurno Empresas-noturnoExterior - Diurno Exterior - NoturnoSecretariado

4.3 Análise do Desempenho Docente Esta etapa do questionário ficou dividida em três grupos:

A – Metodologia e Técnicas de Ensino

B – Postura Ética e Profissional

C – Processo Ensino-Aprendizagem

4.3.1 Análise do questionário

Na avaliação do corpo docente pelos alunos, o questionário teve um ótimo

índice quando calculado como um todo. Quando dividido nas três categorias o valor

do índice diminui, mas não de forma que atrapalha a confiabilidade da pesquisa. A

confiabilidade total medida pelo Alfa de Cronbach foi de 0,9503. Nenhuma questão,

se retirada, aumenta este índice.

Page 78: Jos. Ricardo dos Santos

77

Tabela 4.3 - Confiabilidade das questões quanto ao desempenho docente

Questão Crombachα se deletado

01 – Informa o programa da disciplina 0,9496 02 – Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso 0,9460 03 – Utiliza linguagem clara e acessível ao ministrar as aulas. 0,9470 04 – Relaciona teoria e prática na abordagem dos conteúdos 0,9470 05 – Indica fontes de consulta adequadas à proposta da disciplina 0,9479 06 – Utiliza procedimentos didáticos adequados à disciplina 0,9458 07 – Demonstra possuir conhecimento atualizado do conteúdo que

desenvolve 0,9474 08 – Estabelece uma relação de respeito mútuo e atenção com os alunos 0,9471 09 – Incentiva a participação, discussão e expressão de idéias durante as

aulas 0,9469 10 – Foi pontual 0,9493 11 – Foi freqüente 0,9497 12 – Cumpre o horário das aulas 0,9488 13 – Aproveita o tempo em sala de aula com explanação do conteúdo e

atividades da disciplina 0,9464 14 – Apresenta-se motivado ao ministrar as aulas 0,9458 15 – Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos 0,9481 16 – Utiliza instrumentos de Avaliação adequados à “disciplina” 0,9468 17 – Discute os critérios a serem adotados nos procedimentos de

Avaliação (o que e como serão cobrados os conteúdos) 0,9475 18 – Analisa e comenta os resultados das Avaliações com os alunos 0,9487

Fazendo a análise do índice de Cronbach nos três grupos do questionário

obtemos os seguintes resultados apresentados nas tabelas 4.4, 4.5 e 4.6.

Tabela 4.4 - Confiabilidade das questões quanto a metodologia e técnicas de ensino.

Questão Crombachα

se deletado01 – Informa o programa da disciplina 0,8988 02 – Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso 0,8671 03 – Utiliza linguagem clara e acessível ao ministrar as aulas. 0,8738 04 – Relaciona teoria e prática na abordagem dos conteúdos 0,8721 05 – Indica fontes de consulta adequadas à proposta da disciplina 0,8828 06 – Utiliza procedimentos didáticos adequados à disciplina 0,8655

A confiabilidade medida pelo índice de Cronbach foi de 0,8954. Somente a

questão 1, se retirada, aumenta timidamente este índice.

Page 79: Jos. Ricardo dos Santos

78

Tabela 4.5 - Confiabilidade das questões quanto a postura ética e profissional.

Questão Crombachα se deletado

07 – Demonstra possuir conhecimento atualizado do conteúdo que desenvolve 0,8944

08 – Estabelece uma relação de respeito mútuo e atenção com os alunos 0,8902 09 – Incentiva a participação, discussão e expressão de idéias durante as

aulas 0,8936 10 – Foi pontual 0,8923 11 – Foi freqüente 0,8939 12 – Cumpre o horário das aulas 0,8893 13 – Aproveita o tempo em sala de aula com explanação do conteúdo e

atividades da disciplina 0,8835 14 – Apresenta-se motivado ao ministrar as aulas 0,8820

A confiabilidade medida pelo índice de Cronbach foi de 0,9024. Nenhuma

questão, se retirada, aumenta este índice.

Tabela 4.6 - Confiabilidade das questões quanto ao processo de ensino-aprendizagem

Questão Crombachα se deletado

15 – Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos 0,8136 16 – Utiliza instrumentos de Avaliação adequados à “disciplina” 0,7727 17 – Discute os critérios a serem adotados nos procedimentos de

Avaliação (o que e como serão cobrados os conteúdos) 0,7709 18 – Analisa e comenta os resultados das Avaliações com os alunos 0,8240

A confiabilidade medida pelo índice de Cronbach foi de 0,8385. Nenhuma

questão, se retirada, aumenta este índice.

Na Tabela 4.7, consta à freqüência das questões respondidas pelos alunos.

Pode-se observar um destaque maior nas questões 1(Informa o programa da

disciplina), 7(Demonstra possuir conhecimento atualizado do conteúdo que

desenvolve, 10(Foi pontual), 11(Foi freqüente), 12( Cumpre o horário das aulas) e

15( Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos) que

obtiveram percentual acima de 50%.

Page 80: Jos. Ricardo dos Santos

79

Tabela 4.7 – Freqüências das respostas para cada questão quanto ao desempenho docente

Opções

Questões 1

Nunca 2

Raramente3

Na média 4

Quase sempre 5

Sempre 1 5% 6% 17% 21% 51% 100% 2 4% 9% 21% 26% 40% 100% 3 5% 10% 20% 25% 40% 100% 4 6% 11% 22% 25% 36% 100% 5 8% 14% 24% 24% 30% 100% 6 6% 10% 26% 26% 32% 100% 7 3% 6% 15% 20% 56% 100% 8 5% 7% 16% 22% 50% 100% 9 8% 10% 21% 23% 38% 100%

10 4% 6% 15% 22% 53% 100% 11 4% 5% 14% 21% 56% 100% 12 3% 5% 13% 20% 59% 100% 13 4% 7% 19% 26% 44% 100% 14 5% 7% 20% 24% 44% 100% 15 3% 4% 12% 21% 60% 100% 16 5% 6% 20% 27% 42% 100% 17 7% 8% 20% 25% 40% 100% 18 13% 11% 20% 21% 35% 100%

No gráfico 4.7, verificamos pela análise de cluster ( método de Ward e

distância euclidiana) que as questões se separam em cinco grupos, de acordo com

suas similaridades, aproximando-se muito da proposta do questionário elaborado.

Gráfico 4.7. Análise de Cluster – Similaridade das questões ao desempenho docente.

GrupamentosMétodo de Ward

1- rPearson

Dis

tânc

ia d

e Li

gaçã

o

0.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

1.6

Q12 Q11

Q10 Q14

Q13 Q9

Q8 Q5

Q7 Q4

Q3 Q6

Q2 Q18

Q17 Q16

Q15 Q1

B2 B1 C A1A2

Page 81: Jos. Ricardo dos Santos

80

A tabela 4.8 mostra a formação obtida na análise de cluster aos grupos

formados, nota-se uma boa validade do questionário, uma vez que eles seguiram a

divisão feita na elaboração do mesmo; ressaltando apenas a formação de pequenos

sub-grupos A1 e B2. O primeiro sub-grupo ficou isolado não por acaso, pois a

questão 1, foi a que, se retirada do grupo, faria o Alfa de Cronbach aumentar, e o

segundo sub-grupo formado por questões sobre pontualidade e freqüência, que

teoricamente também faz parte de uma postura ética e profissional, não apresentou

muita afinidade com o grupo. No gráfico 4.7 verificamos apenas o inconveniente de

que a questão 7 está junto com questões relativas à metodologia, e não de postura

ética como era de se esperar.

Tabela 4.8. Agrupamentos formados pela análise de clusters

AGRUPAMENTOS MAIORES MENORES

QUESTÕES

A1 1 Informa o programa A2 2 Conteúdo Adequado A2 3 Linguagem Clara A2 4 Relaciona Teoria e Prática A2 5 Indica Fontes de Consulta

GRUPO A

A2 6 Utiliza Procedimentos Didáticos A2 7 Possui Conhecimento do Conteúdo

B1 8 Respeito Mútuo e Atenção B1 9 Incentiva Participação B1 13 Utiliza tempo para dar Aula B1 14 Apresenta-se Motivado B2 10 Pontual B2 11 Freqüente

GRUPO B

B2 12 Cumpre Horário C 15 Avaliou os Conteúdos Desenvolvidos C 16 Instrumentos de Avaliação Adequados C 17 Discute Critérios da Avaliação GRUPO C

C 18 Analisa e Comenta Resultados das Avaliações

Na tabela 4.9, verificamos que os fatores 1 e 2 são os que melhor explicam as

variáveis em estudo, sendo que de uma escala de 0 a 18, os seus autovalores

acumulados são de 11,5. Podemos observar que os fatores 1 e 2 explicam 63,92%

da variância total.

Page 82: Jos. Ricardo dos Santos

81

Tabela 4.9. Autovalores dos componentes principais para as questões quanto ao desempenho docente

VARIÂNCIA FATOR AUTOVALOR % Cumulativa

1 9,8606 54,78% 54,78% 2 1,6442 9,13% 63,92% 3 0,7768 4,32% 68,23% 4 0,7105 3,95% 72,18% 5 0,6503 3,61% 75,79% 6 0,5159 2,87% 78,66% 7 0,4519 2,51% 81,17% 8 0,4440 2,47% 83,63% 9 0,3874 2,15% 85,79%

10 0,3595 2,00% 87,78% 11 0,3271 1,82% 89,60% 12 0,3102 1,72% 91,32% 13 0,3020 1,68% 93,00% 14 0,2766 1,54% 94,54% 15 0,2705 1,50% 96,04% 16 0,2557 1,42% 97,46% 17 0,2394 1,33% 98,79% 18 0,2173 1,21% 100,00%

TOTAL 18,0000 100,00% -

Podemos visualizar os mesmos grupos formados na análise de cluster no

gráfico 4.8 obtido pelo método de componentes principais.

Gráfico 4.8. Análise de componentes principais (2 Fatores) – Similaridade das questões quanto ao desempenho docente.

Componentes PrincipaisRotação - Varimax Normalizada

Fator 1

Q1Q2

Q3Q4Q5

Q6 Q7Q8

Q9

Q10Q11 Q12

Q13

Q14Q15

Q16

Q17Q18

0,0

0,2

0,4

0,6

0,8

1,0

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9

A 1

A 2

B 1

B 2

C

Page 83: Jos. Ricardo dos Santos

82

Podemos observar no gráfico 4.9 que com a contribuição do terceiro fator, as

questões 1, 5 e 2, pertencem a um mesmo grupo, assim como as questões 08 e 09.

Gráfico 4.9. Análise de componentes principais (3 Fatores) – Similaridade das

questões quanto ao desempenho docente.

Componentes Principais

Rotação - Varimax Normalizada

Q1

Q2Q3Q4

Q5

Q6

Q7Q8Q9

Q10Q11Q12

Q13 Q14

Q15 Q16Q17Q18

A

B

C

4.3.2 Análise dos professores

A tabela 4.10 representa a forma como os professores foram classificados

quanto à avaliação dos alunos. Foi feito a média das respostas e transformadas na

escala de 0 a 10 através da fórmula (Média – 1) x 2,5. O menor valor possível foi 0 e

o maior foi 10. Os grupos foram criados com os seguintes critérios:

Tabela 4.10. Critérios para classificação CLASSE NOTAS

D 00 |---┤ 04 C 04 ---┤ 06 B 06 ---┤ 08 A 08 ---┤ 10

Page 84: Jos. Ricardo dos Santos

83

Com isto, as funções discriminantes obtidas são as seguintes:

Tabela 4.11. Funções de Classificação GRUPO Questão

A B C D 1 4,24 3,68 3,15 2,43 2 3,03 2,34 1,67 0,83 3 3,72 3,01 2,45 1,82 4 3,53 2,83 2,26 1,51 5 2,95 2,21 1,80 1,29 6 2,05 1,39 0,92 0,52 7 5,33 4,90 4,13 3,04 8 5,13 4,43 3,51 2,34 9 3,12 2,43 1,95 1,28

10 2,91 2,47 2,04 1,35 11 3,94 3,36 2,83 2,21 12 4,79 4,21 3,59 2,48 13 3,36 2,67 2,01 1,12 14 3,64 2,85 2,04 1,09 15 4,82 4,48 3,98 2,96 16 3,51 2,84 2,24 1,48 17 3,26 2,68 2,07 1,33 18 2,89 2,16 1,64 1,06

Constante -155,75 -108,58 -72,18 -35,53

Com estas funções obteve-se a seguinte matriz de classificação, no qual

apresenta 96,5% de percentual de acertos.

Tabela 4.12. Matriz de Classificação

Calculado

Percentual Correto A B C D

A 98,4% 4.325 70 0 0 B 97,9% 24 2.602 31 0 C 94,4% 0 80 1.393 2 D 86,2% 0 0 121 754

Obs

erva

do

Total 96,5% 4.349 2.752 1.545 756

No gráfico 4.10 consta uma visão geral da classificação obtida anteriormente.

Nota-se uma boa discriminação no eixo 1. O percentual de acertos das funções

discriminantes de 91,4% para os professores classificados nos grupos C e D que

apresentaram as maiores deficiências segundo a classificação dos alunos.

Page 85: Jos. Ricardo dos Santos

84

Gráfico 4.10. Clusters formados nas raízes 1 e 2 da análise discriminante. Grupos Discriminados

Raiz 1

Rai

z 2

-5

-4

-3

-2

-1

0

1

2

3

4

5

6

-12 -10 -8 -6 -4 -2 0 2 4

A B

C D

A tabela 4.13 apresenta uma classificação por ordem de importância nas

questões do questionário, de acordo com a função obtida na tabela 4.8. Podemos

verificar que em todos os grupos a questão que mais influenciou foi a 7(possuir

conhecimento atualizado do conteúdo), e a de menor peso foi a questão 6( Utiliza

procedimentos adequados à disciplina).

Tabela 4.13. Classificação das questões nos grupos QUESTÃO A B C D SOMA Q - 7 1 1 1 1 4 Q - 15 3 2 2 2 9 Q - 8 2 3 4 5 14 Q - 12 4 4 3 3 14 Q - 1 5 5 5 4 19 Q - 11 6 6 6 6 24 Q - 3 7 7 7 7 28 Q - 4 9 10 8 8 35 Q - 16 10 9 9 9 37 Q - 14 8 8 11 15 42 Q - 17 12 11 10 11 44 Q - 13 11 12 13 14 50 Q - 10 16 13 12 10 51 Q - 9 13 14 14 13 54 Q - 5 15 16 15 12 58 Q - 2 14 15 16 17 62 Q - 18 17 17 17 16 67 Q - 6 18 18 18 18 72

+

-

Page 86: Jos. Ricardo dos Santos

85

No gráfico 4.11 verificamos que todos os grupos seguem uma mesma

tendência, e todos apresentaram uma queda nas questões 5(Indica fonte de

consulta), 9(incentiva a participação, discussão e expressão de idéias durante as

aulas), 14(Apresenta-se motivado ao ministrar as aulas) e 18( Analisa e comenta os

resultados das avaliações com os alunos). Desta forma, a faculdade necessita com

urgência providenciar cursos de capacitação para estes professores que fazem parte

do grupo D, pois estão com deficiência nos três grupos do questionário.

Gráfico 4.11. Média das questões quanto ao desempenho docente para os quatro grupos determinantes.

0123456789

10

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

QUESTÃO

NO

TA

A

B

C

D

No Apêndice C1 observamos o quadro comparativo entre as médias dos

professores, no qual foi feito um teste de Tuckey. As células vermelhas indicam 99%

de confiança no teste, as amarelas indicam 95% de confiança e as brancas não há

diferença significativa, ou seja, apesar dos professores não possuírem médias iguais

não são significativamente diferentes ao nível de 95% de confiança.

No Apêndice C2 verificamos as notas médias de cada questão por professor.

As células amarelas indicam notas inferiores a seis. Os dez últimos professores

estão com deficiências em todas as áreas. Podemos visualizar ainda que alguns

professores com médias abaixo de sete, possuem um rendimento baixo no grupo do

questionário de Metodologia e Técnicas de Ensino. Para sanar este problema a

faculdade poderia providenciar um curso específico para este grupo. Ainda

Page 87: Jos. Ricardo dos Santos

86

visualizamos uma deficiência em muitos professores que estão acima da média na

questão nove do segundo grupo (Incentiva a participação, discussão e expressão de

idéias durante as aulas) e na questão dezoito do terceiro grupo (Analisa e comenta

os resultados das avaliações com os alunos). Estas questões podem ser levantadas

para todos os professores nas reuniões dos departamentos pelos coordenadores de

cursos, no intuito de melhorar a performance dos mesmos nos aspectos abordados

nessas questões.

4.3.3 Análise dos cursos Podemos verificar através da tabela 4.14 uma boa média de cada questão por

curso. Observamos que os cursos que apresentam as notas acima das médias

gerais em cada questão estão com as células amarelas. Os cursos de Administração

de Empresas Diurno e Noturno e Administração em Comércio Exterior Noturno são

os cursos que apresentam maior descontentamento entre os alunos.

Tabela 4.14. Média por curso das questões quanto ao desempenho docente.

Questões Adm

. H

ospi

tala

r

Adm

. Púb

lica

Ciê

ncia

s.

Con

tábe

is

Eco

nom

ia

Empr

esas

di

urno

Empr

esas

no

turn

o

Ext

erio

r D

iurn

o

Ext

erio

r N

otur

no

Sec

reta

riado

TOTAL 1 7.78 7.97 7.28 8.15 7.43 7.69 7.61 7.49 8.25 7.67 2 7.10 7.50 7.11 7.54 7.05 7.17 7.28 7.06 7.86 7.22 3 7.07 7.08 7.02 7.28 7.03 7.06 7.41 7.12 7.47 7.12 4 6.67 6.99 6.87 7.10 6.71 6.85 6.93 6.79 7.15 6.86 5 6.05 6.41 5.80 7.11 6.31 6.51 6.04 6.19 6.61 6.30 6 6.58 6.71 6.66 7.17 6.58 6.52 6.63 6.50 7.51 6.65 7 8.01 8.05 7.93 8.39 7.93 7.90 7.96 7.79 8.46 7.97 8 7.55 7.80 7.81 8.05 7.37 7.46 7.53 7.53 8.05 7.62 9 6.74 6.87 6.96 7.29 6.64 6.81 6.98 6.59 7.52 6.84 10 8.00 8.28 8.12 7.95 7.34 7.77 7.64 7.84 8.67 7.90 11 8.09 8.32 8.51 8.11 7.59 8.00 7.66 7.83 8.29 8.03 12 8.23 8.50 8.54 8.24 7.53 8.12 7.74 8.12 9.03 8.18 13 7.44 7.71 7.45 7.64 7.10 7.42 7.31 7.24 8.17 7.43 14 7.28 7.48 7.71 7.74 6.93 7.31 7.08 7.08 8.08 7.33 15 8.25 8.32 8.50 8.48 7.95 8.06 8.47 8.39 9.13 8.30 16 7.28 7.38 7.42 7.90 7.24 7.20 7.49 7.18 8.19 7.35 17 6.98 7.16 7.15 7.66 6.95 6.85 7.02 6.84 7.30 7.02 18 5.92 6.65 6.51 7.29 5.96 6.18 6.14 6.25 6.43 6.32

Page 88: Jos. Ricardo dos Santos

87

No gráfico 4.12, verificamos as mesmas tendências já observadas nos grupos

formados no gráfico 4.4. Podemos acrescentar que nos grupos em que o

questionário ficou dividido, metodologia e técnicas de ensino ficaram com as

menores médias.

Gráfico 4.12. Média por curso das questões quanto ao desempenho docente.

5.5

6.0

6.5

7.0

7.5

8.0

8.5

9.0

9.5

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18QUESTÕES

NO

TA M

ÉDIA

Adm. Hospitalar Adm. PúblicaCiências Contábeis EconomiaEmpresas-diurno Empresas-noturnoExterior - Diurno Exterior - NoturnoSecretariado

METODOLOGIA E TÉCNICAS DE ENSINO

POSTURA ÉTICA E PROFISSIONAL

PROCESSO ENSINO APRENDIZAGEM

Analisando o gráfico acima em cada grupo do questionário temos:

A - Metodologia e Técnicas de Ensino

Ponto Negativo;

♣Questão 05(Indica fontes e conteúdo da disciplina): 22% das respostas

foram “nunca ou raramente”, sendo;

do curso de Comércio Exterior Diurno são 26% (Apêndice D1) , do 3º Ano são 41%

(Apêndice D2) e do 5º Ano são 40% (Apêndice D3).;

Page 89: Jos. Ricardo dos Santos

88

do curso de Adm. Hospitalar são 26% (Apêndice D4), do 2º Ano são 26%

(Apêndice D5) e do 3º Ano são 28% (Apêndice D6);

do curso de Ciências Contábeis são 27% (Apêndice D7), do 2º Ano são 30%

(Apêndice D8) e do 4º Ano são 48% (Apêndice D9).

Ponto Positivo;

♣Questão 01(Informa o Programa da disciplina): 51% das respostas foram

“sempre”, sendo:

do curso de Comércio Exterior Diurno são 55% (Apêndice D1), do 2º Ano são 64%

(Apêndice D10)e do 5º Ano são 68% (Apêndice D3);

do curso de Adm. Pública são 56% (Apêndice D11), do 1º Ano são 54% (Apêndice

D12), do 2º Ano são 71% (Apêndice D13) e do 5º Ano são 61% (Apêndice D14);

do curso de Ciências Econômicas são 61% (Apêndice D15), do 1º Ano são 72%

(Apêndice D16), do 2º Ano são 61% (Apêndice D17) e do 3º Ano são 58%

(Apêndice D18).

B – Postura Ética e Profissional

Pontos Negativos;

♣Questão 09(Incentiva a participação, discussão e expressão de idéias):

17% das respostas foram “nunca ou raramente”, sendo;

do curso de Comércio Exterior Diurno são 18% (Apêndice D1), do 3º Ano são 37%

(Apêndice D2) e do 4º Ano são 46% (Apêndice D19);

do curso de Adm. Pública são 24% (Apêndice D11), do 3º Ano são 25% (Apêndice

D20) e do 5º Ano são 24% (Apêndice D14).

Page 90: Jos. Ricardo dos Santos

89

♣Questão 14 (Apresenta-se motivado ao ministrar as aulas): 12% das

respostas foram “nunca ou raramente”, sendo;

do curso de Adm. Empresas Diurno são 16% (Apêndice D21), do 2º Ano são 22%

(Apêndice D27) e do 3º Ano são 29% (Apêndice D23).

Pontos Positivos;

♣Questão 07(Demonstra possuir conhecimento atualizado): 56% das

respostas foram “sempre”, sendo:

do curso de Ciências Econômicas são 63% (Apêndice D15), do 1º Ano são 72%

(Apêndice D16) e do 4º Ano são 71% (Apêndice D24).

do curso de Secretariado Executivo Trilíngüe são 69% (Apêndice D25), sendo

todas do 1º Ano.

♣Questão 10(Foi pontual): 54% das respostas foram “sempre”,

sendo:

do curso de Adm. Pública são 69% (Apêndice D11), do 1º Ano são 66% (Apêndice

D12), do 2º Ano são 69% (Apêndice D13) e do 5º Ano são 69% (Apêndice D14).

do curso de Secretariado Executivo Trilíngüe são 64% (Apêndice D25), sendo

todas do 1º Ano.

do curso de Ciências Econômicas são 59% (Apêndice D15), do 1º Ano são 67%

(Apêndice D16), do 2º Ano são 64% (Apêndice D17) e do 3º ano são 63%

(Apêndice D18).

♣Questão 12(Cumpre o horário das aulas): 59% das respostas

foram “sempre”, sendo:

do curso de Adm. Pública são 67% (Apêndice D11), do 1º Ano são 69% (Apêndice

D12), do 2º Ano são 71% (Apêndice D13) e do 5º Ano são 67% (Apêndice D14).

Page 91: Jos. Ricardo dos Santos

90

do curso de Secretariado Executivo Trilíngüe são 75% (Apêndice D25), sendo

todas do 1º Ano.

do curso de Ciências Contábeis são 65% (Apêndice D7), do 3º Ano são 71%

(Apêndice D26) e do 5º Ano são 72% (Apêndice D27)

C – Processo Ensino Aprendizagem

Ponto Negativo;

♣Questão 18(Analisa e comenta os resultados das avaliações):

24% das respostas foram “nunca ou raramente”, sendo;

do curso de Adm. Empresas Diurno são 29% (Apêndice D21), do 4º Ano são 41%

(Apêndice D28) e do 5º Ano são 45% (Apêndice D29).

do curso de Adm. Hospitalar são 30% (Apêndice D4), do 1º Ano são 38%

(Apêndice D30) e do 5º Ano são 33% (Apêndice D31);

Ponto Positivo;

♣Questão 15 (Exigiu nas avaliações os conteúdos desenvolvidos):

61% das respostas foram “sempre”, sendo:

do curso de Comércio Exterior Diurno são 66% (Apêndice D1), do 1º Ano são 80%

(Apêndice D32) e do 2º Ano são 66% (Apêndice D10).

do curso de Ciências Econômicas são 65% (Apêndice D15), do 1º Ano são 75%

(Apêndice D16), do 2º Ano são 72% (Apêndice D17) e do 3º Ano são 71%

(Apêndice D18).

do curso de Secretariado Executivo Trilíngüe são 64% (Apêndice D25), sendo

todas do 1º Ano.

Page 92: Jos. Ricardo dos Santos

91

Na Figura 4.1, observamos a comparação entre as médias dos cursos, no

qual foi feito um teste de Tuckey. As células vermelhas indicam 99% de confiança no

teste, as amarelas indicam 95% de confiança e as brancas não apresentam

diferença significativa, ou seja, apesar dos cursos não possuírem médias iguais não

são significativamente diferentes ao nível de 95% de confiança.

Figura 4.1 – Comparação das médias dos cursos quanto ao desempenho docente

4.3.4 Análise dos departamentos

Na figura 4.2 verificamos que o departamento de Métodos Quantitativos é o

melhor da faculdade nas avaliações dos alunos. Sua média não é significativamente

diferente em relação ao departamento de Ciências Humanas, apesar de possuírem

médias diferentes, ao nível de 99% de confiança. O departamento com menor média

é o departamento de Economia. Sua média é significativamente diferente em relação

a todos os departamentos, ao nível de 99 de confiança.

Page 93: Jos. Ricardo dos Santos

92

Figura 4.2 – Comparação das médias dos departamentos quanto ao desempenho

dos docentes.

4.3.5 Análise dos anos

Na figura abaixo, observamos que os alunos dos 2os Anos estão mais

satisfeitos com os seus professores. Sua média é significativamente diferente em

relação aos demais anos.

Figura 4.3 – Comparação das médias dos anos quanto

ao desempenho docente

Page 94: Jos. Ricardo dos Santos

93

5 CONCLUSÕES E RECOMENDAÇÕES

A avaliação institucional precisa ser um elo entre o administrador (direção e

coordenação) e o professor. O primeiro necessita conhecer como está a sua

instituição, na visão dos seus clientes os alunos, e desta forma, dar condições de

trabalho aos professores, para que possam se aperfeiçoar nos seus pontos fracos e

até mesmo trocar experiências com outros docentes, em relação a seus pontos

fortes. Assim a avaliação institucional que foi proposta tem a intenção não de punir

mas sim mostrar pontos relevantes que possam ser úteis para toda comunidade

acadêmica. Só assim será possível construir uma instituição de ensino que almeja

estar no caminho de um crescimento seguro.

5.1 CONCLUSÕES Com a realização deste estudo de caso, foi possível verificar vários pontos

relevantes que irão contribuir para a instituição refletir como um todo. A auto-

avaliação dos alunos, mostrou características interessantes de serem repassadas

para o corpo docente e até mesmo o corpo discente. Em relação aos objetivos do

início do trabalho, pode-se afirmar que todos foram alcançados, conforme mostrado

a seguir:

1)O modelo de avaliação elaborado através da análise de vários questionários,

resultou em um instrumento que alcançou uma confiabilidade acima dos valores

considerados aceitáveis, pelos autores descritos neste trabalho. O índice encontrado

na análise do alfa de Cronbach foi assim determinado:

Para a avaliação dos cursos 0,78;

Para a auto-avaliação dos alunos 0,69;

Para a avaliação dos docentes 0,95.

2)Na avaliação dos cursos quanto a organização didático pedagógica e sua

infra-estrutura, os alunos não atribuíram boas notas, para que fosse possível

ressaltar pontos positivos. Os principais problemas que foram constatados nesta

análise são:

Page 95: Jos. Ricardo dos Santos

94

Os recursos disponíveis para atividades práticas e ou de pesquisa não

correspondem às necessidades da sua formação profissional;

Os cursos não oferecem atividades acadêmicas (iniciação científica,

monitoria, projetos de extensão) para complementar a sua

aprendizagem;

Os cursos não oferecem atividades em parceria e intercâmbios com a

comunidade;

O sistema de atendimento e de informações disponíveis no curso, não

facilitam as atividades acadêmicas;

O ambiente físico da sala de aula não favorece os estudos;

O acervo da biblioteca não atende às necessidades curriculares do

curso.

Diante destas informações, nas quais os alunos estão mostrando sua

indignação com o seu curso, atribuindo médias baixas em quase todos os itens do

questionário, (valores estes já relatados no capitulo quatro), os coordenadores e a

administração da instituição precisam encontrar caminhos para mudar este quadro.

Todos os cursos tiveram médias muito próximas, não diferenciando mais do que 1

ponto numa escala de zero a 10. Um item que ficou com média 5,1 e, desta forma,

não mencionada anteriormente, é a questão 10 (o nível de exigência de

aprendizagem do curso). Apenas 26% dos alunos responderam (quase sempre e

sempre), os outros de alguma forma estão informando que poderiam ser mais

exigidos. Na segunda parte do questionário (auto-avaliação dos alunos)

encontramos uma relação bastante interessante que vem de encontro com esta

posição.

3)A auto avaliação dos alunos apresentou médias relativamente altas, mas, em

geral, pode-se perceber que os discentes estão fazendo somente o mínimo

necessário para exercer sua posição de estudante, ou seja, atribuíram ótimas notas

no seguintes quesitos:

Sou pontual;

Permaneço na aula em seu tempo integral;

Realizo atividades acadêmicas (leituras, trabalhos, testes, exercícios,

pesquisa) previstas nas disciplinas;

Estou integrado com o meu grupo, favorecendo também minha

aprendizagem.

Page 96: Jos. Ricardo dos Santos

95

Observa-se, portanto, que são itens que não exigem nenhum esforço além do

que costumeiramente os alunos são cobrados. As outras duas questões que

requerem um esforço maior do aluno, obtiveram notas inferiores as outras, ou seja,

os alunos não estão:

consultando fontes bibliográficas e

participando das aulas com levantamento de questões e sugestões.

São pontos que realmente fazem a diferença no aprendizado, pois não basta

ter um bom quadro docente, se os alunos não estiverem imbuídos em participar

ativamente do processo ensino-aprendizagem.

4)Na terceira parte do questionário, onde os alunos avaliam os professores,

temos uma divisão bastante significativa quanto às diferenças dos grupos. Apesar

de estarem divididos em quatro grupos que são:

♦A – média maior que 8 e menor ou igual a 10;

♦B – média maior que 6 e menor ou igual a 8;

♦C – média maior que 4 e menor ou igual a 6;

♦D – média maior ou igual a zero e menor ou igual a 4,

Todos obtiveram uma linha de tendência que se aproximam nas oscilações. As

questões a seguir tiveram uma queda em suas médias, em todos os grupos:

Aborda o conteúdo, atendendo aos objetivos da disciplina e do curso;

Indica fontes de consulta adequadas à proposta da disciplina;

Incentiva a participação, discussão e expressão de idéias durante as

aulas;

Apresenta-se motivado ao ministrar as aulas;

Utiliza instrumentos de avaliação adequados à disciplina;

Discute os critérios a serem adotados nos procedimentos de avaliação.

Analisa e comenta os resultados das avaliações com os alunos.

Pode-se observador que no grupo A estas oscilações não foram tão

acentuadas.

Estas questões necessariamente podem ser analisadas e discutidas em cada

curso, com seus coordenadores e professores, e, desta forma, encontrar meios para

melhorar o desempenho dos docentes.

Por outro lado é necessário frisar que não só pontos negativos foram

detectados. Alguns dos pontos fortes detectados e que podem ser constatados

através do gráfico 4.11 (p.86) são que o professor:

Page 97: Jos. Ricardo dos Santos

96

Demonstra possuir conhecimento atualizado do conteúdo que

desenvolve.

Foi freqüente.

Exigiu nas avaliações de aprendizagem os conteúdos desenvolvidos.

O grupo de questões do questionário que se refere à metodologia e técnica de

ensino recebeu as menores médias. Portanto, é fundamental que a instituição

providencie cursos de reciclagem. No anexo 5 verificou-se que alguns professores

que obtiveram média geral acima de 6,0, em algumas questões deste grupo

possuem também certas deficiências na visão dos alunos.

Analisando os cursos na tabela 4.14 (p.87), observamos que os alunos de

Administração de Empresas Noturno e Administração em Comércio Exterior Diurno

e Noturno são os que atribuíram médias aos seus professores, menores que as

médias gerais. Este portanto é um fato que os seus respectivos coordenadores

necessitam detectar onde estão as causas. Pode ser que são alunos mais críticos,

mas, de qualquer forma, existe um descontentamento maior em relação aos demais

cursos.

Na figura 4.19 (p.92), que compara as médias dos cursos através das médias

gerais de cada curso, esta diferença não está tão realçada, pois as médias são

diferentes, mas não são significativas ao nível de 99% de confiança.

Na tabela 4.13 (p.85) verificou-se algo interessante a ser passado para todos

os coordenadores e professores, que são as questões com maior peso na

classificação da função discriminante. Em ordem de importância as três primeiras

são:

1º.O professor demonstra possuir conhecimento atualizado do conteúdo

que desenvolve;

2º.O professor exigiu nas avaliações de aprendizagem os conteúdos

desenvolvidos;

3º.O professor estabelece uma relação de respeito mútuo e atenção com

os alunos.

Nestes critérios, percebemos que os alunos levam em consideração o grau de

conhecimento atualizado, mas não deixa de questionar as avaliações e querem

sempre um bom relacionamento entre professor e aluno.

As duas com menor grau de importância na classificação, são:

1º.O professor utiliza procedimentos didáticos adequados à disciplinas;

Page 98: Jos. Ricardo dos Santos

97

2º.O professor analisa e comenta os resultados das avaliações com os

alunos;

A primeira questão que representa o menor grau de importância, pode ser

justificada com o fato de vários professores serem profissionais liberais nas áreas

que ministram, conhecendo profundamente o assunto, mas não possuem didática

para transmitir adequadamente aos alunos. Para os discentes, o que está

importando é o grau de conhecimento.

Na outra questão, é preciso que coordenadores e professores reflitam o que

estão fazendo quanto a avaliação, pois se os alunos não estão considerando

importante analisar e comentar os resultados de uma avaliação, então o verdadeiro

sentido da avaliação perde o seu significado. Os conteúdos devem ser elos de uma

corrente, e, desta forma, é de vital importância discutir os itens que não foram

compreendidos pelos educandos em uma avaliação.

5.2 RECOMENDAÇÕES Como recomendações para novos trabalhos podemos apresentar três itens:

1º.Fazer duas pesquisas durante o ano. A primeira no final do primeiro

semestre, onde os resultados podem ser discutidos com todos, e a

segunda no final do segundo semestre, para fazer um comparativo se

houve melhora no desempenho.

2º.Fazer uma pesquisa no final do ano, identificando os alunos com suas

respectivas notas. Desta forma poderemos verificar se os alunos

avaliam os seus professores em função das notas que recebem.

3º.Fazer uma auto-avaliação dos professores, para verificar se há relação

com as respostas dos alunos.

Page 99: Jos. Ricardo dos Santos

98

REFERÊNCIAS BIBLIOGRÁFICAS ANDERSON, D. R; SWEENEY, D. J; WILLIAMS, T. A. Estatística Aplicada à Administração e Economia. São Paulo: 2ª edição, Pioneira Thomson Learning, 2002. BARBETTA, P. Alberto. Estatística aplicada às Ciências Sociais. Florianópolis: 3ª edição. Ed. Da UFSC, 1999. GÓES, L; PIRES JUNIOR, A. Provão faz parte de um amplo sistema de avaliação Revista do Provão, Brasília, Nº 1 Ano III, p. 6, 2001. BOUROCHE, Jean-Marie; SAPORTA, Gilbert. Análise de Dados. Rio de Janeiro, Zarah Editores, 1980 BUSSAB, W. de Oliveira; Miazaki, E. Shizue; De.Andrade, D. Francisco. Introdução a Análise de Agrupamentos. São Paulo-SP, 9º Simpósio Nacional de Probabilidade e Estatística, 1990. BUSSAB, W. O; MORETTIN, P. A. Estatística Básica. São Paulo, 4ª edição, Atual, 1985. CAMARGO, C. Celso B. Técnicas de Análise do Comportamento dos Consumidores. Florianópolis-Sc. Apontamentos do curso de Mestrado, 2001. CATANI, A. M; OLIVEIRA, J. F. Educação Superior No Brasil: Petrópolis, Vozes, 2002. CAUMO, T. O que os novos tempos exigem do professor no ensino universitário. EDUCAÇÃO. Porto Alegre, nº 32, Ediprucsl, 1997. COÊLHO, I. M; Avaliação institucional da universidade pública. Avaliação. Campinas, Ano 2. Vol 2. Nº 3. Set/1997. COSTA NETO, P.L. O; Estatística. São Paulo: Edgard Blücher Ltda, 1977. CRIVISQUI, Eduardo. Apresentação da Análise em Componentes Principais. Londrina-PR: Programa Presta, 1995. DE DÉA, R. M. D’Amato. Desempenho substitui papéis e carimbos. Revista do Provão. Brasília: Nº 6, 2001.

DE SOUZA, C. P; Avaliação de aluno universitário: alguns pontos para reflexão. In: SEMINÁRIO INTERNACIONAL SOBRE AVALIAÇÃO NO ENSINO SUPERIOR. 1997. Anais...Uberlândia. DIAS SOBRINHO, J; Avaliação da Educação Superior. Petrópolis: Vozes, 2000.

Page 100: Jos. Ricardo dos Santos

99

DIAS SOBRINHO, J. Avaliação institucional: marcos teóricos e políticos. Avaliação. Campinas, Ano 1. Nº 1. Jul/1996. DOWNING, D; CLARK, J. Estatística Aplicada, São Paulo: Saraiva 1998. GAMA, Z. JAEGGER. O provão morreu. Revista Espaço Acadêmico. Rio de Janeiro: Nº 32 – Jan/2004. LAPPONI, J. C. Estatística usando o Excel. São Paulo: Lapponi Treinamento e Editora, 2000. LEITE, D; TUTIKIAN, J.; HOLZ, N. Avaliação & Compromisso. Porto Alegre: Ed. Universidade/UFRGS, 2000. LORENZONI, L. M; KERTÉSZ, I. Avaliação de desempenho do professor de ensino superior: uma proposta para análise e reflexão. EDUCAÇÃO. Porto Alegre: nº 21, Ediprucsl, 1991.

MACHADO E. C. Barbosa. Avaliação das universidades: Uma proposta nacional. In: SEMINÁRIO ESTADUAL DE AVALIAÇÃO INSTITUCIONAL, 2001, Anais... Itajaí: MOREIRA, Marcos A. Avaliação do professor pelo aluno como instrumento de melhoria do ensino universitário. Educação e Seleção. São Paulo: Nº 3. Jan-Julho/1981.

PASQUALI, Luiz. Questionário de avaliação de docência. Educação e Seleção. São Paulo: Nº 9. Jan-Jun/1984. PEREIRA, J. T. Vieira Avaliação institucional: objetivos e critérios. Avaliação. Campinas, Ano 2. Vol 2. Nº 3. Set/1997. Pereira, J. C. Rodrigues. Análise de Dados Qualitativos. São Paulo:. Edusp, 2001. PORTO, G. Silveira. A decisão empresarial de desenvolvimento tecnológico por meio da cooperação empresa-universidade. 2000. Dissertação (Mestrado) – Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo. São Paulo-SP. RAMOS, M. G. Avaliando o desempenho docente mediante a pesquisa cooperativa. EDUCAÇÃO. Porto Alegre, , nº 33, Ediprucsl, 1997.

RAMOS, Mozart Neves. Um instrumento de avaliação. Revista do Provão. Brasília: Nº 7., 2002. REIS, Elizabeth. Estatística Multivariada Aplicada. Lisboa. Edições Silabo, 1997.

Page 101: Jos. Ricardo dos Santos

100

DIAS SOBRINHO, J. A universidade e o compromisso da avaliação institucional na reconstrução do espaço social. Avaliação. Campinas: Ano 1, Nº 2, Dezembro/1996

NATAL, L; GUEDES, F; MELLO, G. O provão seis anos depois. Revista do Provão, Brasília: Nº 6., 2001. RIVERA, L. E. Stefani. Avaliação da qualidade do ensino-desafio e compromisso. EDUCAÇÃO. Porto Alegre: nº 22, Ediprucsl, 1992. RODRIGUES, M. C. Prates; Potencial de Desemvolvimento dos municípios Fluminenses: Uma metodologia Alternativa ao IQM. Com Base na Análise Fatorial Exploratória e na Análise de Clusters. Caderno de Pesquisas em Administração, São Paulo, v.09, nº 1, janeiro/março 2002. ROSENBERG, Gerson. Desempenho global da fundação oswaldo cruz: um instrumento de auto-avaliação. 2002. Dissertação (Mestrado) - Escola de Química - UFRJ – Rio de Janeiro-RJ. SILVA, E. L. & MENEZES, E. Metodologia da pesquisa e elaboração de dissertação. Florianópolis: Laboratório de Ensino a Distância da UFSC, 2000. SOUZA, Paulo Renato. A revolução do ensino superior. Revista do Provão, Brasília: Nº 5., 2000. SOUZA, Paulo Renato. O ensino superior. Revista do Provão, Brasília: Nº 6., 2001. STEVENSON, William J. Estatística Aplicada à Administração; São Paulo: Harbra, 1981. TOLEDO, G. L. & OVALLE, I. I. Estatística Básica. São Paulo: 2ª edição, Atlas, 1981. TRINDADE, Hélgio. A avaliação institucional das universidades federais: resistência e construção. Avaliação. Campinas: Ano 1, Nº 2, Julho/1996 Valentin, Jean Louis. Ecologia Numérica. Rio de Janeiro. Interciência, 2000. Verdinelli, Miguel Angel. Análise Multivarida. Florianópolis-SC. Apontamentos do curso de mestrado, UFSC, 2001. WONNACOTT, T. H.; WONNACOTT, R. J. Estatística Aplicada à Economia e à Administração. Livros Técnicos e Científicos, Rio de Janeiro, 1981.

Page 102: Jos. Ricardo dos Santos

101

APÊNDICES

Page 103: Jos. Ricardo dos Santos

102

Apêndice A

QUESTIONÁRIO

Page 104: Jos. Ricardo dos Santos

103

QUESTIONÁRIO – 1ª PARTE

Page 105: Jos. Ricardo dos Santos

104

QUESTIONÁRIO – 2ª PARTE

Page 106: Jos. Ricardo dos Santos

105

Apêndice B

CORRELAÇÕES

Page 107: Jos. Ricardo dos Santos

106

Apêndice B1

Tabela 1. Correlação entre as questões do questionário quanto à organização didático-pedagógica e infra-estrutura do curso

Questões .Questões 1 2 3 4 5 6 7 8 9

1 - 2 0,442 - 3 0,236 0,313 - 4 0,239 0,217 0,449 - 5 0,249 0,302 0,216 0,275 - 6 0,218 0,261 0,179 0,150 0,427 - 7 0,255 0,380 0,316 0,302 0,312 0,416 - 8 0,168 0,166 0,215 0,145 0,144 0,114 0,262 - 9 0,265 0,397 0,233 0,141 0,209 0,201 0,320 0,282 - 10 0,267 0,340 0,419 0,389 0,257 0,195 0,408 0,246 0,330

Page 108: Jos. Ricardo dos Santos

107

Apêndice B2

Tabela 2. Correlação entre as questões do questionário quanto à auto-avaliação do aluno

Questão 1 2 3 4 5 1 - 2 0,440 - 3 0,275 0,327 - 4 0,179 0,219 0,433 - 5 0,105 0,215 0,270 0,329 - 6 0,181 0,154 0,300 0,265 0,420

Page 109: Jos. Ricardo dos Santos

108

Apêndice C

MÉDIAS DOS PROFESSORES

Page 110: Jos. Ricardo dos Santos

109

Apêndice C1

Figura 1. Comparação das médias dos professores

Page 111: Jos. Ricardo dos Santos

110

Apêndice C2

Figura 2. Médias das questões por professor

Page 112: Jos. Ricardo dos Santos

111

Apêndice D

FREQÜÊNCIAS DAS QUESTÕES

Page 113: Jos. Ricardo dos Santos

112

Apêndice D1

Gráfico 1. Freqüência das questões do curso de Adm. Com. Exterior Diurno

7%

4%

5%

8%

14%

8%

4%

6%

7%

5%

6%

6%

7%

7%

4%

6%

8%

15%

7%

9%

7%

9%

12%

9%

5%

6%

11%

8%

10%

8%

8%

7%

3%

5%

7%

12%

14%

19%

18%

18%

21%

24%

14%

17%

16%

12%

8%

11%

15%

22%

8%

17%

20%

20%

18%

25%

24%

24%

23%

24%

19%

21%

23%

22%

19%

19%

23%

21%

19%

25%

22%

16%

55%

43%

46%

42%

31%

35%

58%

50%

43%

53%

56%

56%

47%

43%

66%

47%

43%

38%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 114: Jos. Ricardo dos Santos

113

Apêndice D2

Gráfico 2. Freqüência das questões do curso do 3º Ano Adm. Com. Exterior – Diurno

17%

15%

18%

27%

28%

28%

18%

17%

25%

18%

18%

18%

22%

18%

18%

18%

20%

30%

5%

8%

3%

13%

13%

12%

10%

7%

12%

10%

15%

12%

13%

8%

8%

12%

13%

12%

18%

28%

17%

13%

15%

17%

10%

28%

10%

10%

7%

8%

7%

20%

8%

12%

18%

13%

13%

8%

18%

17%

8%

17%

22%

13%

12%

23%

18%

22%

18%

20%

32%

28%

20%

15%

47%

40%

43%

30%

35%

27%

40%

35%

42%

38%

42%

40%

40%

33%

33%

30%

28%

30%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 115: Jos. Ricardo dos Santos

114

Apêndice D3

Gráfico 3. Freqüência das questões do 5º Ano Administração Com. Exterior – Diurno

5%

5%

8%

11%

16%

14%

14%

3%

11%

0%

3%

3%

19%

14%

11%

11%

8%

16%

3%

11%

8%

19%

24%

19%

14%

14%

11%

11%

14%

3%

11%

11%

8%

8%

14%

5%

11%

38%

24%

14%

19%

38%

16%

11%

14%

5%

5%

16%

16%

16%

11%

24%

22%

19%

14%

14%

27%

24%

32%

5%

16%

8%

43%

19%

16%

38%

19%

22%

19%

22%

11%

19%

68%

32%

32%

32%

8%

24%

41%

65%

22%

65%

62%

41%

35%

38%

51%

35%

46%

41%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 116: Jos. Ricardo dos Santos

115

Apêndice D4

Gráfico 4. Freqüência das questões do curso de Adm. Hospitalar

3%

4%

4%

5%

10%

7%

2%

5%

7%

2%

2%

2%

4%

4%

2%

4%

7%

16%

7%

10%

12%

12%

16%

12%

6%

7%

12%

7%

7%

5%

7%

7%

4%

9%

10%

14%

18%

23%

22%

26%

24%

26%

16%

17%

23%

14%

14%

15%

21%

23%

13%

20%

20%

21%

20%

25%

24%

25%

23%

24%

20%

23%

23%

24%

24%

19%

25%

24%

22%

24%

24%

17%

52%

38%

39%

32%

28%

32%

56%

48%

36%

54%

54%

59%

43%

42%

58%

43%

39%

32%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 117: Jos. Ricardo dos Santos

116

Apêndice D5

Gráfico 5. Freqüência das questões do 2º Ano Administração Hospitalar

3%

3%

4%

4%

13%

7%

2%

5%

8%

5%

6%

4%

3%

6%

2%

4%

5%

18%

8%

11%

11%

15%

23%

10%

4%

8%

14%

11%

10%

6%

7%

8%

5%

5%

11%

11%

16%

20%

22%

26%

26%

29%

15%

19%

25%

17%

17%

18%

20%

26%

12%

19%

23%

24%

23%

30%

27%

25%

21%

29%

21%

24%

21%

16%

14%

15%

25%

23%

23%

29%

22%

13%

49%

36%

36%

30%

17%

25%

58%

44%

32%

50%

53%

57%

45%

38%

57%

43%

39%

33%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 118: Jos. Ricardo dos Santos

117

Apêndice D6

Gráfico 6. Freqüência das questões do 3º Ano Administração Hospitalar

3%

7%

6%

9%

14%

11%

4%

7%

9%

1%

0%

1%

5%

7%

2%

9%

13%

14%

6%

13%

16%

12%

14%

18%

12%

7%

14%

5%

2%

5%

9%

7%

5%

14%

12%

15%

21%

31%

22%

28%

26%

22%

18%

14%

21%

12%

14%

13%

25%

21%

15%

21%

18%

20%

16%

23%

22%

27%

23%

21%

21%

29%

22%

29%

25%

21%

26%

29%

21%

20%

28%

24%

54%

27%

34%

25%

22%

28%

44%

43%

35%

53%

59%

60%

35%

36%

58%

36%

29%

27%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 119: Jos. Ricardo dos Santos

118

Apêndice D7

Gráfico 7. Freqüência das questões do curso de Ciências Contábeis

7%

4%

5%

6%

10%

6%

3%

3%

6%

3%

2%

2%

4%

3%

1%

4%

7%

14%

7%

10%

10%

10%

17%

12%

7%

7%

10%

5%

4%

3%

6%

7%

4%

7%

8%

8%

18%

21%

20%

23%

26%

25%

14%

16%

21%

12%

10%

10%

21%

17%

11%

20%

20%

20%

22%

27%

28%

27%

25%

25%

23%

26%

25%

23%

19%

20%

27%

25%

21%

26%

23%

19%

46%

38%

36%

34%

23%

33%

54%

49%

38%

57%

65%

65%

43%

49%

63%

43%

42%

39%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 120: Jos. Ricardo dos Santos

119

Apêndice D8

Gráfico 8. Freqüência das questões do 2º Ano Ciências Contábeis

8%

0%

3%

3%

10%

3%

1%

2%

4%

0%

0%

0%

2%

1%

0%

2%

3%

7%

7%

10%

9%

9%

20%

9%

3%

3%

8%

2%

2%

3%

5%

6%

5%

6%

8%

8%

17%

17%

16%

26%

25%

28%

10%

17%

23%

16%

10%

13%

22%

15%

11%

20%

20%

23%

23%

32%

29%

28%

26%

27%

21%

25%

29%

27%

22%

22%

31%

25%

16%

29%

27%

21%

46%

42%

42%

33%

20%

33%

65%

52%

36%

56%

67%

62%

40%

53%

67%

43%

42%

40%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 121: Jos. Ricardo dos Santos

120

Apêndice D9

Gráfico 9. Freqüência das questões do 4º Ano Ciências Contábeis

12%

8%

12%

10%

22%

9%

4%

7%

14%

0%

0%

0%

5%

5%

2%

12%

18%

33%

10%

14%

11%

10%

26%

18%

12%

13%

11%

9%

2%

2%

11%

10%

6%

15%

10%

11%

22%

32%

29%

25%

25%

31%

22%

24%

29%

22%

19%

13%

26%

22%

17%

24%

25%

20%

21%

20%

22%

21%

14%

14%

16%

30%

20%

29%

22%

25%

28%

27%

20%

25%

22%

13%

34%

25%

27%

33%

13%

28%

46%

25%

25%

40%

57%

60%

30%

36%

55%

24%

25%

23%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 122: Jos. Ricardo dos Santos

121

Apêndice D10

Gráfico 10. Freqüência das questões do 2º Ano de Adm. Com. Exterior Diurno

6%

1%

4%

7%

15%

7%

1%

4%

6%

4%

5%

4%

4%

5%

0%

4%

9%

17%

6%

11%

10%

8%

12%

9%

4%

6%

15%

7%

7%

6%

5%

4%

3%

6%

10%

17%

14%

24%

25%

26%

28%

34%

17%

21%

26%

15%

11%

10%

21%

35%

13%

24%

19%

29%

11%

29%

25%

25%

25%

24%

23%

28%

21%

20%

22%

23%

22%

20%

18%

27%

23%

16%

64%

35%

37%

35%

20%

26%

55%

40%

32%

54%

56%

57%

49%

36%

66%

40%

38%

21%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 123: Jos. Ricardo dos Santos

122

Apêndice D11

Gráfico 11. Freqüência das questões do curso de Adm. Pública

5%

4%

6%

6%

8%

7%

4%

6%

8%

4%

4%

4%

5%

6%

4%

6%

9%

11%

4%

6%

8%

9%

14%

8%

5%

6%

11%

2%

3%

3%

6%

6%

3%

5%

7%

10%

14%

20%

21%

22%

23%

27%

14%

14%

19%

13%

12%

8%

14%

16%

11%

19%

16%

19%

21%

25%

26%

26%

24%

27%

21%

20%

24%

20%

21%

17%

27%

25%

19%

27%

24%

19%

56%

45%

39%

37%

31%

31%

57%

54%

39%

61%

61%

67%

49%

47%

62%

43%

44%

40%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 124: Jos. Ricardo dos Santos

123

Apêndice D12

Gráfico 12. Freqüência das questões do 1º Ano de Adm. Pública

4%

2%

9%

8%

7%

7%

4%

5%

8%

1%

1%

1%

3%

8%

1%

5%

7%

9%

4%

6%

8%

10%

13%

7%

5%

7%

10%

3%

2%

2%

7%

7%

3%

6%

8%

13%

17%

25%

22%

22%

24%

28%

14%

16%

20%

11%

14%

9%

17%

19%

17%

22%

18%

23%

20%

25%

25%

26%

27%

27%

23%

19%

22%

20%

21%

18%

24%

22%

19%

26%

22%

13%

54%

42%

37%

35%

29%

32%

54%

52%

40%

66%

61%

69%

49%

44%

59%

41%

45%

42%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 125: Jos. Ricardo dos Santos

124

Apêndice D13

Gráfico 13. Freqüência das questões do 2º Ano de Adm. Pública

6%

6%

5%

7%

7%

8%

3%

6%

9%

9%

9%

9%

9%

7%

8%

9%

12%

15%

2%

7%

9%

7%

15%

10%

5%

5%

10%

2%

3%

2%

6%

6%

4%

6%

5%

7%

8%

16%

20%

20%

18%

25%

13%

12%

18%

7%

8%

6%

9%

14%

7%

14%

12%

16%

13%

23%

21%

22%

19%

17%

17%

18%

23%

13%

10%

12%

23%

22%

12%

22%

21%

13%

71%

48%

45%

45%

40%

39%

62%

59%

41%

69%

70%

71%

54%

50%

70%

48%

49%

48%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 126: Jos. Ricardo dos Santos

125

Apêndice D14

Gráfico 14. Freqüência das questões do 5º Ano de Adm. Pública

3%

3%

5%

4%

8%

3%

0%

8%

8%

1%

3%

1%

1%

4%

3%

3%

11%

20%

7%

9%

11%

12%

13%

8%

8%

16%

4%

1%

8%

5%

9%

15%

15%

13%

23%

19%

23%

21%

27%

21%

20%

12%

16%

9%

11%

25%

17%

17%

31%

16%

17%

16%

12%

33%

25%

28%

21%

20%

17%

21%

9%

16%

13%

25%

27%

23%

16%

20%

19%

61%

53%

32%

36%

29%

39%

51%

47%

43%

69%

71%

67%

43%

43%

51%

45%

39%

29%

11%

7%

5%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 127: Jos. Ricardo dos Santos

126

Apêndice D15

Gráfico 15. Freqüência das questões do curso de Ciências Econômicas

4%

5%

7%

5%

5%

6%

3%

4%

9%

4%

4%

3%

3%

4%

2%

2%

4%

7%

5%

5%

7%

9%

11%

6%

5%

7%

7%

7%

6%

5%

5%

6%

2%

3%

4%

6%

14%

18%

18%

22%

20%

24%

12%

14%

18%

13%

11%

12%

21%

20%

12%

18%

17%

18%

16%

29%

24%

23%

27%

26%

17%

18%

20%

17%

18%

20%

26%

19%

19%

27%

26%

19%

61%

43%

43%

41%

37%

38%

63%

57%

46%

59%

62%

60%

44%

51%

65%

51%

49%

49%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 128: Jos. Ricardo dos Santos

127

Apêndice D16

Gráfico 16. Freqüência das questões do 1º Ano de Ciências Econômicas

5%

2%

7%

7%

3%

5%

3%

5%

6%

1%

2%

2%

2%

3%

1%

3%

9%

7%

4%

3%

7%

5%

7%

6%

1%

5%

7%

6%

4%

1%

4%

5%

2%

3%

1%

6%

11%

19%

17%

18%

20%

18%

8%

9%

12%

8%

8%

9%

11%

12%

10%

17%

16%

19%

9%

14%

17%

20%

22%

21%

16%

15%

14%

17%

15%

18%

17%

14%

12%

18%

24%

12%

72%

62%

52%

50%

47%

50%

72%

67%

59%

67%

71%

71%

66%

66%

75%

60%

51%

55%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 129: Jos. Ricardo dos Santos

128

Apêndice D17

Gráfico 17. Freqüência das questões do 2º Ano de Ciências Econômicas

5%

5%

8%

4%

6%

5%

3%

4%

10%

3%

2%

1%

3%

4%

2%

2%

2%

5%

4%

4%

8%

10%

10%

6%

6%

8%

7%

6%

6%

5%

3%

5%

1%

0%

3%

6%

13%

14%

17%

19%

17%

27%

12%

14%

17%

10%

9%

9%

25%

24%

8%

13%

13%

11%

17%

35%

28%

26%

29%

27%

18%

20%

26%

17%

20%

23%

28%

20%

18%

31%

26%

22%

61%

41%

38%

40%

38%

36%

61%

54%

40%

64%

63%

62%

41%

48%

72%

54%

56%

56%

0% 20% 40% 60% 80% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 130: Jos. Ricardo dos Santos

129

Apêndice D18

Gráfico 18. Freqüência das questões do 3º Ano de Ciências Econômicas

5%

6%

9%

3%

7%

5%

3%

4%

12%

2%

2%

1%

3%

4%

2%

2%

2%

5%

4%

5%

8%

9%

12%

7%

6%

9%

7%

6%

7%

6%

4%

5%

1%

0%

2%

5%

15%

15%

17%

21%

19%

26%

13%

14%

16%

11%

9%

10%

26%

25%

8%

14%

13%

11%

18%

36%

25%

24%

31%

26%

18%

22%

23%

17%

18%

22%

27%

18%

18%

31%

26%

21%

58%

38%

41%

44%

31%

35%

59%

51%

42%

63%

64%

61%

40%

48%

71%

54%

56%

58%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 131: Jos. Ricardo dos Santos

130

Apêndice D19

Gráfico 19. Freqüência das questões do 4º Ano de Com. Exterior Diurno

20%

19%

15%

22%

25%

15%

12%

19%

19%

15%

15%

19%

19%

20%

17%

17%

15%

22%

5%

14%

15%

14%

12%

15%

17%

14%

27%

14%

36%

29%

24%

19%

7%

10%

7%

25%

17%

14%

19%

20%

39%

36%

34%

29%

15%

22%

10%

17%

20%

31%

7%

25%

34%

14%

15%

29%

20%

19%

12%

20%

22%

15%

17%

15%

5%

12%

27%

14%

29%

20%

20%

12%

42%

25%

31%

25%

12%

14%

15%

24%

22%

34%

34%

24%

10%

17%

41%

27%

24%

27%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

3

5

7

9

11

13

15

17

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 132: Jos. Ricardo dos Santos

131

Apêndice D20

Gráfico 20. Freqüência das questões do 3º Ano de Adm. Pública

11%

7%

10%

10%

13%

10%

8%

8%

10%

4%

2%

2%

5%

7%

4%

9%

12%

13%

6%

7%

7%

9%

14%

4%

5%

7%

15%

3%

2%

2%

5%

4%

4%

6%

6%

11%

14%

17%

21%

21%

24%

31%

14%

13%

20%

15%

10%

9%

15%

14%

12%

14%

18%

19%

30%

29%

26%

32%

27%

34%

26%

27%

25%

27%

27%

21%

32%

33%

26%

29%

27%

27%

39%

40%

37%

28%

22%

22%

47%

46%

30%

51%

59%

65%

42%

42%

54%

42%

38%

30%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 133: Jos. Ricardo dos Santos

132

Apêndice D21

Gráfico 21. Freqüência das questões do curso de Adm. Empresas-Diurno

8%

6%

7%

8%

9%

9%

6%

9%

7%

6%

6%

7%

7%

5%

6%

9%

15%

6%

10%

8%

10%

13%

8%

7%

10%

8%

6%

8%

8%

9%

5%

6%

10%

14%

18%

20%

20%

24%

24%

26%

17%

18%

23%

17%

15%

16%

19%

20%

12%

20%

16%

19%

18%

23%

27%

23%

24%

26%

19%

23%

23%

22%

21%

18%

27%

26%

22%

27%

26%

23%

50%

41%

38%

36%

30%

31%

55%

46%

35%

46%

51%

51%

39%

38%

56%

41%

39%

29%

3% 5%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 134: Jos. Ricardo dos Santos

133

Apêndice D22

Gráfico 22. Freqüência das questões do 2º Ano de Adm. Empresas Diurno

12%

9%

8%

10%

11%

11%

3%

8%

12%

13%

14%

12%

12%

11%

8%

10%

12%

20%

5%

17%

10%

11%

11%

6%

6%

6%

11%

11%

10%

8%

10%

11%

9%

5%

9%

10%

13%

16%

17%

18%

24%

24%

18%

17%

20%

14%

12%

15%

14%

18%

12%

26%

13%

20%

13%

19%

26%

21%

20%

26%

15%

22%

20%

17%

15%

17%

22%

26%

16%

20%

24%

20%

57%

40%

39%

39%

34%

32%

57%

47%

37%

44%

49%

49%

42%

34%

55%

39%

41%

30%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 135: Jos. Ricardo dos Santos

134

Apêndice D23

Gráfico 23. Freqüência das questões do 3º Ano de Adm. Empresas-Diurno

11%

10%

11%

13%

19%

17%

7%

13%

17%

10%

10%

5%

13%

13%

11%

14%

17%

18%

8%

14%

8%

11%

11%

10%

9%

14%

9%

10%

7%

11%

10%

16%

8%

8%

8%

17%

22%

18%

22%

20%

23%

27%

23%

15%

20%

22%

22%

17%

14%

19%

20%

20%

19%

20%

17%

23%

18%

19%

17%

16%

21%

19%

20%

19%

19%

21%

28%

16%

22%

23%

22%

18%

43%

36%

40%

38%

30%

31%

40%

39%

34%

39%

42%

46%

35%

36%

39%

36%

34%

27%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 136: Jos. Ricardo dos Santos

135

Apêndice D24

Gráfico 24. Freqüência das questões do 4º Ano de Ciências Econômicas

0%

3%

2%

3%

1%

2%

1%

2%

4%

10%

10%

5%

0%

0%

0%

2%

5%

7%

8%

2%

9%

10%

3%

3%

2%

4%

5%

6%

3%

2%

3%

2%

2%

7%

7%

17%

19%

17%

27%

23%

23%

10%

19%

21%

22%

14%

16%

16%

13%

14%

19%

23%

26%

21%

38%

29%

25%

28%

30%

16%

12%

21%

18%

23%

27%

46%

28%

29%

27%

30%

28%

54%

32%

50%

36%

38%

42%

71%

65%

50%

45%

48%

50%

35%

55%

56%

51%

38%

34%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 137: Jos. Ricardo dos Santos

136

Apêndice D25

Gráfico 25. Freqüência das questões do curso de Secretariado Exec. Trilíngüe

1%

2%

4%

4%

8%

5%

1%

3%

5%

0%

1%

0%

2%

2%

1%

1%

8%

9%

4%

6%

10%

11%

14%

9%

8%

9%

8%

3%

3%

3%

6%

6%

1%

3%

7%

13%

15%

19%

18%

21%

23%

19%

10%

13%

18%

12%

16%

9%

15%

20%

7%

15%

16%

20%

24%

21%

20%

21%

19%

17%

11%

15%

19%

21%

24%

13%

17%

11%

14%

28%

22%

27%

56%

51%

48%

42%

37%

51%

69%

61%

50%

64%

56%

75%

60%

61%

77%

53%

46%

31%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 138: Jos. Ricardo dos Santos

137

Apêndice D26

Gráfico 26. Freqüência das questões do 3º Ano de Ciências Contábeis.

4%

5%

3%

7%

9%

9%

4%

2%

7%

11%

8%

10%

9%

8%

3%

4%

8%

17%

7%

8%

13%

8%

14%

12%

4%

3%

13%

4%

4%

2%

5%

5%

3%

4%

5%

6%

14%

24%

26%

29%

27%

24%

13%

16%

22%

4%

7%

8%

20%

23%

10%

21%

22%

19%

28%

26%

33%

27%

22%

28%

29%

24%

29%

19%

16%

9%

26%

23%

24%

27%

24%

16%

48%

38%

25%

29%

29%

27%

49%

55%

30%

63%

65%

71%

41%

41%

60%

43%

42%

42%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 139: Jos. Ricardo dos Santos

138

Apêndice D27

Gráfico 27. Freqüência das questões do 5º Ano de Ciências Contábeis.

9%

3%

6%

7%

2%

4%

1%

0%

2%

0%

0%

0%

3%

1%

0%

3%

3%

5%

5%

12%

11%

7%

11%

22%

14%

4%

11%

2%

4%

5%

8%

14%

4%

6%

13%

5%

13%

31%

23%

29%

22%

23%

17%

9%

20%

6%

11%

8%

13%

17%

13%

20%

12%

14%

17%

32%

32%

26%

43%

25%

27%

31%

15%

18%

11%

15%

27%

24%

21%

25%

36%

13%

56%

23%

28%

29%

22%

25%

41%

56%

53%

74%

75%

72%

48%

44%

62%

45%

37%

63%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 140: Jos. Ricardo dos Santos

139

Apêndice D28

Gráfico 28. Freqüência das questões do 4º Ano de Adm. Empresas - Diurno.

6%

4%

5%

7%

5%

4%

4%

3%

8%

4%

7%

3%

4%

5%

3%

4%

5%

15%

3%

5%

8%

11%

17%

13%

2%

10%

15%

7%

7%

21%

8%

12%

4%

9%

15%

26%

9%

23%

24%

38%

35%

38%

22%

31%

36%

22%

14%

21%

43%

26%

12%

27%

18%

22%

15%

24%

29%

20%

29%

33%

22%

24%

25%

24%

26%

21%

34%

36%

27%

26%

24%

23%

68%

43%

34%

24%

13%

12%

49%

31%

16%

43%

47%

34%

10%

21%

54%

34%

38%

14%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 141: Jos. Ricardo dos Santos

140

Apêndice D29

Gráfico 29. Freqüência das questões do 5º Ano de Adm. Empresas - Diurno.

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

0%

27%

27%

18%

18%

18%

0%

9%

18%

18%

9%

0%

18%

18%

27%

18%

18%

45%

36%

18%

9%

18%

27%

27%

45%

27%

18%

36%

18%

82%

27%

45%

18%

36%

18%

0%

27%

36%

18%

18%

45%

45%

27%

18%

45%

18%

9%

0%

45%

9%

9%

9%

9%

36%

36%

18%

45%

45%

9%

9%

27%

45%

18%

27%

64%

18%

9%

27%

45%

36%

55%

18%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 142: Jos. Ricardo dos Santos

141

Apêndice D30

Gráfico 30. Freqüência das questões do 1º Ano de Adm. Hospitalar.

3%

4%

3%

4%

9%

9%

1%

5%

6%

1%

0%

1%

4%

3%

2%

2%

5%

19%

10%

8%

13%

13%

13%

13%

3%

7%

13%

5%

6%

4%

5%

5%

4%

8%

9%

19%

19%

21%

20%

26%

20%

20%

15%

18%

19%

10%

12%

14%

23%

23%

13%

22%

19%

21%

20%

23%

27%

24%

25%

25%

19%

19%

25%

28%

25%

21%

24%

22%

25%

27%

26%

16%

49%

43%

37%

32%

33%

33%

62%

51%

37%

56%

57%

60%

44%

46%

56%

41%

41%

25%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 143: Jos. Ricardo dos Santos

142

Apêndice D31

Gráfico 31. Freqüência das questões do 5º Ano de Adm. Hospitalar.

4%

3%

3%

7%

4%

6%

4%

3%

3%

0%

1%

1%

4%

3%

4%

4%

8%

15%

8%

10%

7%

13%

8%

14%

8%

14%

11%

8%

7%

7%

11%

15%

7%

13%

13%

18%

17%

28%

34%

27%

32%

38%

20%

23%

39%

23%

24%

23%

21%

30%

10%

21%

24%

30%

27%

30%

14%

27%

20%

18%

14%

32%

24%

28%

25%

21%

27%

28%

27%

21%

30%

17%

44%

30%

42%

27%

35%

24%

54%

28%

23%

41%

42%

48%

37%

24%

52%

41%

25%

20%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre

Page 144: Jos. Ricardo dos Santos

143

Apêndice D32

Gráfico 32. Freqüência das questões do 1º Ano de Com. Exterior - Diurno.

4%

1%

1%

2%

7%

3%

1%

2%

3%

3%

3%

2%

2%

2%

0%

2%

4%

8%

9%

6%

3%

6%

10%

5%

1%

3%

4%

6%

6%

5%

6%

5%

1%

2%

3%

6%

12%

11%

12%

12%

13%

16%

8%

11%

11%

9%

7%

10%

10%

13%

5%

10%

18%

17%

25%

26%

24%

25%

25%

28%

16%

20%

24%

24%

20%

15%

26%

24%

14%

24%

22%

16%

50%

56%

59%

54%

45%

48%

74%

64%

58%

57%

64%

68%

56%

56%

80%

61%

52%

52%

0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

Que

stõe

s

Nunca Raramente Na Média Quase Sempre Sempre