Dissertação - NOME - Programa de Pós-Graduação em ...€¦ · universidade paulista programa...
Transcript of Dissertação - NOME - Programa de Pós-Graduação em ...€¦ · universidade paulista programa...
UNIVERSIDADE PAULISTA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DA PRODUÇÃO
ASPECTOS DA QUALIDADE EM TECNOLOGIA DA
INFORMAÇÃO APOIADOS NA LÓGICA PARACONSISTENTE
ANOTADA EVIDENCIAL E
Dissertação apresentada ao Programa de Pós-graduação em Engenharia de Produção da Universidade Paulista - UNIP, para obtenção do título de Mestre em Engenharia de Produção.
PRISCILA FACCIOLLI S. L. TAVARES
SÃO PAULO
2016
UNIVERSIDADE PAULISTA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA DA PRODUÇÃO
ASPECTOS DA QUALIDADE EM TECNOLOGIA DA
INFORMAÇÃO APOIADOS NA LÓGICA PARACONSISTENTE
ANOTADA EVIDENCIAL E
Dissertação apresentada ao Programa de Pós-graduação em Engenharia de Produção da Universidade Paulista - UNIP, para obtenção do título de Mestre em Engenharia de Produção.
Orientador: Prof. Dr. Jair Minoro Abe
Área de Concentração: Gestão de Sistemas de Operação
Linha de Pesquisa: Métodos Quantitativos em Engenharia de Produção
Projeto de Pesquisa: Processos Decisórios baseados em Lógicas Não- Clássicas
PRISCILA FACCIOLLI S. L. TAVARES
SÃO PAULO
2016
Tavares, Priscila Facciolli Serafim de Lima. Aspectos da qualidade em Tecnologia da Informação apoiados na
Lógica Paraconsistente Anotada Evidencial Et / Priscila Facciolli Serafim de Lima Tavares. - 2016.
101 f.: il. color. + DVD.
Dissertação de Mestrado Apresentada ao Programa de Pós-Graduação em Engenharia da Produção da Universidade Paulista, São Paulo, 2016.
Área de Concentração: Processos decisórios baseados em lógicas
não clássicas. Orientador: Prof.º Dr. Jair Minoro Abe.
1. Qualidade em tecnologia da informação. 2. Qualidade de software. 3. Lógica Paraconsistente Anotada Evidencial Et. I. Abe, Jair Minoro. (orientador). II. Título.
PRISCILA FACCIOLLI S. L. TAVARES
ASPECTOS DA QUALIDADE EM TECNOLOGIA DA
INFORMAÇÃO APOIADOS NA LÓGICA PARACONSISTENTE
ANOTADA EVIDENCIAL E
Dissertação apresentada para o Programa de Pós-graduação em Engenharia de Produção da Universidade Paulista - UNIP, para obtenção do título de Mestre em Engenharia de Produção.
Aprovado em: __/__/__
BANCA EXAMINADORA
__________________________________ __/__/__ Prof. Dr. Jair Minoro Abe UNIP - Universidade Paulista ________________________________ __/__/__ Prof. Dr. José Benedito Sacomano UNIP - Universidade Paulista ________________________________ __/__/__ Prof. Dr. Nelio Fernando dos Reis IFSP - Instituto Federal de São Paulo ________________________________ __/__/__ Prof. Dr. Pedro Luiz da Costa Neto UNIP - Universidade Paulista ________________________________ __/__/__ Prof. Dr. Claudio Rodrigo Torres Universidade Metodista de São Paulo
DEDICATÓRIA
Aos meus pais, que me ensinaram a direção correta da vida, a honestidade, a sempre
seguir em frente mesmo quando o caminho era incerto e me ampararam em todos os momentos
da vida.
Ao meu marido e melhor amigo, Ricardo Tavares, por me motivar e acreditar no meu
potencial e ter-me oferecido um grande apoio durante meus estudos.
Às minhas filhas, Beatriz e Heloísa, razões da minha vida, por entenderem a minha
ausência em função do desenvolvimento deste trabalho e que meu legado seja seguido por elas.
AGRADECIMENTOS
Expresso a mais profunda gratidão às seguintes pessoas que permitiram a
feitura deste trabalho:
Minha gratidão ao Prof. Dr. Jair Minoro Abe, meu mentor e orientador, por seu
direcionamento precioso na condução de minha pesquisa, por sua paciência e
humildade, que me fizeram crescer academicamente e também melhorar como
pessoa.
À Vice-Reitoria de Pós-Graduação e Pesquisa da Universidade Paulista –
UNIP pela bolsa de fomento a mim concedida, que foi de muita valia para a
condução de minha dissertação.
Às amigas, minhas irmãs por consideração: Eliane Sampaio e Adriana Rita
Moraes, por me apoiarem em todos os momentos da nossa amizade.
Aos novos amigos conquistados: Cristina Correa de Oliveira, Genivaldo
Carlos Silva, Elizangela Menegassi de Lima, Avelino Palma Pimenta Jr e André
Gomes de Lira, pela nossa cumplicidade neste período de estudos.
Palavras jamais serão suficientes para agradecer a Liliam Sakamotto, que
além de amiga, foi uma parceira imprescindível em nossas pesquisas científicas
realizadas.
À Profa Dra. Karina Oliveira, pela amizade e auxílio em minha pesquisa.
Ao Prof. Dr. José Benedito Sacomano, para o qual nenhum agradecimento
será suficientemente justo pelas contribuições e acolhimento em meus estudos.
Ao Prof. Dr. Nélio Fernando dos Reis, pela grande contribuição para o
aprimoramento de minha dissertação, que de forma amiga me incentivou a participar
de publicações internacionais, um agradecimento especial.
Aos professores do curso de Pós Graduação em Engenharia de Produção da
UNIP, que contribuíram para meu aprimoramento acadêmico: Prof. Dr. Oduvaldo
Vendrametto, Prof. Dr. Pedro Luiz de Oliveira Costa Neto, Prof. Dr. João Gilberto
Mendes dos Reis e Profa. Dra. Irenilza de Alencar Nääs e também ao Programa de
Pós Graduação, em especial à secretária Sr.ª Márcia Nunes.
“A mente que se abre a um novo aprendizado jamais voltará ao seu tamanho original”
(Albert Einstein)
RESUMO
As qualidades prestadas nos serviços em Tecnologia da Informação desempenham papel fundamental nas organizações que convivem com um mercado cada vez mais hostil e competitivo, necessitando de apoio estratégico, que garantam rentabilidade e longevidade aos seus negócios. O objetivo deste trabalho é avaliar pela visão dos usuários e especialistas em TI se as ferramentas e normas internacionais referentes à qualidade de software estão sendo empregadas nos seguintes aspectos da TI: em softwares Enterprise Resource Planning (ERP), incidentes em infraestrutura e serviços prestados em telecomunicações e ainda em quais questões apresentam vulnerabilidades. O método aplicado neste estudo está baseado na Lógica
Paraconsistente Anotada Evidencial E (Lógica E), uma lógica não clássica que a partir do tratamento de dados fornecidos por especialistas, pode demonstrar situações com informações imprecisas ou conflitantes e auxiliar as organizações na tomada de decisão. Foi desenvolvida uma pesquisa teórica, que envolveu a revisão
da literatura sobre os aspectos de TI escolhidos e sobre a Lógica E e também pesquisas empíricas, em que a partir de questionários on-line obteve-se dados
quantitativos e com a aplicação da Lógica E, houveram resultados que auxiliarão as organizações de TI a aperfeiçoarem seus processos, produtos e serviços prestados, aumentando a satisfação de seus clientes. Palavras chaves: Qualidade em Tecnologia da Informação. Qualidade de Software.
Incidentes em TI. Telecomunicações. Lógica Paraconsistente Anotada Evidencial E.
ABSTRACT
The quality given in the services of Information Technology performs fundamental role in the organizations that coexist in an increasingly competitive and holstile market. Therefore a strategical support is required to guarantee the cost-effectiveness and longevity to their business.The aim of this work is to evaluate through the users vision and experts in IT if the referring tools and international norms of the quality of software are being used in the following aspects of TI in softwares Enterprise Resource Planning (ERP), incidents in infrastructure and services given in telecommunications. The method applied in this study is based on
Paraconsistent Annotated Evidential Logic E a non-classical logic which on the basis of data supplied by on the experts, can perform accurate and conflicting information and contribute to help the organizations in decision making processes. A theoretical research was considered taking into account the revision of literature on
aspects of IT and Logic E and empirical research was also developed. On-line questionnaires have provided quantitative data and with the application of the Logic
Econcepts, that will help the IT organizations in the future to improve their processes, products and services and increase the satisfaction of their customers. Keywords: Quality in Information Technology. Software Quality. IT incidents.
Telecommunications. Paraconsistent Logic Annotated Evidential E.
LISTA DE FIGURAS
Figura 1 – Componentes da Tecnologia da Informação ............................................ 14
Figura 2 – Reticulado .............................................................................................. 41
Figura 3 – Estados extremos e não-extremos ........................................................... 43
Figura 4 – Estados extremos e não-extremos com limite indicado nos eixos ........... 43
LISTA DE TABELAS
Tabela 1 – O mercado mundial de TI - 2015 ............................................................. 24
Tabela 2 – Indicadores do Mercado Brasileiro de Software/Serviços - 2015 ............ 25
Tabela 3 – Segmentação do Mercado Brasileiro de Serviços ................................... 25
Tabela 4 – Comparação entre as Normas Internacionais de Qualidade de
Software .................................................................................................................... 29
Tabela 5 – Comparação entre as Normas Internacionais de Qualidade de
Software .................................................................................................................... 31
Tabela 6 – Distribuição das organizações por percentual da receita proveniente de
softwares e serviços relacionados ao triênio 2006, 2007 e 2008 .............................. 32
Tabela 7 – Estados extremos .................................................................................... 42
Tabela 8 – Valores não extremos .............................................................................. 44
LISTA DE GRÁFICOS
Gráfico 1 – Pesquisa Business Forum ...................................................................... 16
Gráfico 2 – O mercado mundial de TI - 2015 ............................................................ 23
Gráfico 3 – Distribuição mundial de TI no Mundo ...................................................... 24
Gráfico 4 – Distribuições das organizações por tipo de Atividade ............................. 31
Gráfico 5 – Distribuição das organizações - Região onde se localizam .................... 32
Gráfico 6 – Distribuição das organizações de acordo com o tipo de produto de
software que desenvolve (valor absoluto - quantidade de organizações). ................ 33
Gráfico 7 – Distribuição das organizações de acordo com a frequencia de inclusão
de metas ou diretrizes de qualidade e produtividade nos planos. ............................. 34
Gráfico 8 – Distribuição das organizações em relação á certificação usando a Norma
ISO 9000. .................................................................................................................. 35
Gráfico 9 – Distribuição das organizações de acordo com a situação em relação à
avaliação usando o modelo de referência CMMI ...................................................... 35
Gráfico 10 – Distribuição das organizações de acordo com a frequência da medição
do desempenho do processo de software ................................................................. 36
Gráfico 11 – Distribuição das organizações de acordo com a utilização de normas
para requisitos de qualidade de software .................................................................. 36
Gráfico 12 – Distribuição das organizações de acordo com a frequência da
identificação das expectativas ou necessidades dos clientes ................................... 37
LISTA DE ABREVIATURAS E SIGLAS
ABNT Associação Brasileira de Normas Técnicas
AND Palavra inglesa que denomina o conjunto “e”
CMMI Capability Maturity Model Integration
ERP Enterprise Resource Planning
Gce Grau de certeza
Gin Grau de incerteza
ISA International Federation of the National Standardizing
Associations ISO International Organization Standardization
IEEE Institute of Electrical and Electronics Enginners
ITIL Information Technology Infrastructure Library
ISSO International Organization for Standardization
Lógica E Lógica Paraconsistente Anotada Evidencial E
NBR Norma Brasileira
OR Operador lógico “ou"
OS Ordem de Serviço
PDCA Lan-Do-Check-Adjust
SEI Software Engineering Institute
SI Sistemas de Informação
TELECOM Telecomunicações
TI Tecnologia da Informação
TIC Tecnologias da Informação e Comunicação
TQM Total Quality Management
UNSCC United Nations Standards Coordinating Committee
µ Letra grega mi que simboliza evidência favorável
Letra grega lambda que simboliza evidência contrária
F Estado Lógico Extremo Falso
V Estado Lógico Extremo Verdadeiro
Estado Lógico Extremo Paracompleto
T Estado Lógico Extremo Inconsistente
SUMÁRIO
1 CENÁRIO SOBRE A TI PARA AS ORGANIZAÇÕES ......................................... 14
1.1 Alguns Problemas Centrais em TI ................................................................. 15
1.2 Problemas de Pesquisa ................................................................................. 16
1.3 Hipótese ........................................................................................................ 17
1.4 Justificativa para o tema escolhido ................................................................ 17
1.5 Objetivos ....................................................................................................... 18
1.5.1 Objetivo Geral .................................................................................... 18
1.5.2 Objetivos Específicos ......................................................................... 18
1.6 Estrutura do Trabalho .................................................................................... 19
2 QUALIDADE NOS SERVIÇOS PRESTADOS PELA TI ....................................... 20
2.1 Pensamentos sobre Serviços ........................................................................ 20
2.2 Histórico da qualidade mundial e seus conceitos .......................................... 21
2.3 Panorama dos serviços em TI no Brasil e no mundo .................................... 22
2.4 Qualidade em Software ................................................................................. 25
2.4.1 Engenharia de Software ..................................................................... 26
2.4.2 Pensamentos sobre Qualidade de Software. ..................................... 28
2.4.3 Normas internacionais e ferramentas para a Qualidade de Software 29
2.4.4 Panoramas sobre Qualidade de Software no Brasil ........................... 30
3 LÓGICA PARACONSISTENTE ANOTADA EVIDENCIAL E (LÓGICA E) ....... 38
3.1 Origem histórica ............................................................................................ 38
3.2 A Lógica E.................................................................................................... 40
3.3 O Reticulado ............................................................................................... 40
3.4 Algoritmo Para-Analisador ............................................................................. 44
4 METODOLOGIA DE PESQUISA .......................................................................... 46
4.1 Coleta, análises e resultados dos dados obtidos por artigos: ........................ 46
5 RESULTADOS ..................................................................................................... 49
5.1 Artigo 1 .......................................................................................................... 49
5.2 Artigo 2 .......................................................................................................... 57
5.3 Artigo 3 .......................................................................................................... 71
5.4 Artigo 4 .......................................................................................................... 79
6 CONSIDERAÇÕES FINAIS .................................................................................. 88
6.1 Resultados..................................................................................................... 88
6.2 Contribuições ................................................................................................. 90
6.3 Trabalhos futuros ........................................................................................... 91
6.4 Considerações finais ..................................................................................... 91
REFERÊNCIAS BIBLIOGRÁFICAS ......................................................................... 93
ANEXOS ................................................................................................................... 97
Anexo I – Motivos de Incidentes Críticos em Infraestrutura de TI ........................ 97
Anexo II – Questionário sobre qualidade em Software ERP ................................. 99
14
1 CENÁRIO SOBRE A TI PARA AS ORGANIZAÇÕES
Nas últimas décadas, o ambiente organizacional foi marcado por mudanças
significativas. A globalização tem obrigado as empresas a se preocuparem, além dos
custos, com aspectos ligados à satisfação do cliente, diferenciação de produtos e
com a qualidade de seus serviços prestados. Nesse âmbito, as empresas procuram
melhorar a qualidade e reduzir custos na tentativa de se diferenciar e aumentar a
percepção de valor de seus produtos para seus clientes.
A área de Tecnologia da Informação (TI), mesmo que involuntariamente,
tornou-se o centro do ambiente empresarial, exercendo papel decisivo para a
competitividade atribuída ao negócio.
Caracteriza-se Tecnologia da Informação por um conjunto integrado de
atividades, realizadas através de recursos tecnológicos, computacionais e humanos
para geração, utilização e disseminação de informações, criando soluções
inteligentes para maior vantagem competitiva e agilidade na tomada de decisões.
Um outro olhar sobre a definição de TI trata que, além do processamento de
dados, sistemas de informação, engenharia de software, informática ou o conjunto
de hardware e software, há também aspectos humanos, administrativos e
organizacionais.
A TI envolve sistemas de informação, com o uso de hardware e software,
telecomunicações, automação, recursos multimídia, utilizados pelas organizações
para fornecer dados, informações e conhecimento, representado na Figura 1:
Figura 1 – Componentes da Tecnologia da Informação
Fonte: O’Brien (2013).
15
Destacam-se três razões fundamentais para aplicar a TI nas empresas:
Suporte operacional e em seus processos;
Suporte na tomada de decisão gerencial;
Suporte estratégico em busca de vantagens competitivas.
A diferença entre Sistemas de Informação (SI) e Tecnologia da Informação
(TI) é que em SI, são questões relativas ao fluxo de trabalho, pessoas e informações
envolvidas, já por TI, aspectos técnicos, infraestrutura e hardware e também
abrangendo os softwares.
A utilização dos recursos de TI cresce rapidamente nas organizações. A cada
dia, as empresas estão mais dependentes da TI para atender as necessidades de
seus negócios e com o aumento pela demanda de TI há a exigência de maior
qualidade na entrega dos serviços prestados.
A qualidade em TI pode ser interpretada como quesito fundamental para
atender as necessidades do negócio corporativo, satisfazer os requisitos
mercadológicos e ponto importante para a sobrevivência das organizações.
1.1 Alguns Problemas Centrais em TI
Para as empresas em que a TI apresenta papel estratégico, a percepção dos
gestores quanto à qualidade dos serviços prestados pela TI não tem sido aceitável
pelo mercado. Apesar do muito em que se investe em TI, os benefícios não são
efetivamente visíveis ou alcançados, os projetos não cumprem prazos e orçamentos,
os requisitos solicitados são entregues parcialmente e com atraso.
Também são vistos problemas de identificação e priorização de incidentes
críticos em infraestrutura, além da baixa qualidade em softwares.
Ressaltam-se graves problemas na estivativa e cumprimento de orçamentos e
na qualidade de muitos serviços e produtos fornecidos pela TI a seus clientes, o que
pode causar problemas como: paradas não programadas da equipe operacional por
bug de software, requisitos entregues que não atendem as necessidades iniciais
apontadas pelo cliente no começo do projeto, problemas na tomada de decisões por
informações serem disponibilizadas com atraso ou com baixa confiabilidade, entre
outros.
16
No IT Business Forum, realizado pela IT Midia S.A., 54 executivos brasileiros
participantes do evento foram questionados sobre quais seriam os principais
problemas apresentados pela TI, apontaram para falta de integração com outras
áreas, conhecimento do negócio e falta de planejamento como as carências
principais encontradas nas organizações de TI, indicado no Gráfico 1:
Gráfico 1 – Pesquisa Business Forum
Fonte: Silva (2006).
1.2 Problemas de Pesquisa
Enquanto o tema de uma pesquisa é uma proposição até certo ponto
abrangente, a formulação do problema é mais específica: indica exatamente qual a
dificuldade que se pretende resolver.
Formular o problema consiste em dizer de maneira explicita, clara,
compreensível e operacional, qual a dificuldade defrontada e o que se pretende
resolver, limitando seu campo e apresentando suas características. O objetivo da
formulação da pesquisa é torná-la individualizada, específica e inconfundível.
O problema de pesquisa proposto para esta dissertação é: Para os
componentes da TI: Redes (Telecomunicações), Hardware (Infraestrutura) e
Software, conforme Fig.1, estudar quais são os aspectos que necessitam de
adequações, para a prestarem melhores serviços às organizações.
Os três componentes citados acima forma selecionados pois são os
segmentos que possuem maior representatividade em TI (monetária e de usuários) e
concentram maiores índices de insatisfação por parte das organizações.
Uma avaliação dos problemas enfrentados pelos componentes da TI são
suporte para uma cultura voltada para o foco no cliente, prestando melhores
serviços, com maior satisfação e conhecimento das expectativas e necessidades
desse cliente.
Qual a principal carência que você sente na sua equipe de TI? Respostas (%)
Falta de integração com outras áreas 35%
Conhecimento do negócio da empresa 26%
Falta de planejamento 19%
Conhecimento técnico 13%
Outros 7%
17
Diante desse cenário, é necessário definir métricas e metas que devem apoiar
os departamentos de TI, referentes ao seu desempenho, atendimento ao cliente e
que estejam alinhados com a estratégia organizacional para o alcance de resultados
empresariais. Faz-se necessário definir quais são os fatores críticos de sucesso para
aferição da qualidade de serviços de TI.
1.3 Hipótese
Uma vez formulado o problema de pesquisa propõe-se uma resposta
“suposta, provável e provisória”, isto é, uma hipótese.
Hipótese é um enunciado geral de relações entre variáveis (fatos e
fenômenos), formulado com a solução provisória para determinado problema,
aplicando caráter explicativo ou preditivo.
Um estudo deve ter pelo menos duas variáveis: dependente e independente.
A hipótese para este trabalho contempla: ao se aplicar quesitos de qualidade
nos serviços prestados pela TI, é possível monitorar e controlar as entregas de
serviços dessa área.
Variável dependente: TI sendo área meio em qualquer segmento empresarial.
Variável independente: A concorrência no mercado globalizado em que as
organizações se encontram.
1.4 Justificativa para o tema escolhido
Não sendo possível um pesquisador dominar a totalidade de uma ciência
específica, faz-se necessário selecionar um tema que possa ser tratado em
profundidade.
Vantagens:
Possibilidade de investigar em profundidade o tema escolhido;
Encontrar um método mais adequado;
Consultar artigos especializados no assunto.
Qualidade:
Relativa aos meios físicos disponíveis (tempo e dinheiro);
Exequibilidade.
18
A fim de atender a melhoria das expectativas discutidas anteriormente, faz-se
necessário adotar para recursos de TI, modelos padronizados e eficazes de gestão
que promovam serviços com valor agregado para auxiliar os gestores na tomada de
decisão.
1.5 Objetivos
1.5.1 Objetivo Geral
O objetivo deste trabalho é analisar pelo olhar dos especialistas em TI
(usuários, analistas de service desk, analistas de sistemas e gerentes) se nos
aspectos da TI referentes a Telecomunicações, Incidentes Críticos de Infraestrutura
e Software em ERP, se há a utilização de normas e ferramentas com foco em
qualidade adequadas a cada tipo de serviços prestados acima.
Utilizar a Lógica Paraconsistente Anotada Evidencial e E (Lógica E) como
ferramenta de base, pois esta apresenta propriedades que permitem manipular
dados incertos, contraditórios e paracompletos, sem trivialização, em que se
visualiza uma melhor abordagem para as situações não cobertas pela Lógica
Clássica.
1.5.2 Objetivos Específicos
Após o levantamento do estado da arte, apresentar as principais
ferramentas de qualidade mundial, sugerindo sua utilização também nos
aspectos relacionados ao controle dos serviços prestados pela área de TI;
Através de estudos realizados em uma empresa do segmento de
telecomunicações, analisar como estão os índices de evasão e
cancelamento de serviços oferecidos a clientes externos e ainda sugerir
uma metodologia para melhoria da qualidade desses serviços.
A partir de pesquisa realizada com especialistas em infraestrutura,
investigar os conflitos existentes entre eles no momento da classificação
dos incidentes críticos ocorridos na área em TI. Para tal finalidade, utilizar-
se-á a Lógica E para análise dos dados quantitativos e que sejam
contraditórios, para que haja uma melhor equalização nas análises
realizadas.
19
Coletar e analisar dados entre especialistas de Enterprise Resourse
Planning (ERP), sobre aspectos ligados à qualidade que este software
apresenta ás organizações que o utiliza para gestão administrativa de
seus departamentos. O estudo baseou-se na ISO 9126 que propõe um
grupo com 6 características que devem ser atendidas para que o software
seja considerado com qualidade. Utilizar a Lógica E como ferramenta de
apoio para a tomada de decisão em qual dessas características deve ser
investido recursos para o aprimoramento da qualidade.
1.6 Estrutura do Trabalho
Esta dissertação está estruturada em seis capítulos. O primeiro capítulo
apresenta os aspectos gerais da Tecnologia da Informação segundo O’Brien (2013),
sua estruturação e porque ela é, tornou-se imprescindível para o ambiente
corporativo, justificativa sobre o trabalho, hipótese, objetivos gerais e específicos,
problematização e organização dos capítulos.
O segundo capítulo apresenta a fundamentação teórica da literatura sobre a
Qualidade em Serviços de TI e Qualidade de Software para melhor compreensão
dos demais capítulos.
O terceiro capítulo fornece os conceitos básicos da Lógica Paraconsistente
Anotada Evidencial E, tais como: grau de evidência favorável e evidência
desfavorável, grau de certeza e de incerteza, entre outros aspectos necessários à
sua compreensão.
O quarto capítulo apresenta-se a metodologia da pesquisa, ou seja, a
maneira pela qual o trabalho foi desenvolvido.
O quinto capítulo apresenta os resultados e as discussões das pesquisas
realizadas na forma de artigos referentes ao tema proposto.
O sexto capítulo enfeixa as Considerações Finais, os resultados, as
contribuições desse estudo e as indicações para trabalhos futuros.
Ao final, são apresentadas as referências bibliográficas utilizadas na
elaboração da dissertação.
20
2 QUALIDADE NOS SERVIÇOS PRESTADOS PELA TI
Entender o conceito sobre qualidade em serviço é fundamental para sucesso
da organização, na sua sustentabilidade e em seu crescimento (DE HAES; VAN
GREMBERGEN; DEBRECENY, 2013). Um serviço prestado com qualidade faz com
que seus clientes fiquem satisfeitos resultando em fidelidade com a empresa,
divulgando-a positiva para outros clientes, gerando novos pedidos e consolidação da
organização no mercado, são características mais visíveis.
Muitas definições de serviços e qualidade podem ser encontradas por
diversos estudiosos do segmento, mas nota-se que elas mantêm o mesmo
fundamento.
2.1 Pensamentos sobre Serviços
Os serviços são atividades oferecidas de uma parte a outra em que se
considera o desempenho baseado no tempo com a intenção de se obter os
resultados desejados pelos próprios usuários (FITZSIMMONS; FITZSIMMONS,
2014).
“Qualquer atividade ou benefício que uma parte possa oferecer a uma outra,
que seja essencialmente intangível e que não resulte propriedade de alguma coisa.
Sua produção pode ou não estar ligada a um produto físico” (KOTLER, 1994).
Segundo Alvarez (2015), serviço seria todo trabalho feito por uma pessoa em
benefício de outra. E por qualidade compreende-se que é experiência que satisfaz
uma necessidade, soluciona um problema ou agrega valor em benefício de uma
pessoa.
De acordo com Parasuraman et al. (1985), os serviços apresentam
características típicas, distintas dos bens manufaturados, que são sua
intangibilidade, heterogeneidade a inseparabilidade entre a produção e o consumo
do serviço, dificultando a avaliação de sua qualidade.
Após analise de vários conceitos sobre serviço, uma possível definição para
serviços de TI seria: um conjunto de recursos, TI e não TI, mantidos por um provedor
de TI, cujo objetivo é satisfazer uma ou mais necessidades de um cliente (áreas de
negócio) e suportar os objetivos estratégicos do negócio do cliente, sendo percebido
pelo cliente como um todo coerente.
21
2.2 Histórico da qualidade mundial e seus conceitos
A utilização de padrões de qualidade como ISO (International Organization for
Standardization) tem atraído a atenção das organizações nas últimas décadas, mas
historicamente o assunto é mais antigo.
Há mais de quatro mil anos os egípcios criaram o cúbito com padrão (bastão)
de medida, que correspondia ao comprimento do braço do faraó que reinava na
época. Todas as construções utilizavam esse padrão. Nos períodos do mês de Lua
Cheia, o responsável deveria comparar o padrão (bastão) que estava sendo utilizado
com o padrão real. Havendo erro na medição, o responsável poderia ser punido com
a morte (JURAN; GRYNA, 1988). Com esse rígido cuidado, a qualidade foi notória
na construção das pirâmides, em que os egípcios alcançaram precisões da ordem
de 0,05% (EOS, 2005).
Outros exemplos foram encontrados na Grécia e em Roma antiga, os feitos
de navegação no século XVI, as catedrais medievais, onde não se dispunha de
instrumentos de precisão nem técnicas sofisticadas (VINCENT, 2004).
Um grande marco na história da qualidade foi a Revolução Industrial, quando
houve mudanças econômicas e sociais, o início da automação e o surgimento do
consumo de massa. A criação de diversas firmas (TIGRE, 2014), levou a
concorrência entre elas que desencadeou um processo de melhoria contínua que
perdura até hoje.
Na década de 1920, surgiu o controle estatístico da produção (TIGRE, 2014),
pois era impossível garantir a qualidade individual de cada peça na indústria.
Em meados de 1940, foram criados vários órgãos ligados à qualidade: ASQC
(American Society for Quality Control), a ABNT (Associação Brasileira de Normas
Técnicas) e a ISO (International Standardization Organization). Nesse mesmo
período a 2ª Guerra Mundial contribuiu com a melhoria da qualidade no
aprimoramento das técnicas de manufatura para a fabricação de material bélico
(KOSCIANSKI, 2009).
Após a guerra, as indústrias continuaram a utilizar e a aprimorar as técnicas
de qualidade na manufatura. Os computadores digitais já eram usados pelos nos
meios militares e acadêmicos. Posteriormente, quando da popularização dos
computadores, a qualidade dos softwares iniciou a se mostrar importante
22
(KOSCIANSKI, 2009), pois lidava com problemas complexos que envolviam vários
usuários.
Em se tratando de qualidade em serviços, Parasuraman et al. (1985), criou
dez critérios de avaliação da qualidade, que mais tarde foram chamadas de
Dimensões para a Qualidade dos Serviços. São elas:
‒ Tangíveis: Aparência dos locais, equipamentos, pessoas e outros;
‒ Confiabilidade: Habilidade para desempenhar o prometido;
‒ Presteza: Vontade de ajudar o cliente, oferecendo-o prontamente
serviços;
‒ Competêcia: Habilidades e conhecimento para realizar o serviço;
‒ Cortesia: Contato amigo, respeito, consideração com o cliente;
‒ Credibilidade: Confiança e honestidade do prestador;
‒ Segurança: Ausência de risco ou de dúvida;
‒ Acesso: De fácil contato;
‒ Comunicação: Mantém o cliente informado, em linguagem clara.
Segundo Kaltenecker (2013), um dos pensamentos de Garvin, um dos
maiores mestres da qualidade norte-americano, é que a qualidade deve ser
encarada como uma poderosa arma estratégica.
Eis alguns pensamentos sobre qualidade:
De acordo com Junior (2012), Deming, um engenheiro norte-americano foi um
dos precursores do estudo da qualidade no chão de fábrica das indústrias e tinha o
controle estatístico e a satisfação do cliente como premissas de qualidade.
Sob a visão de Deming (1982), a qualidade de um produto tem um propósito:
satisfazer o cliente.
Ou ainda, “a qualidade é a conformidade aos requisitos” (CROSBY, 1979).
2.3 Panorama dos serviços em TI no Brasil e no mundo
Um grande estudo sobre Serviços em TI foi realizado pela Associação
Brasileira das Empresas de Softwares - ABES (2016), analisando o mercado
brasileiro de software e serviços, contabilizando crescimento dos investimentos em
Tecnologia da Informação no Brasil, mostrando um aumento de 9,2% em relação a
2014. Se comparado às demais economias mundiais, o país ainda se destacou,
23
considerando que a média mundial de crescimento dos investimentos em Tecnologia
da Informação foi de 5,6%. Com esse resultado, o Brasil permanece na lista dos
países que apresentaram maior crescimento setorial, mantendo a 7ª posição no
ranking mundial de investimentos em TI, conforme demostra o Gráfico 2:
Gráfico 2 – O mercado mundial de TI - 2015
Fonte: ABES (2016).
O mercado de Tecnologia da Informação brasileiro, que inclui hardware,
software e serviços, movimentou 60 bilhões de dólares em 2015, representando
3,3% do PIB nacional e 2,7% do total de investimentos em TI no mundo. Desse
valor, 12,3 bilhões vieram do mercado de software e 14,3 bilhões do mercado de
serviços, e a soma desses dois segmentos representou 44% do mercado total de TI,
tornando o país no grupo de economias com maior grau de excelêcia para o
desenvolvimento de soluções e sistemas (ABES, 2016).
O estudo apontou para cerca de 13.950 empresas dedicadas ao
desenvolvimento, produção, distribuição de software e de prestação de serviços no
mercado nacional, e aproximadamente 58% delas possuem atividade principal
voltada para desenvolvimento e produção de software ou prestação de serviços.
Daquelas que atuam no desenvolvimento e produção de software, cerca de 94% são
classificadas como micro e pequenas empresas, quando analisadas pelo critério de
24
número de funcionários. Praticamente, 50% do mercado usuário é composto por
empresas dos setores de Finanças, Serviços e Telecom, seguidos por Indústria e
Comércio (ABES, 2016).
Na Tabela 1 apresenta-se as categorias de: Software, Serviços, Hardware e
Telecom, dados agrupados por Mercado Doméstico, para Exportação e em sua
totalização, contendo no total 154.930 em TIC.
Tabela 1 – O mercado mundial de TI – 2015
Fonte: ABES (2016).
Segundo Abes (2016), a área de Serviços em TI ocupa o 2o. lugar de
atividades exercidas pela TI no mundo, perdendo apenas para a indústria de
Hardware que lidera com 49% do mercado, abaixo Gráfico 3 demostra esses dados:
Gráfico 3 – Distribuição mundial de TI no Mundo
Fonte: ABES (2016).
Destaca-se também que 54,4% dos serviços em TI geram US$ 14.980, contra
um total de US$ 12.582 referentes à indústria de Software, abaixo Tabela 2 (ABES,
2016):
25
Tabela 2 – Indicadores do Mercado Brasileiro de Software/Serviços - 2015
Fonte: ABES (2016).
O estudo também apresentou o crescimento dos serviços de TI no mercado
brasileiro, entre 2014 e 2015, mesmo o país enfrentando uma crise
econômico/política, o segmento que mais se destacou foi o de Outsourcing com
participação de 40,5% dentre a categoria de serviços analisada, abaixo Tabela 3
(ABES, 2016).
Tabela 3 – Segmentação do Mercado Brasileiro de Serviços
Fonte: ABES (2016).
26
2.4 Qualidade em Software
Para uma melhor compreensão dos ferramentas e normas internacionais
apresentadas pela Qualidade em Software, será conceituada a Engenharia de
Software e seus principais desdobramentos para melhor abrangência sobre o
assunto principal.
2.4.1 Engenharia de Software
De acordo com Sommerville (2011), Engenharia de Software é uma disciplina
de relacionada com os aspectos de produção de software, desde etapas iniciais de
especificação de sistema até sua manutenção.
Segundo Pressman (2011), é estabelecimento e uso de princípios de
engenharia para obter um software confiável e que funcione de maneira ágil em
quaisquer hardwares, sendo constituída por três elementos: métodos, ferramentas e
procedimentos, que forneça o controle do processo de desenvolvimento e apoie a
construção de software com qualidade.
Engenharia de Software para o IEEE Computer Society (2004) é a aplicação
de abordagens sistemáticas, disciplinadas e quantificáveis ao desenvolvimento,
operação e manutenção de software, além do estudo dessas abordagens
Para Wazlawick (2008), Engenharia de Software é: estudar, criar e otimizar os
processos de trabalho para os desenvolvedores de software.
Compõem a Engenharia de Sofrware, alguns conceitos fundamentais:
2.4.1.1 Processo de Software
Como definição de processo de software o SEI - Software Engineering
Institute, (2001): “Um processo é uma sequência de passos realizados para um dado
propósito, usando procedimentos, métodos, ferramentas e equipamentos, para
transformar as entradas (de dados) em saídas (de informações), que agreguem valor
para o cliente”.
Segundo Pressman (2011), o conceito de processo de software é um conjunto
de atividades, métodos, práticas e conjunto de atividades, métodos, práticas e
27
tecnologias que as pessoas utilizam para desenvolver e manter os software e
produtos relacionados.
De acordo com Sommerville (2011), processo de software é uma sequência
de estados de um sistema que se transforma.
2.4.1.2 Produtos de Software
A definição para produto de software segundo a (IEEE, 1997) se apresenta
como um conjunto completo, ou de seus itens individuais, de softwares, descrições
de procedimentos, artefatos associados e dados indicados para liberação, podendo
ser um cliente ou usuário final.
Quando se entrega a um cliente um pacote bem delimitado e identificado,
pode-se dizer que é um produto (SPÍNOLA, 1998).
2.4.1.3 Crises de Software
Ao pesquisar temas ligados à Engenharia de Software, Pressman (2009), cita
o termo “Crise de Software”.
São problemas citados por Pressman (2009) sobre a crise de software:
1) As estimativas de prazo e de custo regularmente são imprecisas;
2) Há descontentamento do cliente com o software concluído;
3) A qualidade do software ás vezes é menos que adequada;
4) Há grandes dificuldades em dar manutenção no software;
O mesmo autor aponta quais são as causas dos problemas associadas à
Crise de Software:
O próprio caráter do software: não se desgasta, mas se deteriora;
As pessoas responsáveis falham no desenvolvimento do software;
Ao ler o relatório da conferência de NATO de 1968, Koscianski (2007), afirma
que os problemas relatados na época são os mesmos que existem nas empresas de
software atualmente.
No conceito de Koscianski (2007), os métodos e ferramentas de Engenharia
de Software garantem ou facilitam a obtenção do objetivo de ter qualidade nos
programas, contudo, se não forem definidos precisamente, serão menos eficazes.
28
A melhoria dos processos de software pode ocorrer pela padronização de
processos, pois é a primeira etapa essencial na introdução de novos métodos e
novas técnicas de Engenharia de Software (SOMMERVILLE, 2011).
Existem várias normas internacionais para padronização de processos que
minimizam diretamente os problemas da Crise de Software, apresentadas a seguir.
2.4.2 Pensamentos sobre Qualidade de Software
Os pensamentos acima são atuais nas indústrias de software, pois não é
aceitável entregar produtos com baixa qualidade e reparar seus problemas depois
que o produto foi entregue ao cliente (PRESSMAN, 2011).
Existe uma relação entre a qualidade de processo e de produto na
manufatura, pois pode ser padronizado e monitorado. Contudo, os softwares não
são manufaturados, são criados, essa relação em software é mais complexa, pois
sofre a influência de competências e experiências individuais significativas de cada
colaborador que participa do seu processo produtivo. Fatores externos como
mudança em requisitos ou pressão comercial podem também afetar a qualidade do
produto (SOMMERVILLE, 2011).
De acordo com Costa Neto (2013), a qualidade do processo é tão importante
quanto a qualidade do produto. Na década de 1990 houve uma preocupação na
Engenharia de Software com a modelagem e melhorias no processo de software.
Padrões e processos são importantes, mas os gerentes de qualidade devem
desenvolver em suas organizações uma “cultura de qualidade”, para que todos os
responsáveis pelo desenvolvimento do software estejam comprometidos em
alcançar altos níveis de qualidade de produto (SOMMERVILLE, 2011).
Deve-se ter preocupação também com a qualidade subjetiva de um sistema
de software que se baseia em características não funcionais, sugere-se que há
atributos importantes de qualidade de software como: confiabilidade, usabilidade,
eficiência e manutenibilidade que também devem ser levados em consideração.
A demanda por qualidade tem motivado a comunidade de software para o
desenvolvimento de ferramentas e modelos para a melhoria de processos e por
consequência a melhoria dos produtos / serviços em software.
A seguir, há as principais normas internacionais para qualidade de software e
algumas ferramentas de apoio.
29
2.4.3 Normas internacionais e ferramentas para a Qualidade de Software
As normas internacionais são criadas com base em estudos de especialistas
do mundo todo e são a base para especificar produtos e fornecer serviços com alto
padrão de aceitação e qualidade.
A ISO foi fundada em Londres no ano de 1946, a partir das organizações já
existentes no mercado, a ISA (International Federation of the National Standardizing
Associations) e a UNSCC (United Nations Standards Coordinating Committee), e
contou com a participação de 65 delegados vindos de 25 países diferentes e foi em
Genebra, na Suíça, que sua sede foi fixada com inícios de seus trabalhos em 1947.
Em um levantamento efetuado em 2004, a ISO já contava com 150 países
participantes e cerca de 50 mil especialistas que contribuem para criação,
verificação e atualização dos 14.941 documentos formalizados, envolvendo os mais
diferentes segmentos industriais e de serviços: agricultura, petróleo, saúde,
tecnologia entre outros.
No Brasil, quem representa a ISO é a ABNT (Associação Brasileira de
Normas Técnicas), que possui comissões de estudo que trabalham na preparação,
treinamento, avaliação e atualização de diversas normas internacioanais.
As principais normas internacionais relacionadas à qualidade de software
foram pesquisadas e utilizadas no Capítulo 5, nos artigos 2,3 e 4, contudo, abaixo
segue uma comparação entre seus principais modelos, conforme Tabela 4.
Tabela 4 – Comparação entre as Normas Internacionais de Qualidade de Software
Aspectos ISO 9000-3 ISO/IEC 12207 ISO 9126 CMMI ISO 15504
Objetivo
Guia para a aplicação da ISO
9001: fornecimento,
desenvolvimento e manutenção de
software.
Padronizar processos para um
entendimento comum sobre
aspectos relacionados á
software.
Foco na qualidade do produto de
software, propondo Atributos de Qualidade
Determina a capacitação e a maturidade dos
processos de uma organização
Levantar, avaliar e determinar a
capacitação de processos, visando melhoria contínua
Abordagem
Avaliação de adequação de processos a
padrões documentados
Definição de processos para padronização de
requisitos funcionais relativos
à software.
Padronizar processos de requisitos não
funcionais
Avaliação de processos e enquadramento da
fabrica de software em níveis de maturidade.
Avaliam-se processos
organizacionais em relação ao seu
nivel de capacidade.
Organizações Alvo
Quaisquer segmentos
empresariais
Fábricas de Software
Fábricas de Software
Fábricas de Software Organizações no
geral
Definição de Processos
Estabelece uma estrutura, como treinamentos,
suporte, avaliação de contratos, etc.
Estrutura-se em 17 processos
divididos em 3 grupos
Estrutura com 6 grupos que são divididos em sub
grupos que compõem os
processos a serem avaliados
Determina 18 processos organizados em 5 níveis
de maturidade
29 processos organizados em 6
categorias
30
Flexibilidade Sem flexibilização
Pode ser utilizado dependendo do
objetivo da organização
Sem flexibilização Sem flexibilização
Cria perfis de processos que
atendem as necessidades das
empresas
Métodos de Avaliação
Lista de Verificação - Propõem modelo para avaliação do
produto de software
Reuniões, questionários,
entrevistas, observações pessoais
Orienta a definição de instrumentos de
avaliação
Influências anteriores
ISO 9000 e ISO 9001
TQM, PDCA NBR ISO/IEC 14598 Deming,
Shewart,Crosby, Juran
PDCA, SW-CMM, TQM, Malcolm,
Trillium
Pontos Positivos
Norma Internacional Norma
Internacional Norma Internacional
Melhoria contínua e prevenção de defeitos
em software
Norma Internacional
Pontos a melhorar
Ausência de foco no produto. Não há
processos referentes à
melhoria contínua
Somente possui definição
sistemática de processos
Visão somente no produto do software.
Pode-se levar muitos anos até atingir bons níveis de maturidade,
investimento alto, pouca abordagem no produto
Norma extensa, exigindo dedicação
e aplicação de treinamentos às equipes. Falta
visão no produto.
Fonte: Elaborada pela autora.
No Capítulo 5, artigo 1, foram descritas as “Ferramentas da qualidade”, cujo
propósito é melhorar processos das organizações e também apresentar ferramentas
estatísticas para melhor controle desses processos.
2.4.4 Panoramas sobre Qualidade de Software no Brasil
Em 2009, a Secretaria de Política e Informática do Ministério da Tecnologia,
no âmbito do Programa Brasileiro de Qualidade e Produtividade em Software -
PBQP Software, efetuou uma pesquisa nacional para verificar e acompanhar a
respeito da qualidade nas empresas de software, com o objetivo de direcionar as
ações dos agentes responsáveis pela formulação e execução de políticas públicas
nesse segmento no Brasil (MCT, 2001). Foi a última análise (a mais abrangente)
feita por um orgão federal no Brasil sobre qualidade de software divulgado ao
público até o momento.
A pesquisa abrangeu cerca de 2.587 organizações com atividades de
software nesse mesmo ano, apresentando uma margem de erro de 4,92% para um
nível de confiança de 95%.
Segundo essa pesquisa, em 2007 o número de organizações de software no
Brasil era de 31.016, sendo 95,2 % de pequeno porte, que mantinham cerca
165.838 pessoas em seu quadro de pessoal e obtiveram uma receita líquida de R$
22,8 bilhões.
De acordo com a Figura 5, das 343 organizações que responderam a
pesquisa, 62,7% delas desenvolvem software por encomenda, atendendo requisitos
31
específicos do cliente, já 59,9% das organizações produzem software customizado
ou modificado.
Tabela 5 – Comparação entre as Normas Internacionais de Qualidade de Software
Fonte: Pesquisa de Qualidade no setor de Software Brasileiro (2009).
Gráfico 4 – Distribuições das organizações por tipo de Atividade
Fonte: Pesquisa de Qualidade no setor de Software Brasileiro (2009).
32
Em se tratando sobre a localização geográfica das empresas de software, a
região com maior concentração de empresas de software é a região Sudeste, com
44,6% das empresas do segmento, conforme se observa no Gráfico 5.
Gráfico 5 – Distribuição das organizações – Região onde se localizam
Fonte: Pesquisa de Qualidade no setor de Software Brasileiro (2009).
Embora a região Norte seja a que possui menor participação em 2009,
percebe-se uma evolução em relação á 2005, quando se registrou participação de
3% (MCT, 2005).
Uma outra métrica estudada foi referente à receita de software e serviços
entre 2006, 2007 e 2008. Foram consideradas pela pesquisa 236 respostas válidas,
o que representa 68,8% da quantidade de empresas da amostra, conforme Tabela
6:
Tabela 6 – Distribuição das organizações por percentual da receita proveniente de softwares e serviços relacionados ao triênio 2006, 2007 e 2008
Fonte: Pesquisa de Qualidade no setor de Software Brasileiro (2009).
33
Foi pesquisado também sobre os tipos de produtos de softwares
desenvolvidos no Brasil pelas organizações de software, onde 34,8% das empresas
desenvolvem software para a Gestão Integrada (ERP), em seguida com 27,6%
apresentam-se produtos de software para Administração de Serviços, como mostra
o Gráfico 6:
Gráfico 6 – Distribuição das organizações de acordo com o tipo de produto de software que desenvolve (valor absoluto - quantidade de organizações)
Nota: 293 organizações responderam, de um total de 343 organizações (85, 42%).
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
34
Os próximos dados estatísticos, visualizados no Gráfico 7, foram sobre Metas
ou Diretrizes para a Qualidade e Produtividade, em que 53,2% das empresas
entrevistadas informaram que incluem metas de qualidade e produtividade em em
seus planos de maneira sistemática e 44,1% responderam que incluem de forma
eventual.
Gráfico 7 – Distribuição das organizações de acordo com a frequencia de inclusão de metas ou diretrizes de qualidade e produtividade nos planos
Nota: 263 empresas responderam, de um total de 343 organizações (76, 68%).
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
Como pode-se observar na Tabela 4 - Comparação entre as Normas
Internacionais de Qualidade de Software, a Engenharia de Software se adequou ás
mudanças tecnológicas e diversificou os modelos que enfatizam o uso de processos
para disciplinar a indústria de software.
Os próximos dados estatísticos serão sobre a utlização de normas
internacionais: ISO 9001 e CMMI (Capability Maturity Model Integration) dentre as
empresas pesquisadas.
Sobre a utilização da ISO 9001 em seus processos e produtos de softwares,
as empresas responderam que 64,2% possuiam certificações vigentes, 3% estavam
em período de certificação de até em três meses e 22 empresas estavam
implantando a norma pesquisada, conforme Gráfico 8:
35
Gráfico 8 – Distribuição das organizações em relação á certificação usando a Norma ISO 9000
Nota: 67 empresas participaram da pesquisa, de um total de 343 organizações.
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
Conforme Gráfico 9, as empresas de software ao serem questionadas sobre a
utilização do CMMI, obteve-se que 43,6% delas possuem certificação CMMI vigente,
14,5% estava em processo final de implementação e 41,8% pretendiam concluir a
certificação nos próximos quinze meses.
Gráfico 9 – Distribuição das organizações de acordo com a situação em relação à avaliação usando o modelo de referência CMMI
Nota: 55 organizações responderam, de um total de 343 organizações.
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
Quando as empresas foram investigadas sobre qual era a frequência com que
os processos de softwares eram medidos, 78,7% responderam esta questão, e
36
39,6% delas dizem fazê-lo de maneira sistemática, 40% de forma eventual e 20%
delas não utiliza nenhuma métrica para medir seus processos, abaixo Gráfico 10:
Gráfico 10 – Distribuição das organizações de acordo com a frequência da medição do desempenho do processo de software
Nota: 270 organizações respondentes, de um total de 343 organizações.
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
Ao serem abordadas referentes ao uso de normas de definição de requisitos
de qualidade de software, obteve-se respotas de 273 empresas, que representa
79,6% do total pesquisado.
Ao analisar o Gráfico 11, as empresas afirmam que não utilizam nenhuma das
normas listadas, sendo 89% das respostas, o que é um percentual bem elevado.
Gráfico 11 – Distribuição das organizações de acordo com a utilização de normas para requisitos de qualidade de software
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
37
Finalizando a apresentação estatística sobre os aspectos relevantes sobre a
qualidade de software no Brasil, indagou-se às empresas participantes da pesquisa,
qual o percentual das empresas de software que periodicamente identifica as
expectativas ou as necessidades de seus clientes para melhorar seus softwares, e
271 organizações responderam, ou seja, 79% da amostragem, apresentados no
Gráfico 12.
Gráfico 12 – Distribuição das organizações de acordo com a frequência da identificação das expectativas ou necessidades dos clientes
Fonte: Pesquisa de Qualidade no Setor de Software Brasileiro (2009).
38
3 LÓGICA PARACONSISTENTE ANOTADA EVIDENCIAL E (LÓGICA E)
O propósito deste trabalho para a análise de dados faz uso de uma nova
lógica não clássica, a Lógica Paraconsistente Anotada Evidencial E. Como o
assunto possui rigor matemático acentuado, foram detalhados os principais
conceitos e definições com propósito de tornar sua compreensão mais acessível ao
leitor.
Neste capítulo apresenta-se uma síntese da Lógica E, para uma melhor
compreensão do trabalho como um todo.
3.1 Origem histórica
Pode-se dizer que os registros iniciais referentes à Lógica Paraconsistente
surgiram do lógico polonês J. £ukasiewicz e o filósofo russo N.A. Vasil’év,
aproximadamente em 1910, que propôs uma lógica que delimita o princípio da
contradição.
Em 1948, S. Jaśkowski propôs um sistema de cálculo proposicional
paraconsistente, chamado de lógica discursiva (ou discussiva) (ABE; AKAMA;
NAKAMATSU, 2015; ABE et al., 2011).
Em 1954, o lógico brasileiro Newton C. A. da Costa apresentou sistemas
paraconsistentes que contêm todos os níveis lógicos conhecidos (Cn, 1n Ʊ)
independente dos trabalhos citados.
Em meados dos anos 1970, foi apresentada uma semântica para os cálculos
Cn e tais cálculos se mostraram corretos e completos (Teoria da Valoração) (ABE;
AKAMA; NAKAMATSU, 2015).
A característica principal da Lógica Paraconsistente é de poder manipular
sistemas inconsistentes de informações sem o perigo de trivialização. Nas teorias
paraconsistentes existem fórmulas A tais que a partir de A e ¬A não se deduz
qualquer fórmula B, ou seja, existe uma fórmula B do conjunto de todas as
sentenças tal que B não é teorema da teoria.
Tendo por base a Lógica E se faz possível criar sistemas computadorizados
que tratem conhecimento incerto e mesmo inconsistentes. A linguagem da Lógica E
39
também possui considerações de graus de evidência favorável ou desfavorável, e
após análise de seus dados, consideram os valores das informações produzidas por
fontes reais e incertas (ABE; AKAMA; NAKAMATSU, 2015).
Tratando-se de aplicações, em muitos casos, pode-se deparar com dados
conflitantes (contraditórios), incompletos (paracompletos) ou imprecisos.
Normalmente num passado recente e até mesmo nos dias atuais, tais situações são
tratadas com dispositivos extra lógicos, ou seja, há necessidade de tratamento à
parte. Todavia, a contradição é uma fonte de informação que, na maioria dos casos,
é decisiva, pois apresenta as vertentes: verdadeiro e falso. A Lógica E constitui uma
lógica que permite trabalhar com contradições diretamente e outros estados lógicos
entre os extremos da falsidade e da verdade, surgindo assim de outros estados
lógicos como: a inconsistência e paracompleto, além dos estados lógicos entre o
verdadeiro e o falso.
Os estudos sobre os fundamentos da lógica paraconsistente anotada foram
efetuados por vários autores, entre eles, Da Costa, Abe, Akama e outros (ABE,
1992).
Abe na década de 1990, juntamente com seu grupo de pesquisa,
implementou a linguagem de programação paraconsistente Paralog, permitindo
operar quantitativamente dados inconsistentes.
Da Silva Filho, utilizou a lógica paraconsistente anotada P em circuitos
digitais, obtendo-se a implementação das portas lógicas paraconsistentes (DA
SILVA FILHO, 1999). Em seus estudos realizados em hardware, implementou-se o
Para-Analisador referindo-se aos conceitos de incerteza, inconsistência e
paracompleteza. A partir dos conceitos anteriores, Da Silva Filho construiu o primeiro
robô paraconsistente com o hardware paraconsistente: o robô Emmy (ABE; DA
SILVA FILHO, 2003).
As lógicas anotadas estendem muitos conceitos da lógica fuzzy. A teoria
anotada de conjuntos engloba a teoria de conjuntos fuzzy (ABE; AKAMA;
NAKAMATSU, 2015). A lógica paraconsistente anotada evidencial E foi um estudo
particular dentre a teoria anotada que originou uma nova classe de redes neurais
artificiais (RNA), a rede neural artificial paraconsistente (RNAP) (DA SILVA FILHO;
ABE; TORRES, 2008), que foi aplicada em pesquisas na área médica, como por
40
exemplo, no distúrbio da fala (PRADO, 2007), na detecção de câncer de mama
(AMARAL, 2014), entre outros.
3.2 A Lógica E
A Lógica E possui uma linguagem E e as proposições atômicas são do tipo
p(, ) onde p é uma proposição e , [0, 1] (intervalo real unitário fechado). Para
cada proposição p associa-se o valor de , que indica o grau de evidência favorável
de p, e , que indica o grau de evidência desfavorável de p. Os valores ,
dependem das aplicações e podem sofrer mudanças onde pode ser o grau de
crença favorável e pode ser o grau de crença desfavorável da proposição p;
também, pode indicar a probabilidade de p ocorrer e a improbabilidade de p de
ocorrer. As proposições atômicas p(, ) da lógica E podem ser lidas como: creio em
p com o grau de crença favorável e o grau de crença desfavorável , ou o grau de
evidência favorável de p() e o grau de evidência desfavorável de p() (ABE et al.,
2011).
Desse modo, têm-se algumas leituras interessantes:
p(1.0,0.0) pode ser entendida como uma proposição verdadeira (evidência
favorável total e evidência desfavorável nula);
p(0.0,1.0) pode ser entendida como uma proposição falsa (evidência
favorável nula e evidência desfavorável total);
p(1.0,1.0) pode ser entendida como uma proposição inconsistente (evidência
favorável total e evidência desfavorável total);
p(0.0,0.0) pode ser entendida como uma proposição paracompleta
(evidência favorável nula e evidência desfavorável nula);
p(0.5,0.5) pode ser entendida como uma proposição indefinida (evidência
favorável igual à evidência desfavorável de 0.5).
3.3 O Reticulado
Na Figura 2 do Reticulado estão representados os quatro pontos cardeais e
os segmentos perfeitamente definido e indefinido. (ABE et al., 2011).
41
Figura 2 – Reticulado
Fonte: Abe et al. (2011).
Os pontos cardeais do reticulado são expressos abaixo com os devidos
estados:
A estado verdadeiro (1.0, 0.0)
B estado falso (0.0, 1.0)
C estado inconsistente (1.0, 1.0)
D estado paracompleto (0.0, 0.0)
As constantes de anotação (, ) que incidem no segmento perfeitamente
indefinido, possuem a relação - = 0, ou seja, = . A evidência favorável é
idêntica à evidência desfavorável, mostrando que a proposição p(, ) expressa uma
indefinição, variando continuamente desde a inconsistência (1, 1) até o paracompleto
(0, 0).
As constantes de anotação (, ) que incidem no segmento perfeitamente
definido, possuem a relação + - 1 = 0, ou seja, = 1 - , ou ainda = 1 - (ABE
et al., 2011).
Com esses conceitos, existem as definições:
Grau de Veracidade: Gve(, ) = - , desde que - 0, que mede de
quanto uma anotação (, ) é distante do segmento perfeitamente definido e de
quanto ela se “aproxima” do estado verdade.
Segmento perfeita-mente indefinido
Segmento perfeitamente definido
µ
D (0, 0) A (1, 0)
B (0, 1) C (1, 1)
42
Grau de Falsidade: Gfa(, ) = - , desde que - 0, que calcula o quanto
uma anotação (, ) está distante do segmento perfeitamente definido e quanto se
aproxima do estado falso.
Grau de Inconsistência: Gic(, ) = + -1, desde que + -1 0, afere o
quanto uma anotação (, ) se distancia do segmento perfeitamente indefinido e o
quanto se aproxima do estado inconsistente.
Grau de Paracompleteza: Gpa(, ) = + -1, desde que + -1 0, verifica
o quanto uma anotação (, ) se distancia do segmento perfeitamente indefinido e
quanto se aproxima do paracompleto.
Grau de Certeza Gce(, ) de uma anotação (, ), seja qualquer um dos
graus de verdade ou de falsidade.
Grau de Incerteza Gin(, ) de uma anotação (, ), seja qualquer um dos
graus de inconsistência ou de paracompleteza.
A partir das definições acima, percebe-se que a Lógica E consegue trabalhar
com uma variedade de estados lógicos diferentemente da lógica clássica que possui
um conceito restrito, como demonstra-se na Tabela 7 (ABE et al., 2011).
Há quatro valores limites extremos, que podem ser vistos na Tabela 7:
Vcve = C1 = Valor de controle de veracidade; 0 Vcve 1
Vcfa = C2 = Valor de controle de falsidade; -1 Vcfa 0
Vcic = C3 = Valor de controle de inconsistência; 0 Vcic 1
Vcpa = C4 = Valor de controle de paracompleteza; -1 Vcpa 0
Tabela 7 – Estados extremos
Estados Extremos Símbolo
Verdadeiro V
Falso F
Inconsistente T
Paracompleto
Fonte: Abe et al. (2011).
Assim representados nas Figuras 3 e 4 relacionadas a seguir:
43
Figura 3 – Estados extremos e não-extremos
Fonte: Abe et al. (2011).
Figura 4 – Estados extremos e não-extremos com limite indicado nos eixos
Fonte: Abe et al. (2011).
Esses valores orientarão quando uma proposição é considerada, por
exemplo, “verdadeira” no sentido de se tomar uma decisão positivamente, e assim
por diante, como se apresenta na Tabela 8:
µ
44
Tabela 8 – Valores não extremos
Estados Não-Extremos Símbolo
Quase-verdadeiro tendendo ao Inconsistente QVT
Quase-verdadeiro tendendo ao Paracompleto QV
Quase-falso tendendo ao Inconsistente QFT
Quase-falso tendendo ao Paracompleto QF
Quase-inconsistente tendendo ao Verdadeiro QTV
Quase-inconsistente tendendo ao Falso QTF
Quase-paracompleto tendendo ao Verdadeiro QV
Quase-paracompleto tendendo ao Falso QF
Fonte: Abe et al. (2011).
3.4 Algoritmo Para-Analisador
O algoritmo do Para-Analisador apresenta uma análise baseada na Lógica
E, ao utilizar os valores dos graus de evidência favorável e evidência contrária que
resultarão nos valores dos graus de Certeza e de Incerteza, conforme apresentado
abaixo e adaptado de Da Silva Filho, Abe (2011).
*/ Definição de valores limites de comparação*/
Maxvcc = C1 */ valor máximo de controle da certeza*/
Maxvctc = C2 */ valor máximo de controle da incerteza*/
Minvcc = C3 */ valor mínimo de controle de certeza*/
Minvctc = C4 */ valor mínimo de controle incerteza*/
*/ Variáveis de entrada */
*/ Variáveis de saída */
Saída Digital = S1
Saída Analógica = S2a
Saída Analógica = S2b
45
* / Expressões matemáticas * /
Sendo:
0 1 e 0 1
Gin = + - 1
Gce = -
* / determinação dos estados extremos * /
if Gce C1 então S1 = V
if Gce C2 então S1 = F
if Gin C3 então S1 = ⊤
if Gin C4 então S1 =
*/ determinação dos estados não extremos * /
if 0 Gce < C1 and 0 Gin < C3
if Gce Gin então S1 = QV ⊤
if else S1 = ⊤ T
if 0 Gce < C1 and C4 < Gin 0
if Gce | Gin | então S1 = QV
if else S1 = T
if C2 < Gce 0 and C4 < Gin 0
if |Gce | | Gin | então S1 = QF
if else S1 = F
if C2 < Gce 0 and 0 Gin < C3
if |Gce | Gin então S1 = QF ⊤
if else S1 = T F
Gin = S2a
Gce = S2
*/ Fim */
46
4 METODOLOGIA DE PESQUISA
Os procedimentos metodológicos utilizados nesta dissertação abordam as
etapas percorridas para a realização da pesquisa, apresentando os instrumentos e
técnicas de pesquisa.
Para conduzir o trabalho no âmbito qualitativo, utilizou-se a pesquisa
bibliográfica, verificando aspectos interdisciplinares relativos à Qualidade dos
Serviços de TI e Qualidade de Software, e efetuou-se uma re-leitura dos principais
autores dos referios assuntos.
Consultou-se material escrito para tal levantamento sob formato impresso e
digital que auxiliou no referencial teórico.
Esta pesquisa possui aspectos de uma pesquisa aplicada (MARCONI, 2012),
pois pretende gerar informações para aplicações de soluções em problemas reais e
de interesse social (MARCONI, 2012).
4.1 Coleta, análises e resultados dos dados obtidos por artigos
No Capítulo 5, estão descritos na íntegra os artigos que são citados abaixo:
Para compor o conteúdo do artigo 1 entitulado: A Comparative study of quality
tools and methods to promove the continuous improvement in Organizations, utilizou-
se uma aborgagem qualitativa baseada na revisão bibliográfica dos termos
estudados, verificando-se o “estado da arte” de cada ferramenta pesquisada.
Foi criado um quadro com várias características e foram analisadas para cada
ferramenta da qualidade, traçando uma comparação entre elas, com o propósito de
se tornar um material de fáci interpretação e que de fato auxilie as organizações em
decidir qual ferramenta é a mais apropriada para auxliar os negócios empresariais.
A redação do artigo 2 - Analysis on TELECOM: Aspects of Quality and Risk in
Customer Service, possui como ponto de vista de sua natureza a Pesquisa Aplicada,
em que se utilizou a abordagem descritiva, a fim de conhecer os problemas exitentes
na área de TELECOM e propriciar intervenções e melhorias.
Esta pesquisa realizou-se em duas etapas:
Foi realizada pesquisa e revisão bibliográfica sobre os assuntos relevantes da
pesquisa.
47
Na primeira etapa foi contextualizado o cenário da pesquisa, ou seja, o
mapeamento dos processos da área (em sua estrutra e operação).
Na segunda etapa, foram apresentados dados quantitativos reais, extraídos
através de mineração de dados, através de corte transversal, sem considerar a
evolução dos dados no tempo, com informações de natureza numérica, com
pretensão de analisar o ambiente em uma empresa de TELECOM.
Em 12 meses de trabalho, 1 milhão e 605 mil OS (Ordens de Serviço) foram
abertas por clientes referentes as suas linhas telefônicas adquiridas e foram esses
dados o foco do estudo.
Conseguiu-se a partir do software Excel planilhar esses dados, gerando
gráficos do tipo histograma para entender alguns aspectos do negócio como:
Quantidades de Ordens de Serviços Emitidas por Mês, Percentual de Linhas
Telefônicas com falta de pagamento em até 240 dias, Percentual de Cancelamento
de Linhas Telefônicas por mês, Percentual de Improdutividade: Falta de Pagamento
mais Cancelamento por Cliente.
Os resultados obtidos com a mineração dos dados foram importantes para
que se compreendesse quais as fragilidades existentes no processo de linhas
telefônicas e incentivar a empresa de TELECOM a realizar investimentos em
ferramentas de qualidade e gestão de riscos que podem melhorar os serviços
prestados e alavancar resultados financeiros.
No artigo 3- IT Incident Management and analysis using Non-Classical Logics
houve levantamento bibliográfico e também foi elaborado questionário, seguindo
padrão estruturado que serviu como um roteiro para entrevistar profissionais
especialistas da área de TI (usuários, analistas de service desk e gerentes de TI,
pessoas préviamente escolhidas pela autora, em que sua formatação e divulgação
se apresentou por meio eletrônico sendo o formulário criados pelo Google Docs
(LAKATOS; MARCONI, 2012) e consta ao final do trabalho, no item Anexos.
De quarenta e dois questionários foram enviados sendo vinte e sete
devolvidos corretamente respondidos e seus dados foram coletados utilizando o
software Excel, submetendo-os após sua organização, à Lógica E e obtiveram-se
dados quantitativos que foram utilizados para tratar dados contraditórios e
inconsistentes para uma melhor solução para tomada de decisão.
Como resultado, aferiu-se que houve uma tendência dos especialistas no
aspecto positivo na classificação dos itens questionados como incidentes críticos, o
48
que se levou a entender que os especialistas estão aperfeiçoando seus
conhecimentos e aplicando-os em suas atividades operacionais.
A metodologia de pesquisa aplicada ao Artigo 4 – ERP Software Quality using
Paraconsistent Logic, foi muito semelhante ao do Artigo 3, em que se pesquisou o
referencial teórico e elaborou-se questionário on-line, que serviu como um roteiro
para entrevistar profissionais especialistas da área de TI (usuários, analistas de
sistemas e gerentes TI), sendo o formulário criado pelo Google Docs e que também
consta ao final do trabalho, no item Anexos.
As questões eram pertinentes à ISO 9126, norma internacional que
caracteriza a qualidade em software através de seis grupos, que questionava como
o ERP se apresentava frente aos grupos citados acima.
De cincoenta questionários enviados, trinta foram respondidos e seus dados
foram coletados utilizando o software Excel, submetendo-os após sua organização,
à Lógica E e obtiveram-se dados quantitativos que foram utilizados para tratar
dados contraditórios, para uma solução mais acertiva na tomada de decisão.
Verificou-se como resultado, após análise dos dados, que os grupos que
apresentam maior vulnerabilidade em software são referentes à Eficiência e
Manutenibilidade, ou seja, que as fábricas de softwares ERP devem investir em
quesitos de qualidade em seus ERP´s para melhorar esses dois grupos e assim,
conseguir melhores índices de qualidade e de satisfação de clientes.
49
5 RESULTADOS
O trabalho consta da apresentação dos seguintes artigos relacionados ao
tema proposto na dissertção:
5.1 Artigo 1
Título: A Comparative study of quality tools and methods to promove the continuous
improvement in Organizations.
Autores: Tavares, P. F.; Menegassi, E. L.; Silva, G. C; Oliveira, C. C; Sacomano, J.
B.; ABE, J. M.
Publicação: XIV International Conference on Engineering and Technology
Education – INTERTECH´2016.
Resumo: A competitividade é uma questão importante para o sucesso das
organizações e à implementação de programas de qualidade para a melhoria
contínua de processos pode ser um diferencial para manter-se no mercado global. O
objetivo deste trabalho é apresentar um estudo comparativo entre as ferramentas:
Controle de Qualidade Total (TQC), Six Sigma e o ciclo PDCA, auxiliando as
empresas de forma objetiva na escolha de qual ferramenta / método a seguir (ou
combinação) que são significativos para esse contexto. Foi utilizada pesquisa
descritiva, com abordagem qualitativa, a literatura suporte teórico e também a
reinterpretação dos seus conceitos de cada técnica apresentada. Foi possível
concluir que as melhorias obtidas com à implementação de controles de qualidade
são extremamente importante para o desempenho dos negócios e satisfação do
cliente e que os métodos de cabine pode ser aplicado a vários processos,
independentemente do seu processo de fabricação.
Texto encontra-se nas normas deste periódico.
UM ESTUDO COMPARATIVO ENTRE FERRAMENTAS E
MÉTODOS DE QUALIDADE PARA PROMOVER A MELHORIA
CONTÍNUA NAS ORGANIZAÇÕES
A COMPARATIVE STUDY OF QUALITY TOOLS AND METHODS TO PROMOTE THE CONTINUOUS IMPROVEMENT IN ORGANIZATIONS
Priscila Facciolli S. de Lima Tavares1, Elizangela M.Menegassi de Lima2,
Genivaldo C. Silva3, Cristina C. Oliveira4, José Benedito Sacomano5, Jair Minoro
Abe6
50
1Priscila Facciolli Serafim de Lima Tavares, Professora Titular na Universidade Paulista – UNIP, Mestranda em Engenharia da Produção, Universidade Paulista – UNIP, Programa de Pós-Graduação em Engenharia da Produção São Paulo, Brasil.
2Elizangela Maria Menegassi de Lima, Professora Titular da Universidade Paranaense –Unipar, Doutoranda em Engenharia da Produção, Universidade Paulista – UNIP, Programa de Pós-Graduação em Engenharia da Produção São Paulo, Brasil.
3Genivaldo Carlos da Silva, Professor da Faculdade Sumaré em São Paulo, Mestrando em Engenharia da Produção, Universidade Paulista – UNIP, Programa de Pós-Graduação em Engenharia da Produção São Paulo, Brasil.
4Cristina Corrêa de Oliveira, Professora Titular Faculdade de Tecnologia do Estado de São Paulo - FATEC, Doutoranda em Engenharia da Produção, Universidade Paulista – UNIP, Programa de Pós-Graduação em Engenharia da Produção São Paulo, Brasil.
5 José Benedito Sacomano, Doutor pela Universidade de São Paulo e Professor Livre-Docente pela mesma universidade. Professor Titular do Programa de Mestrado e Doutorado em Engenharia da Produção, Universidade paulista – UNIP, São Paulo, Brasil
6 Jair Minoro Abe, Doutor pela Universidade de São Paulo e Professor Livre-Docente pela mesma universidade. Professor Titular do Programa de Mestrado e Doutorado em Engenharia da Produção, Universidade paulista – UNIP, São Paulo, Brasil
Abstract Competitiveness is an important issue or the
success of organizations and the implementation of
quality programs for continuous process improvement
can be a differential to keep up in the global market. The
objective of this research is to present a comparative
study of the Total Quality Control (TQC), Six Sigma
(SIX SIGMA and the Lan-Do-Check-Adjust (PDCA),
assisting companies clearly in choosing which
tool/following method (or combination thereof) that are
meaningful to usiness context. Descriptive research with
qualitative approach was used, the theoretical support
literature and also the reinterpretation of their concepts
of each technique presented. It was possible to conclude
that the improvements obtained with the implementation
of quality controls are extremely important for business
performance and customer satisfaction and that both
methods can be applied to various processes, regardless
of their manufacturing process.
Index Terms PDCA, Quality Control, Six Sigma,
TQC
Introdução
O termo qualidade recebeu influência de vários
teóricos que foram intitulados “Mestres da
Qualidade”, dentre eles destacam-se: Juran, Deming,
Crosby, Feingenbaum e Ishikawa, onde cada um em
sua época contribuiu para seu aprimoramento,
evoluindo o conceito desde a satisfação do cliente,
enfoque na inspeção, até os dias atuais com controle,
garantia e gestão da qualidade. [1]
De acordo com [2], a aplicação dos conceitos de
qualidade se consolidou nos Estados Unidos em
meados de 1940, com a Society of Quality Engineers,
posteriormente em 1946, com American Society for
Quality Control (ASQC), atualmente a American
Society for Quality (ASQ) e em 1950 criou-se uma
associação japonesa, a Japan Union of Scientists and
Engineers (JUSE).
Dentre as décadas de 50 até o final dos anos 70, os
esforços dos estudiosos em qualidades eram focados
na qualidade do produto acabado. Na década de 80,
houve uma tendência para o conceito de qualidade em
produtos e serviços, espelhando-se na eficiência
conquistada pela administração japonesa.
Os motivos que levaram a essa evolução foram: a
concorrência entre as organizações, a criação de
grandes blocos econômicos e a queda no crescimento
econômico mundial, sendo agora imprescindível para
a sobrevivência no mercado que produtos e serviços
estejam consoante ás normas internacionais de
qualidade.
Em fase dessa premissa, [3], a partir de estudos
realizados, verificou que a partir de programas de
qualidade efetivos, é visível a percepção de impactos
positivos no crescimento das vendas e na redução de
custos.
Portanto, para garantir a qualidade de seus
produtos, as organizações criaram protocolos, os quais
são conhecidos por Controle de Qualidade. Assim a
grande importância do Controle de Qualidade, é
implantar regras e instruções para que se diminua e
reconheça os erros que acontecem nos mais variados
tipos de organizações. O controle de qualidade tem
por objetivo controlar a qualidade, como o próprio
51
nome já diz, e manter o padrão de excelência nas
organizações.
Torna-se necessário que as empresas assimilem
tais definições para que possam buscar a excelência,
pois “uma empresa excelente é aquela que consegue
sobreviver. E para sobreviver ela tem que ser
competitiva. E para ser competitiva ela tem que ter
Qualidade. [4]
O tema qualidade, diante de um mercado
globalizado, tem ocupado um papel decisivo dentro
das organizações, pois somente por meio da qualidade
as empresas chegarão a resultados verdadeiramente
positivos. Muitos termos têm sido apresentados com o
intuito de tornar as organizações melhores, como
eficiência, eficácia, sucesso, competitividade e
produtividade. Ao falarmos em qualidade, acreditamos
que não seja possível deixar de falar acerca dos dois
últimos termos – competitividade e produtividade –
por se tratarem de fatores logicamente ligados à
qualidade e imprescindíveis para a excelência das
organizações. [5]
Para atingir seu objetivo, este artigo está dividido
em 4 seções. Além da Introdução abordada na seção 1,
a seção 2 apresenta o Referencial Teórico,
apresentando algumas das principais ferramentas
existentes para Controle da Qualidade. Na seção 3 é
apresentada a Metodologia e finalmente, a seção 4
apresenta as Considerações Finais.
Referencial Teórico
Evolução da Qualidade
Podemos dividir a evolução da qualidade em seis
períodos, segundo [6]. O primeiro período,
denominado de Antiguidade, pode ser caracterizado
pela alta qualidade e por descobertas fundamentais na
área da matemática. No segundo período ou Idade
Média, surgiram os primeiros operadores de controle
da qualidade, por meio da diversificação das linhas de
produção de pequenas empresas. De 1900 a 1930, no
terceiro período, aparecem os supervisores de controle
da qualidade e, também, os primeiros métodos de
controle estatístico da qualidade. No quarto período,
que compreende as décadas de 1930 e 1940, foram
desenvolvidas as aplicações estatísticas nos processos
produtivos, com base em gráficos de controle e na
aceitação por amostragem. A década de 1950, ou
quinto período, pode ser caracterizada pela
disseminação dos sistemas já existentes, como o plano
de amostragem. Neste mesmo período, os métodos e a
essência conceitual do controle da qualidade foram
reconhecidos. No sexto período, que abrange os anos
1960, 1970 e 1980, houve a extensão do conceito
básico da qualidade para novas ampliações, em
virtude do surgimento do conceito de Controle da
Qualidade Total (TQC) e da criação do modelo Zero
Defeito. Ainda no sexto período, mas mais
precisamente na década de 1980, o computador
facilitou a utilização de técnicas estatísticas e as leis
de produção ao consumidor foram criadas. [5]
A Qualidade nos dias de hoje
A evolução da qualidade conta com uma relevante
mudança em seu processo: o foco passou a estar não
somente no produto, mas também nos processos,
serviços e necessidades dos clientes.
A implantação de programas de qualidade, além
de adequar as empresas às exigências de mercado,
possibilita aos funcionários uma melhor qualidade de
vida, por meio do aprendizado profissional. [5]
As transformações exigidas pela modernidade
estão apontando para uma nova relação entre trabalho,
gestão, aprendizagem e capacidade onde as pessoas
contribuem individualmente para os resultados, a
partir da adoção de uma visão mais abrangente e
integrada sobre as transformações que ocorrem na
produção e comercialização de bens e serviços. [7]
52
Controle Total da Qualidade (TQC)
O Controle Total da Qualidade (TQC - sigla em
inglês) é um sistema voltado para propiciar satisfação
ao consumidor, gerando os produtos ou serviços por
meio de um sistema organizado de forma económica e
de assistência ao usuário, estruturando-se de modo que
todos os empregados da organização possam
participar e contribuir para o esforço de
desenvolvimento, manutenção e melhoria da
qualidade de forma global. Além do TQC,
estabeleceu-se ainda os 40 princípios de
gerenciamento total da qualidade e definiu-se os
custos de qualidade como sendo a soma dos custos de
avaliação, prevenção e falhas. [8]
O modelo de referência para a gestão pela
qualidade total adotado segue em boa parte os
princípios praticados por destacadas empresas
japonesas, norte-americanas e europeias e expressos
nos trabalhos de Ishikawa, Merli e Galgano. Vale
destacar que as proposições desses autores estão
fundamentadas em boa parte nos trabalhos pioneiros
de W. E. Deming e J. M. Juran.
O objetivo principal e básico de uma empresa é
administrar o negócio tendo como o centro de atenção
os stakeholders. Os stakeholders são os clientes, os
empregados, os acionistas, os fornecedores e a
sociedade. Cada um desses grupos tem interesses
diferenciados que mudam de empresa para empresa e
com o tempo para uma mesma empresa. É possível
responder a isso de forma genérica. Entretanto, isso
dificilmente é atingido por intermédio de esforços de
melhorias isolados feitos por pessoas ou grupos dentro
da organização. [9]
É preciso adotar uma nova filosofia de
administração expressa pela gestão pela qualidade
total. Vale observar que a gestão pela qualidade total
não é a única abordagem existente para atingir o
objetivo de satisfazer os stakeholders de uma
organização. Foi, ainda, o grande incentivador da
necessidade de ampliar a educação e o treinamento
para a qualidade. [10]
Ciclo PDCA
Uma organização (empresa) precisa buscar atingir
seus objetivos e metas, visando melhorar seu
desempenho no mundo globalizado e em um cenário
cada vez mais competitivo. Para tal, ela deve se
adaptar às várias mudanças de mercado, o que acaba
por exigir novas abordagens no seu sistema de gestão.
Procedimentos que consistem em fontes de sucessos
na prática das empresas precisam ser investigados para
que possam ser melhores entendidos. E assim, serem
aperfeiçoados para que a sua correta aplicação na
organização possa trazer melhores resultados. Um dos
procedimentos mais bem conhecidos na gestão da
qualidade total (TQM), é o uso do ciclo PDCA (Plan,
Do, Check, Action). O PDCA, ou métodos congêneres
como o DMAIC (Define, Measure, Analyse, Improve,
Control) que fundamenta projetos de melhoria
segundo a abordagem Seis Sigma, são adotados por
inúmeras empresas gerando consideráveis efeitos
positivos.
Ishikawa desenvolveu uma estratégia de qualidade
específica para o Japão, a partir do modelo de Deming
e Juran. Conseguiu combinar as teorias
comportamentais de Maslow e McGregor e também as
de Deming, as quais resultaram nos Círculos de
Controle de Qualidade (CCQ), figura 1.
O ciclo PDCA de controle de processo [11]
PLAN [planejar]
1. Estabelecer metas sobre itens de controle
2. Estabelecer método para atingir as metas
DO [executar]
1. educar e treinar
2. executar a tarefa (coletar dados)
53
CHECK [verificar]
Verificar os resultados da tarefa executada
ACTION [atuar correlativamente]
Figura. 1
Ciclo PDCA para controle de processos.
Adaptado de Slack (2009).
Six Sigma
Seis Sigma ou Six Sigma (em inglês) é um
conjunto de práticas originalmente desenvolvidas pela
Motorola para melhorar sistematicamente os processos
ao eliminar defeitos. Um defeito é definido como a
não conformidade de um produto ou serviço com suas
especificações. Seis Sigma também é definido como
uma estratégia gerencial para promover mudanças nas
organizações, fazendo com que se chegue a melhorias
nos processos, produtos e serviços para a satisfação
dos clientes. [12]
A razão principal para as empresas adotarem a
Seis Sigma prende-se com o aumento das margens de
lucro. Parte desse propósito é conseguido através da
redução contínua da variação nos processos,
eliminando defeitos ou falhas nos produtos e serviços.
[13]
Hoje em dia, o Seis Sigma é visto como uma
prática de gestão voltada para melhorar a lucratividade
de qualquer empresa [14], independentemente do seu
porte. [15] Atualmente, o Seis Sigma tem a finalidade
de aumentar a participação de mercado, reduzir custos
e otimizar as operações da empresa que o utiliza. [16]
Projetos Six Sigma seguem duas metodologias
inspiradas pelo ciclo Plan-Do-Check-Act. Diferente de
outras formas de gerenciamento de processos
produtivos ou administrativos o Six Sigma tem como
prioridade a obtenção de resultados de forma
planejada e clara, tanto de qualidade como
principalmente financeiros.
A descrição de vários casos bem-sucedidos sobre
os resultados dos investimentos no Seis Sigma [17]
despertou o interesse sobre o assunto nas organizações
dos diversos setores industriais pelo fato de
possibilitar não apenas a melhoria da qualidade de
produtos, serviços e processos, como também por
possibilitar um incremento significativo no
desempenho organizacional, na mudança de cultura e
no aumento do capital humano. [18]
Frente à necessidade crescente de buscar a
diminuição dos custos de produção, a eliminação de
desperdícios e a redução da variabilidade nos
processos críticos para o negócio, o pensamento
estatístico e os métodos estatísticos passaram a ser
valorizados como meios vitais para atingir os
objetivos estratégicos de algumas organizações, tendo
o alinhamento estratégico como catalisador. Ao longo
da última década, o Seis Sigma veio se consolidando
como uma abordagem abrangente que está alinhada à
implementação de estratégias que promovem a
melhoria do desempenho do negócio, aumentando o
potencial competitivo e impulsionando as ações
54
estratégicas e gerenciais que priorizem a melhoria
contínua do nível de qualidade de produtos e/ou
serviços; (Shewhart. Estas metodologias, compostas
de cinco fases cada, são chamadas pelos acrônimos
DMAIC e DMADV. [19]
A metodologia DMADV é usada para projetos
focados em criar novos desenhos de produtos e
processos e também conhecida como DFSS ("Design
For Six Sigma"), possui cinco fases:
Define goals: definição de objetivos que
sejam consistentes com as demandas dos clientes e
com a estratégia da empresa;
Measure and identify: mensurar e identificar
características que são críticas para a qualidade,
capacidades do produto, capacidade do processo de
produção e riscos;
Analyze: analisar para desenvolver e projetar
alternativas, criando um desenho de alto nível e
avaliar as capacidades para selecionar o melhor
projeto;
Design details: desenhar detalhes, otimizar o
projeto e planejar a verificação do desenho. Esta fase
se torna uma das mais longas pelo fato de necessitar
muitos testes;
Verify the design: verificar o projeto,
executar pilotos do processo, implementar o processo
de produção e entregar ao proprietário do processo.
A metodologia DMAIC é usada para projetos
focados em melhorar processos de negócios já
existentes e possui cinco fases:
Define the problem: definição do problema
a partir de opiniões de consumidores e objetivos do
projeto;
Measure key aspects: mensurar e investigar
relações de causa e efeito. Certificando que todos os
fatores foram considerados, determinar quais são as
relações. Dentro da investigação, procurar a causa
principal dos defeitos;
Analyse: análise dos dados e o mapeamento
para a identificação das causas-raiz dos defeitos e das
oportunidades de melhoria;
Improve the process: melhorar e otimizar o
processo baseada na análise dos dados usando técnicas
como desenho de experimentos, poka-yoke ou prova
de erros, e padronizar o trabalho para criar um novo
estado de processo. Executar pilotos do processo para
estabelecer capacidades;
Control: controlar o futuro estado de
processo para se assegurar que quaisquer desvios do
objetivo sejam corrigidos antes que se tornem em
defeitos. Implementar sistemas de controle como um
controle estatístico de processo ou quadro de
produções, e continuamente monitorar os processos. O
Seis Sigma contempla características de outros
modelos de qualidade, tais como (CORONADO;
ANTONY, 2002):
Metodologia
Utilizou-se a pesquisa descritiva com uma
abordagem qualitativa, a pesquisa bibliográfica para
sustentação teórica e também releitura dos respectivos
conceitos apresentados.
Formulou-se um estudo comparativo, Tabela
1 entre o Controle da Qualidade Total (TQC), o Six
Sigma e o Lan-Do -Check- Adjust (PDCA),
auxiliando as empresas de maneira clara, na escolha
de qual ferramenta / método a seguir (ou de suas
combinações) que sejam significativas para seu
contexto empresarial.
55
Considerações Finais
Verificou-se que a pesquisa em questão apoia
as organizações como um guia, auxiliando-as no
planejamento e implantação de métodos de
qualidade através de padronização de processos.
Buscou-se fornecer objetivamente, através da
comparação entre os métodos, as informações mais
significativas e definições necessárias para a
escolha do melhor método que se adeque as
necessidades da empresa, com isso, o objetivo do
trabalho foi alcançado.
Ressaltamos que, para uma boa utilização deste
estudo, o conceito de Gestão da Qualidade deve
estar alinhado ás expectativas dos gestores e da
organização e que a implantação de um sistema de
qualidade é um processo de mudanças, que envolve
conscientização e engajamento de todos os níveis
hierárquicos empresariais.
Para estudos futuros, sugere-se fazer um
levantamento de outros métodos e normas
internacionais para gestão da qualidade e também
considerar o uso simultâneo das diversas
ferramentas estatísticas existentes, para termos um
apoio quantitativo para a avaliação dos processos.
56
Referências
[1] GARVIN, D. A. Gerenciando a qualidade: a visão estratégica e competitiva. Rio de Janeiro: Qualitymark
Ed., 1992.
[2] CARVALHO, M. M e PALADINI, E. P. Gestão da qualidade: teoria e casos. Rio de Janeiro: Campus, 2005
[3] HEDRICKS, K. B. e SINGHALL, V.R. The long-run stock price performance of firms with effective TQM
programs. Management science, v. 47, n.3, 2001
[4] ABREU, Edirson; LIMA, Jerônimo. Visão Holística da Qualidade na Administração Empresarial. Revista
AGAS. Porto Alegre, 1993.
[5] BLÖDORN, Milene; SOARES, Marilene. Qualidade: Uma Questão De Sobrevivência Para As
Organizações.
[6] PALADINI, Edson Pacheco. Gestão da qualidade no processo. São Paulo: Atlas, 1995.
[7] CONTE, Antônio Lázaro; DURSKI, Gislene Regina. Qualidade. Gestão Empresarial / Fae Business School.
Curitiba: Associação Franciscana de Ensino Senhor Bom Jesus, Coleção Gestão Empresarial, v.2, p. 51-60,
2002.
[8] PINTO, Virgínia Bentes. Informação: a chave para a qualidade total. Ciência da Informação, v. 22, n. 2,
1993.
[9] MARTINS, Roberto Antônio; COSTA NETO, Pedro Luiz de Oliveira. Indicadores de desempenho para a
gestão pela qualidade total: uma proposta de sistematização. Gestão & Produção, v. 5, n. 3, p. 298-311,
1998.
[10] YOSHINAGA, C. Qualidade total; a forma mais prática e económica de implementação e condução. S.b.: s.
ed., 1988. 299p. p. 156.
[11] CAMPOS, Vicente Falconi. Controle da qualidade total. Belo Horizonte: Fundação Christiano Ottoni, 1992.
[12] BOARIN PINTO, Silvia Helena; MONTEIRO DE CARVALHO, Marly; LEE HO, Linda. Implementação
de programas de qualidade: um Survey em empresas de grande porte no Brasil. Revista Gestão & Produção.
v.13, n.2, p191-203, mai.-ago. 2006.
[13] LINDERMAN, K. et al. Six Sigma: a goal-theoretic perspective. Journal of Operations Management, v.3, n.
21, p. 193-203, 2003.
[14] HAN, C.; LEE, Y. H. Intelligent integrated plant operation system for six sigma. Annual Reviews Control, v.
26, p. 27-43, 2002.
[15] WESSEL, G.; BURCHER, P. Six Sigma for small and medium-sized enterprises. The TQM Magazine, v. 16,
n. 4, p. 264-272, 2004.
[16] BREYFOGLE III F. W.; CUPELLO J. M.; MEADOWS, B. Managing Six Sigma: a practical guide to
understanding, assessing, and implementing the strategy that yields bottom-line success. New York: John
Wiley & Sons, Inc., 2001.
[17] CORONADO, R. B.; ANTONY, J. Critical success factors for the successful implementation of six sigma
projects in organizations. The TQM Magazine, York, England, v.14, n.2, p.92-99, 2002.
[18] SANTOS, Adriana Barbosa; MARTINS, Manoel Fernando. Modelo de referência para estruturar o Seis
Sigma nas organizações. Rev Gestão e Produção, v. 15, n. 1, p. 43-56, 2008.
[19] RECHULSKI, K. D.; CARVALHO, Marly Monteiro de. Programas de qualidade Six Sigma: características
distintivas dos modelos DMAIC e DFSS. Anais do XI Simpósio de Engenharia de Produção. Bauru, SP,
2004.
57
5.2 Artigo 2
Título: Analysis on TELECOM: Aspects of Quality and Risk in Customer Service
Autores: Tavares, P. F.; Sakamotto, L.; Silva, G. C; ABE, J. M.
Publicação: 13º International Conference on Information Systems & Technology
Management – USP, 2nd TOI and 36st WCARS. 13º. CONTECSI, pg. 228,2016.
Resumo: Esta pesquisa concentrou-se em uma empresa de telecomunicações com
o propósito de avaliar problemas operacionais na aplicação de práticas de
qualidade. As metodologias utilizadas foram a aplicação da ISO/IEC 31000 para
gestão de riscos em processos e do ITIL para suporte á serviços. Os resultados
apresentados neste estudo referem-se a cancelamentos de linhas telefônicas
residenciais. Espera-se que o uso de padrões normativos para avaliação da
qualidade dos serviços pode proporcionar a melhoria contínua da qualidade em
qualquer empresa, não só no domínio das telecomunicações.
Texto se encontra nas normas deste periódico.
Analysis on TELECOM: Aspects of Quality and Risk in Customer Service
Priscila Facciolli Tavares (Universidade Paulista – São Paulo, Brasil) - [email protected]
Liliam Sakamotto (Universidade Paulista – São Paulo) - [email protected]
Genivaldo Carlos da Silva (Universidade Paulista – São Paulo) – [email protected] Jair Minoro Abe (Universidade Paulista – São Paulo) – [email protected]
ABSTRACT
This research had focused on a telecommunications company with a view to
evaluation of operational problems in the application of quality practices. The methodology
used was the application of NBR ABNT ISO 31000-risk management and evaluation of
services by the ITIL Framework with support for the use of artificial intelligence tools for
analysis of the scenarios. The results presented in this study refer to cancellations of
residential telephone lines. Thus, it is expected that the use of normative standards for
assessment of quality in services can provide the continuous improvement of the quality in
any company, not only in the field of telecommunications.
Keywords: Quality, monitoring, Telecom, ISO 31000, ITIL.
58
Análises em TELECOM: Aspectos de Qualidade e Risco no Atendimento ao Cliente
RESUMO
Esta pesquisa teve como foco uma empresa de Telecomunicações tendo como
objetivo avaliação de problemas operacionais na aplicação de práticas de qualidade. A
metodologia utilizada foi à aplicação da NBR ABNT ISO 31.000 – Gestão de Risco e da
avaliação de serviços pelo Framework ITIL tendo como apoio o uso de ferramentas de
inteligência artificial para análise dos cenários. Os resultados apresentados neste estudo
referem-se a cancelamentos de linhas telefônicas residenciais. Assim, espera-se que a
utilização de padrões normativos para avaliação de qualidade em serviços possa proporcionar
a melhoria contínua da qualidade em qualquer empresa, não somente no ramo de
telecomunicações.
Palavras-chave: Qualidade, Monitoramento, Telecom, ISO 31.000, ITIL.
1. INTRODUÇÃO
Corporativamente, não existe foco para projetos que visam o aspecto de melhoria
contínua e qualidade dos serviços de TI, pois existem outras prioridades que levam as
empresas a cortes de gastos. Outro aspecto que também não é avaliado é o risco que pode
incorrer por falta de prevenção quando não se utilizam padrões normativos para analisar
processos continuamente.
O risco apresenta uma dualidade, uma que pode ser talvez considerada como uma
oportunidade e outra como uma ameaça. Para Bernestein (1997), risco é uma opção de
escolha, uma ação com conseqüências, onde os eventos se repetem, não integralmente, mas
parcialmente, permitindo abstrair um padrão de repetição que pode ser conduzido e
controlado.
Para a FERMA (2003), o risco apresenta duas vertentes, não só a negativa, mas
também a positiva, ou seja, pode ser considerada como uma vantagem competitiva.
Com base neste aspecto, pode-se dizer que um gestor que apresenta visão de analisar
vários aspectos negativos e positivos sobre alguma tomada de decisão corre riscos
calculadamente de forma planejada (BERNESTEIN, 1997).
Portanto, a gestão de processos com base em padrões, auxilia as organizações a terem
um bom desempenho em um ambiente de incertezas, tornando-a mais eficaz.
Neste cenário surgem dúvidas sobre a priorização, pois a administração de qualidade é
uma atividade lenta, complexa, mas necessária para o ambiente empresarial. A gestão da
qualidade consiste em prevenir a empresa de evasão financeira, seja evitando ou minimizando
os erros. Hoje com a tecnologia da informação em alta, a qualidade assume um papel
importante na tomada de decisão e nas vantagens competitivas nas organizações, pois a falta
de conhecimento do nível interno dos negócios afeta as tomadas de decisões (LAUDON &
LAUDON, 2011).
59
Esse artigo trata da qualidade sob o ponto de vista da melhoria contínua,
especificamente analisando na empresa de Telecom o cenário de cancelamento de linhas
telefônicas residenciais.
Questiona-se: Será que as empresas estão preparadas para lidarem com reclamações de
clientes, perda da imagem, evasões financeiras advindas de erros operacionais, mau
gerenciamento de contratos de terceiros e fraudes internas, cenários estes que não são
avaliados quanto ao nível de qualidade adequadamente?
A questão é simples frente às situações de ausência de qualidade, a corporação seja
qual for seu segmento precisa monitorar os controles internos, observando por meio de
checklists a conformidade ou não destes.
O projeto de avaliação de qualidade apresentado neste estudo elenca ações, que se
baseiam em: processos de negócio, aplicações e serviços, analisando operações de
Telecomunicações.
Corporativamente, não existe foco para projetos que visam o aspecto de melhoria
contínua de processos e qualidade nos serviços de TI, pois existem outras prioridades que
levam as empresas a corte de gastos. Outro aspecto que também não é avaliado é o risco de
paralisar a operação por falta de prevenção à ocorrência de incidentes quando não se utilizam
padrões normativos para analisar processos de forma continua.
O risco apresenta uma dualidade, uma que pode ser talvez considerada como uma
oportunidade e outra como uma ameaça. Para Bernestein (1997), risco é uma opção de
escolha, uma ação com conseqüências, onde os eventos se repetem, não integralmente, mas
parcialmente, permitindo abstrair um padrão de repetição que pode ser conduzido e
controlado.
Para a FERMA (2003), o risco apresenta duas vertentes, não só a negativa, mas
também a positiva, ou seja, pode ser considerada como uma vantagem competitiva.
Com base neste aspecto, pode-se dizer que um gestor que apresenta visão de analisar
vários aspectos negativos e positivos sobre alguma tomada de decisão corre riscos
calculadamente de forma planejada (BERNESTEIN, 1997).
Portanto, a gestão de processos com base em padrões, auxilia as organizações a terem
um bom desempenho em um ambiente de incertezas, tornando-a mais eficaz.
Neste cenário surgem dúvidas sobre a priorização, pois a administração da qualidade é
uma atividade lenta, complexa, mas necessária para o ambiente empresarial. A gestão da
qualidade consiste em prevenir a empresa de evasão financeira, seja evitando ou minimizando
os erros. Hoje com a tecnologia da informação em alta, a qualidade assume um papel
importante na tomada de decisão e nas vantagens competitivas nas organizações, pois, a falta
de conhecimento do nível interno dos negócios afeta as tomadas de decisões (LAUDON &
LAUDON, 2011).
Esse artigo trata da qualidade sob o ponto de vista da melhoria contínua,
especificamente analisando o cenário de cancelamento de linhas telefônicas residenciais.
Questiona-se: Será que as empresas estão preparadas para lidarem com reclamações de
clientes, perda da imagem, evasões financeiras advindas de erros operacionais, mau
gerenciamento de contratos de terceiros e fraudes internas, cenários estes que não são
avaliados quanto ao nível de qualidade adequadamente?
A questão é simples frente às situações de ausência de qualidade, a corporação seja
qual for seu segmento precisa monitorar os controles internos, observando por meio de
checklists a conformidade ou não destes.
60
O projeto de avaliação de qualidade apresentado neste estudo elenca ações, que se
baseiam em: processos de negócio, aplicações e serviços, analisando operações de
Telecomunicações.
2. REFERENCIAL TEÓRICO
2.1 Conceitos sobre Riscos
A maior parte das escolhas feitas por gestores envolve algum grau de incerteza em
relação às suas conseqüências, onde podemos citar como referência à aquisição de ativos
financeiros e os projetos de investimento, que proporcionam fluxos financeiros incertos. Do
mesmo modo a noção de risco como grau de incerteza em relação a eventos futuros não é algo
recente na história da humanidade. Mesmo assim, a partir do desenvolvimento do cálculo de
probabilidades e da estatística, isto pode ser tratado de forma quantitativa, em contraposição
ao enfoque qualitativo que o caracterizava (IRM, 2010).
Muitas são as boas práticas que atestam a importância de um projeto de qualidade para
prevenção de eventuais erros/falhas em seus controles, isto é, com vistas a mitigar possíveis
riscos, desta forma, pode-se citar:
NBR ABNT ISO 31000:2009 – Gestão de Risco, afirma poder ser aplicada a uma
organização, em suas várias áreas e níveis, a qualquer momento, bem como a funções,
atividades e projetos. Conforme Figura 1, que apresenta o relacionamento entre os
princípios, estrutura e processo da Gestão de Riscos com base na Qualidade:
Figura 1. Princípios da gestão de riscos, estrutura e processo.
Fonte: Adaptado pelos autores da NBR ABNT ISO 31000:2009.
Nesta norma, são apresentados na Tabela 1:
Princípios da Gestão de Risco
a) Parte integrante dos processos organizacionais
b) Parte da tomada de decisões
c) Aborda explicitamente a incerteza
d) Sistemática, estruturada e oportuna
e) Considera fatores humanos e culturais
f) Transparente e inclusiva
g) Dinâmica interativa e capaz de reagir a mudanças
h) Facilita a melhoria contínua da organização
Princípios para gerenciar riscos e a qualidade
Estrutura para gerenciar riscos e a qualidade
Delimitar e mapear os processos para gerenciar
riscos e a qualidade
61
Princípios da NBR ABNT ISO 31.000:2009 – Gestão de Risco.
Estes princípios precisam estar de encontro com a estrutura da norma conforme Fig.2.
Figura 2. Estrutura da Norma NBR ABNT ISO 31.000:2009 – Gestão de Risco.
Fonte: Adaptado da NBR ABNT ISO 31000:2009.
2.2 Conceitos sobre ITIL
ITIL (Information Technology Infrastructure Library) consiste em cinco publicações
em seu núcleo principal (OGC, 2007).
Cada um fornece a orientação necessária para uma abordagem integrada, conforme
exigido pela ISO / IEC 20000 (2012) especificação padrão, são elas: Estratégia de Serviço,
Design de Serviço, Transição de Serviço, Operação de Serviço e Melhoria Contínua de
Serviço.
Para este artigo, analisaremos do ITIL apenas a especificação Melhoria Contínua que
estabelece vários tipos de monitoramentos baseado em indicadores e métricas de qualidade.
Foram citadas pela ITSMF (2007):
a) Estabelecer o que deve ser medido;
b) Elencar o que pode ser mensurado;
c) Levantar os dados relevantes;
d) Analisar e ordenar os dados coletados;
e) Apresentar e utilizar a informação processada;
f) Implementar ações de correção;
g) Medir os serviços executados, comparando-os com os dados iniciais para traçar os
percentuais de melhoria no processo.
62
3. METODOLOGIA
O setor de telecomunicações no Brasil disponibiliza 515 mil empregos diretos. Foi
responsável por movimentar R$ 234,1 bilhões no ano de 2014 a e engloba: instalações
industriais, telefonia fixa, banda larga fixa, telefonia móvel, TV por assinatura e trunking,
segundo dados da Telebrasil (2014).
A pesquisa apresentada neste artigo é de natureza aplicada, utilizando abordagem
descritiva com objetivo de gerar conhecimentos para aplicações práticas com aspectos
relevantes, a fim de proporcionar intervenções de melhorias.
Foi realizado um levantamento do tipo survey, que tem sido utilizada para pesquisar
fenômenos nas áreas da engenharia de produção, gestão de operações Sun (2014) e na área
administrativa Zikmund (2010) com objetivo de contribuir para o conhecimento de uma área
específica, coletando dados sobre o ambiente ou indivíduos que fazem parte deste ambiente
Sun (2014); de corte transversal, sem considerar a evolução dos dados no tempo, com
informações de natureza numérica, com pretensão de analisar o ambiente em uma empresa de
telecomunicações e como o investimento em ferramentas de qualidade e gestão de riscos
podem melhorar os serviços prestados e alavancar resultados financeiros.
A empresa de Telecomunicações que solicitou sigilo, considerando-se os princípios, a
estrutura e os processos da Norma ABNT NBR ISO 31000:2009 – Gestão de Risco visando
análise da qualidade.
Este estudo foi realizado em duas etapas descritas a seguir:
Na primeira etapa desse estudo, foi efetuado o mapeamento e análise dos aspectos da
área, considerando-se a estrutura organizacional, sistêmica e operacional, ou seja,
contextualização do cenário.
Na segunda etapa, utilizou-se a técnica de mineração de dados, extraindo dados da
base de dados da empresa em questão, referente a um período de 12 meses, gerando 1.605 mil
registros ordens de serviços efetuados por clientes para a empresa de telecomunicação para
análise.
Para análise dos dados, utilizou-se o Excel, onde foram inferidos a média, desvio
padrão, com geração de grafos para representar a análise apresentando o ambiente de uma
empresa de Telecom.
4. RESULTADOS E DISCUSSÕES
4.1 Mapeamentos de Processos
Na primeira etapa do estudo, houve a coleta de dados e também o conhecimento das
regras do negócio da empresa pesquisada, onde foi sugerido na Figura 3 um fluxo de
processos de venda e cancelamento das linhas telefônicas residenciais.
Conforme Landquist (2013), no estabelecimento do contexto, o escopo e risco de
critérios deve ser definido para outros processos também.
Neste caso o escopo analisado é referente ao cancelamento de telefones residenciais
pelos clientes pessoas físicas e também por falta de pagamento, conforme Figura 3.
63
Figura 3. Mapeamento do processo de venda e cancelamento das linhas telefônicas
residenciais.
Fonte: Elaborado pelos autores.
Após esta etapa inicia-se a parte dos processos para gestão de risco e qualidade, como:
identificação, análise, avaliação e tratamento dos riscos decorrentes de gaps do processo.
Na identificação dos riscos verifica-se a diferenciação de cada item, por exemplo: a
existência de códigos específicos para cada tipo de cancelamento feito pelo cliente. Neste
momento delimitam-se os primeiros indicadores de qualidade, elencando a periodicidade
diária por meio de ferramentas de monitoramento automatizadas de captura de informações
do sistema, que podem ser analisados mais detalhadamente pela delimitação de drives
internos, ou seja, se o cancelamento da linha telefônica foi restrito ou limitado, bem como se
foi por falta de pagamento.
Cada resultado que advém do sistema deve ser analisado sobre a conformidade com o
padrão apresentado pela política de cancelamento de linhas telefônicas residenciais, baseado
na ISO 31.000 e ISO 20.000, isso endereça a validação do processo e identificação das falhas.
Outros KPI´s (Key Performance Indicators analisados foram): prazo de solicitação de
cancelamento, forma de ressarcimento, operadores que realizaram as operações, sendo que
neste momento pode-se mapear e elaborar a matriz de riscos desse processo.
Além disso, também são realizadas análises de Cenários montados em ferramenta i2
Analyst’s Notebook de IA – Inteligência Artificial onde se cruzam informações de vários
clientes com de operadores para verificação de existência ou não de fraude por parte de
terceiros. Conforme exemplo apresentado pela Fig 4:
64
Figura 4. Exemplo de análise de cenário na ferramenta i2.
Fonte: Elaborado pelos autores.
As análises obtidas são avaliadas quanto à existência ou não de controle interno dentro
desse processo. Caso este não exista, deve ser implantado para diminuir o risco da ocorrência
ou para minimizar o impacto do gap /erro ao negócio.
O processo representado pela Norma é representado pelo monitoramento contínuo e
elaboração de um cronograma para prevenção e tratamento dos riscos mapeados com o
projeto de análise de qualidade. Sendo, que com o passar do tempo, podem ser armazenados
em um banco de dados de respostas aos riscos elencados, para facilitar a resposta ás situações
de problema/erro identificados.
Figura 5. Processos para gerenciar riscos – NBR ABNT ISO 31.000
Fonte: Adaptado da NBR ABNT ISO 31000:2009.
65
Pode-se escolher um processo de monitoramento baseado no projeto de qualidade que
irá monitorar e analisar atividades de negócio baseando-se em KPI´s, ou seja, em indicadores
chaves de desempenho principais e seus drives internos também.
É necessário na fase de estabelecimento do contexto e mapeamento dos processos para
o projeto de qualidade, este apresente um escopo bem definido com foco nas várias visões dos
processos de negócio, levando-se em conta o gerenciamento de risco e seus impactos.
Com o escopo delimitado no cancelamento de linhas de telefônicas residenciais
identificou-se na fase de identificação de riscos: que a rastreabilidade desse processo somente
em 70% dos casos e apresentando falta de informações / gaps no processo em 30%, e que
cerca de 10% das vendas efetivadas são canceladas até 240 dias após instalação.
E por meio da análise de cenários verificou-se uma correlação entre os operadores que
mais venderam linhas telefônicas residenciais e a maioria das linhas canceladas por falta de
pagamento. Observando um suposto conluio entre pessoal terceiro e possíveis fraudes.
Na fase de análise do risco criaram-se indicadores chaves de performance ou KPI´s
com o monitoramento das informações diárias capturadas por ferramentas que acessavam as
bases dos sistemas da empresa, pois cada tipo de item diferenciado passou a ser verificado
analiticamente quantitativamente e qualitativamente para formação de indicadores de
qualidade. E cada risco foi analisado conforme Norma de Gestão de Risco (FERMA, 2003)
sugere para descrição dos riscos na Tabela 2:
Tabela 2. Descrição dos Riscos.
1. Designação do risco
2. Âmbito do risco (descrição qualitativa de acontecimentos, como dimensão, tipo,
número e dependências)
3. Natureza do risco (ex.: estratégicos, financeiros, operacionais, de conhecimento ou
conformidade)
4. Intervenientes (intervenientes e respectivas expectativas)
5. Quantificação do risco (importância/relevância e probabilidade)
6. Tolerância/apetite ao risco (potencial de perda e impacto financeiro do risco, valor
em risco-value at risk, probabilidade e dimensão de perdas/ganhos potenciais)
7. Tratamento e mecanismos de controle do risco (principais meios através dos quais o
risco é atualmente gerido, níveis de confiança de controle existente, identificação dos
protocolos de monitoração e revisão.)
Para que os tipos de cancelamento se concentravam em dois pontos: 60% na falta de
pagamento e 40% na solicitação para cancelamento definitivo pelo cliente.
4.2 Análises dos Dados
Foram registrados durante um período de 12 meses na empresa de telecomunicações
estudada, um total de um milhão e 605 mil OS (Ordens de Serviço) abertas por clientes
referentes ás suas linhas telefônicas adquiridas.
66
Abaixo, na Figura 6, observa-se esses números por mês e percebe-se que os meses em
que há maior incidência de abertura de OS sobre linhas telefônicas foram os meses de
Março:156 mil OS abertas, Janeiro: 155 mil OS abertas e Abril: 144 mil OS abertas.
Figura 6: Ordens de Serviço Emitidas por mês
Fonte: Elaborado pelos Autores
Analisou-se também que, há inadimplência dentre os clientes por parte do pagamento
de suas contas telefônicas. Na figura 7, estes números são representados através de
percentuais mensais.
Os meses que apresentaram maior inadimplência pelos clientes da empresa de
telecomunicações no ano estudado foram: Julho com 15, 7%, Agosto com 10,2% e Maio com
10,1% das Ordens de Serviços abertas no mês corrente.
Figura 7: Percentual de Linhas Telefônicas com falta de pagamento em até 240 dias
Fonte: Elaborado pelos Autores
67
Outro aspecto importante neste estudo referiu-se ao índice de desligamento (por parte
do cliente), do serviço contratado de linha telefônica da empresa de Telecom estudada.
Ao analisar a Figura 8, percebe-se que por três meses, os percentuais ultrapassam os
20% de cancelamentos de linhas telefônicas, o que sugere problemas com esse serviço, tanto
nos aspectos de atendimento ao cliente como de infra-estrutura.
Figura 8: Percentual de Cancelamentos de Linhas Telefônicas por Mês
Fonte: Elaborado pelos Autores
Por fim, foi consolidado um total de improdutividade do serviço prestado pela
empresa de Telecom referente ás linhas telefônicas, conforme apresenta-se na Figura 9.
Esse número foi obtido através da soma dos percentuais de Falta de Pagamento das
Linhas telefônicas, Figura 7, e Percentual de Cancelamentos das mesmas, por parte dos
clientes, Figura 8.
O gráfico apresentou que por três meses, o Percentual de Improdutividade
ultrapassando os 20% do total de Ordens de Serviço abertas. Esta informação caracteriza
ausência de qualidade nos serviços prestados e na retenção de clientes.
68
Figura 9: Percentual de Improdutividade: Falta de Pagamento + Cancelamento por Cliente
Fonte: Elaborado pelos Autores
5. CONCLUSÃO
Em face do cenário de crise econômica, poucas são as empresas proativas que
investem na excelência de soluções de TI baseadas em projetos de Qualidade dentro de suas
organizações com intuito de identificar e mapear riscos e minimizar prejuízos financeiros
futuros.
Podem-se elencar alguns benefícios financeiros para empresas que adotaram estes
tipos de projetos como: redução de custos por detecção de perdas financeiras futuras;
utilização de informações que indiquem qualidade pela auditoria interna; comparação de
dados extraídos de um sistema com outro; validação de rotinas e interfaces de sistema;
validação de controles internos preventivos e defectivos; redução de custo de passagens e
viagens para auditoria interna realizar trabalhos que podem ser efetuados à distância.
Com este estudo, percebe-se que a empresa do segmento de Telecomunicações
estudada, ainda não possui processos mapeados e de melhoria contínua para auxiliá-la a
reverter seus altos índices de abertura de Ordens de Serviço, o que demonstra que os clientes
possuem muitas dúvidas ao utilizar o serviço contratado ou mau funcionamento da infra-
estrutura. Também não foi apresentado métodos para reverter os índices de inadimplência e
de cancelamento de linhas telefônicas, o que transparece problemas na retenção de clientes e
perdas financeiras, por ausência de analisar os riscos que deveria fornecer situações de
contorno aos problemas que sejam viáveis á empresa e de qualidade aos serviços adquiridos
pelos consumidores.
Assim conclui-se que a empresa deve conhecer seu negócio detalhadamente e
acompanhar suas missões críticas por meio de Projetos de Qualidade, para estar um passo à
frente das demais concorrentes de mercado e uma ferramenta que pode ser utilizada são
maiores investimentos na área de TI e implantação de normas internacionais pertinentes.
69
6. RECOMENDAÇÕES
Ao se estruturar um projeto de qualidade deve-se escolher o escopo a ser analisado, e
uma equipe que apresenta habilidades específicas para rápidas análises de dados.
Vários são os tipos de projetos de qualidade que podem ser implantados baseados em
gerenciamento de serviços e soluções desenvolvidas sob medida para clientes ou pode-se
escolher para aquisição de produtos pré-definidos, entretanto o mais importante reside no foco
das missões críticas de negócio ou drives críticos da empresa a serem monitorados.
Estabelecer um Projeto de Qualidade necessita do envolvimento da empresa com as
melhores práticas de TI do mercado. A gestão de qualidade e risco protege e acrescenta valor
à organização e aos diversos intervenientes, apoiando os objetivos da organização. (FERMA,
2003).
Este tipo de projeto tem por intuito prover informações especificas para prévia
detecção de falhas nos controles internos por meio de análise de dados captados de sistemas.
Algumas regras para extração de dados devem se basear no mapeamento dos erros /
gaps dos processos de negócio e entendimento dos elementos dos dados gerados de forma
completa.
7. REFERÊNCIAS BIBLIOGRÁFICAS
Associação Brasileira de Normas Técnicas. NBR ISO 31000 (2009): Gestão de riscos –
Princípio e diretrizes, Rio de Janeiro.
Bernstein, Peter L. (1997). Desafio aos Deuses: a Fascinante História do Risco. Rio de
Janeiro: Campus.
FERMA – Federation of European Risk Management Associations (2003). Norma de gestão
de Riscos. p.2. Disponível em:
<http://www.theirm.org/publications/documents/rm_standard_portugais_15_11_04.pdf>.
Acesso em: 17 de julho de 2013.
IRM (The Institute of Risk Management), AIRMIC (The Association of Insurance and Risk
Managers) and ALARM (The Public Risk Management Association) (2010). A structured
approach to Enterprise risk management (ERM) and the requirements of ISO 31000, UK , 6-8
p.
ISO-International Organization for Standardization. ISO/IEC 20000-3 (2012) – Information
technology -- Service management-- Part 3: Guidance on scope definition and applicability of
ISO/IEC 20000-1.
ITSMF. The IT Infrastructure Library (2007). An Introductory Overview of ITIL V3, ITSMF
Ltda.
Landquist, H. et al. (2013). Evaluating the needs of risk assessment methods of potentially
polluting shipwrecks. Journal of Environmental Management 119, p. 85 a 92.
Laudon, K. C., Laudon (2011), J. P.: Management information systems. 6. ed. Upper Saddle
River: PrenticeHall.
OGC - Office of Government Commerce (2007). ITIL – Information Technology
Infrastructure Library v3. Londres: OGC.
70
Associação Brasileira de Telecomunicações – Telebrasil (2014). Disponível em:
http://www.telebrasil.org.br/. Acessado em: 20 de janeiro de 2016.
Sun, Y.; Shang, R.-A (2010). The interplay between users' intraorganizational social media
use and social capital. Computers in Human Behavior , v. 37, p. 334-341, 2014. ISSN: 0747-
5632 DOI: http://dx.doi.org/10.1016/j.chb.2014.03.048. Disponivel em:
<http://www.sciencedirect.com/science/article/pii/S0747563214001708>.
Zikmund, W. G. et al. (2010). Business Research Methods. Ninth Edition. ed. [S.l.]: South-
Western College Pub.
71
5.3 Artigo 3
Título: IT Incident Management and analysis using Non-Classical Logics
Autores: Tavares, P. F. S. L.; Sakamotto, L.; ABE, J. M. Pimenta, A. P.
Publicação: Conference Advances in Production Management System (APMS
2016). IFIP Advances in Information and Communication Technology, 2016.
Resumo: A classificação e a priorização correta dos incidentes críticos no ambiente
de TI são estratégias para manter a competitividade nas empresas. Os Services
Desks ao registrarem um incidente, por muitas vezes podem possuir dúvidas ou
contradições em suas análises. Este estudo tem como objetivo aplicar a Lógica
Paraconsistente para tratar contradições diretamente relacionadas na classificação
dos incidentes em TI, auxiliando os gestores a melhorar a qualidade dos serviços
que prestam aos usuários através da eficiência na tomada de decisões.
Texto encontra-se nas normas deste periódico.
IT Incident Management and analysis using Non-
Classical Logics
Priscila F. Tavaves1, Liliam Sakamoto
1, Jair M. Abe
1, Avelino P. Pimenta Jr.
1
1Paulista University, Graduate Program in Production Engineering
Dr.Bacelar St 1212,São Paulo,Brazil
[email protected], [email protected],
[email protected],[email protected]
Abstract. The classification and the proper incident handling in an IT environment are
strategic to remain competitive in corporations. Service Desk technicians with
knowledge and expertise can often have conflicting beliefs in their analysis. This study
aims to apply Paraconsistent Logic to treat contradictions directly in the classification of
incidents in IT, helping managers to improve the quality of services they provide to
users through the efficiency of the Service Desk in decision-making.
Keywords: Critical Incident, ITIL, ISO 20000, Quality in IT service, Paraconsistent
Logic.
1. Introduction
Organizations currently rely increasingly on various IT (Information
Technology) services for maintenance of their operations [1]. Proper
management of these services is of paramount importance because in many
72
cases the services are subject to incidents, which may be defined as unplanned
events that have the potential to lead to an accident.
Although the concept of incidents seems to deal with faults that occurred or
that may occur and/or may be foreseen by the IT team, in several areas as an
example: telecommunications, infrastructure and defects in software.
Categorization and correct classification of incidents is of paramount
importance, as they may cause stoppage of important services and result in
financial losses and even cause impact on the organization's image.
Classification of incidents is the act of identifying the exact kind of incident
and what components are involved, as well as determining the incident priority,
which is, for example, classifying it as critical or not.
However, big part of the technical support in IT is run by contracted companies
that have no commitment with the organization's business and most
importantly, are not properly prepared in what regards the correct classification
of incidents.
The more precise the categorization and the classification are, the faster will
the service for the requesting user be, and it can also help in referring it for
more advanced support teams to resolve the issue.
Depending on the size of the operation, the Service Desk can have many
technicians of level 1 (first contact with the user), and differences in
classification of incidents occur frequently, i.e. the same type of incident can
be classified as critical by a technician and as not critical by the other.
Therefore, classification is naturally subject to inconsistencies. On the other
hand, it is well known that Classical Logic cannot deal with contradictions, at
least directly. So we have to seek suitable logical systems,
The goal of this work is to use Paraconsistent Annotated Evidential Logic E
(Logic E) [2] to address inconsistencies in the classification of IT Incidents,
helping managers to maintain the quality of services used by the organization
for the increase of the efficiency in the Service Desk area. We used the ITIL
(Information Technology Infrastructure Library) as a management tool, which
is a framework of better practices that deal with Incident Management in IT
and the ISO/IEC 20000, which addresses this concept depicting Systems
Certification of Services Management in IT.
2. Backgrounds
2.1 ITIL – Information Technology Infrastructure Library
ITIL describes a set of best practices for managing IT services, improving the
relationship between the strategic management of the company's business to
these services [3].
Incident Management focuses primarily on restoring the service as fast as
possible, minimizing the negative impact on business. A workaround or quick
fix, which allows the client to return to work and ensures that the highest levels
of availability and quality of service, according to the service level agreements
(SLA) [4].
The term incident [5] is any event that is not part of the standard operation of a
service and that causes or may cause interruption or reduction of its quality.
The objectives of the Incident Management, according to ITIL, are:
Re-establishing the IT services as soon as possible in accordance with the
service level agreement;
Establishing workaround solutions, while identifying the root of the problem;
Reducing the impact of the incident on the operations of the business;
Maintaining communication between IT and users about the state of the
incident;
Ensuring the highest level of quality of services rendered, according to the
ANS.
73
2.2 ISO/IEC 20.000
ISO/IEC 20000-1:2011 defines the requirements for the IT services provider to
manage its processes and delivered services with acceptable quality for its
customers. It is divided into: Management Systems and Management
Processes, where the former is aligned with ISO 9001:2000 and the latter,
which is our focus, receives strong influence of ITIL, library of best IT services
management practices, covering four macro-processes: delivery, resolution,
control, release and relationship.
In this norm, there is a topic which addresses the resolution process
specifically, visualizing the Incidents and Problems Management.
In the Incident Management, its goal is to restore the agreed services as soon as
possible to the company, or to respond to requests of the services.
The norm also points out that it is appropriate that there are [6]:
Receipt of the call, record, determination of the priority, classification;
First level of resolution or referral;
Consideration of security issues;
Tracking and managing of the incident life cycle;
Verification and closure of the incident;
First level of contact with the customer;
2.3 Paraconsistent Annotated Evidential Logic Eτ
Roughly speaking, Paraconsistent logics are logics that can serve as underlying
logic of theories in which there are formulas A and A (the negation of A) both
true without being trivial [2]. There are infinitely many paraconsistente
systems. In this work we consider the Paraconsistent Annotated Evidential
Logic Eτ.
The atomic formulas of the language of the Logic E are of the type p, in
which p is a proposition and e (, ) [0, 1] is the real unitary closed interval.
p(, ) can be intuitively read as: " The favorable evidence of p is and the
contrary evidence is ” [7]. For instance, p(1.0, 0.0) can be read as a true
proposition, p(0.0, 1.0) as false, p(1.0, 1.0) as inconsistent, p(0.0, 0.0) as
paracomplete, and p(0.5, 0.5) as an indefinite proposition [8]. Also we
introduce the following concepts: Uncertainty degree: Gun(, )= + - 1 (0
, 1) and Certainty degree: Gce(,) = - (0 , 1) [9].
An order relation is defined on [0, 1]: (1, 1) (2, 2) 1 2 and 2 1,
constituting a lattice that will be symbolized by .
With the uncertainty and certainty degrees we can get the following 12 output
states (Table 1): extreme states, and non-extreme states. It is worth observed
that this division can be modified according to each application [10].
Table 1. Extreme and Non-extreme states
74
Some additional control values are:
Vscct = maximum value of uncertainty control = Ftun
Vscc = maximum value of certainty control = Ftce
Vicct = minimum value of uncertainty control = -Ftun
Vicc = minimum value of certainty control = -Ftce
All states are represented in the next Figure (Fig.1).
Fig. 1. Extreme and Non-extreme states
3. Methodology
The methodology is as follows:
a) Research Problem: How to manage incidents with contradictory data?
b) Hypothesis: The resolution of incidents is more accurate with non-classical
logic.
c) Literature review: Theoretical Review of ISO 20000, ITIL and Logic Eτ.
d) Proposition: There was critical incident;
e) Factors and Control Sections: We listed the Factors "F" and Sections "S",
with influence of ISO 9126 [11], as it presents a set of characteristics that
verify whether software can be considered "of good quality", on table 2 below:
Table 2. Factors and Sections Source
f) Data collection: We have developed an on-line questionnaire to obtain
quantitative data (see Table 2). Twenty seven IT professionals answered, where
the mathematical average of the values found was calculated and grouped into:
A: nine final users, B: nine Service Desk analysts and C: nine IT managers.
The groups were chosen from the SLA according to ITIL.
75
g) Object of study: Extensive direct observation of experts.
h) Construction of database: Responses were collected between values of 0 and
1
Table 3. Data collection from experts
i) From the data in Table 3, it was applied E Logic and we obtained:
Source: The authors
4. Analysis and Discussion
After analyzing the data employing the Logic E it was concluded:
F1- Is the slowness in a system a critical incident?
F1-S1 - Slow ERP System: The result was found to be true, it can be
considered a critical incident because the ERP is an integrated system and can
be used throughout the organization and its unavailability is of high impact.
F1-S2 - Slow support system: The result is true, it can be considered a critical
incident, since this system concentrates on the activities ERP does not perform,
76
for example, specific customizations required by business line, sometimes
referred to as ADD-ON.
F2 - Is the interruption of service a critical incident?
F2-S1 - Unavailability of ERP: The result found was true, it can be considered
a critical incident, because the unavailability of an ERP system would damage
one or more activities of the company and the impact would be immense:
financial losses and low credibility with the users of the organization.
F2-S2 - Is the interruption of the support system services a critical incident?
The response after analysis with the E logic was true; it may be considered a
critical incident. When we talk about legacy systems or customized systems, it
can impact directly and negatively in the areas of business, as we have
discussed in item F2-S1.
4.1 Comparisons with real data
We used information from a foreign trade company, here as "A", which has
headquarters in Santos (São Paulo) and two branches, one in Vitória (Espírito
Santo) and another one in Itajaí (Santa Catarina). This company uses ERP
SAP/R3 system for Small Business, customized with a module ADD-ON of
Foreign Trade and Electronic Invoice. Moreover, it used two Support Systems:
A Legacy System used for Customs transaction of ports and another Logistic
System for load control, in addition to other system developed internally for
controlling suppliers contracts (customs brokers and carriers) and their
respective SLA.
It has major MPLS links (Embratel) between headquarters and branch offices,
and secondary radio links (WCS).
There are, on average, 100 employees, its capital is of family origin and it was
requested that its name and period of analyzed data remained secret.
A survey about Critical Incidents in the analyzed period of 1 year was
conducted, starting in March/x1 and finishing in February/x2. According to a
chart that summarizes the total analyzed incidents.
Fig. 3. Total of Critical Incidents - COMEX “A”
We analyzed situations in which the ERP or Support System were unavailable
or slow, as well as disconnection between headquarters and branches. We
didn't observe a direct correlation between disconnection and slowness or
unavailability of Systems (ERP or Support), as they didn't occur in the same
months.
77
It was noticed that situations when the system is slowcan foresee a possible
stop of their systems. The chart below represents this situation month by
month.
Fig. 4. Amount of occurrence of Critical Incident in the period of 1 year COMEX
Analyzing the data of the critical incidents of company "A", it can be compared
with the results presented in item 4 by logic E, according to the items below:
The critical incidents that are related to links won't always impact the
whole company. In most cases they are related to specific problems, for
example a particular server.
The continued slowness of a given system can foresee a possible
unavailability in the immediate or farther future.
The unavailability of the company's "core" systems may be a potential trouble
spot that causes loss of competitiveness in business, financial impacts and even
negative impacts on the company's image.
5. Final Considerations
The Logic E was a useful tool in this study because it is capable to analyse
conflicting, imprecise, and paracomplete data directely, converging on a single
type of central decision-making and is suitable for managers who need speed
and accuracy when resolving critical incidents.
After analyzing the results from Logic E and comparing with research of
Company "A", we reached the conclusion that the tool based on Paraconsistent
Logic presents coherent and effective front compared to real facts. The use of
the data answered by the experts and the application were essential to validate
this instrument study, reaching the proposed goal.
References
1. Laudon, K. C., Laudon, J. P.: Management information systems. 6. ed. Upper Saddle
River: PrenticeHall, 2014.
2. Abe, J. M. Nakamatsu K.. Introduction to Annotated Logics - Foundations for
Paracomplete and Paraconsistent Reasoning, Series Title: Intelligent Systems
Reference Library ,Volume 88, Publisher Springer International Publishing, Copyright
Holder Springer International Publishing Switzerland, eBook ISBN 978-3-319-17912-4,
DOI 10.1007/978-3-319-17912-4, Hardcover ISBN 978-3-319-17911-7, Series ISSN
1868-4394, Edition Number 1, 190 pages, 2015.
3. ITIL®, Lifecycle Publication Suite — Books, United Kingdom's Cabinet Office,
TSO (The Stationery Office), 2011.
78
4. IT Infrastructure Library – Service Support. OGC, London, 2000.
5. Bon, Jan Von. Foundations of IT Service Management based on ITIL. Lunteren-
Holanda: Van Haren Publishing, 2005.
6. ISO/IEC 20000-1:2011, Information Technology – Service Management – Part 1:
Service Management System Requirements, ISO (International Organization for
Standardization), 2011.
7. De Carvalho, F.R., Abe, J.M.: Tomadas de decisão com ferramentas da Lógica
Paraconsistente Anotada. São Paulo. Blucher, pp. 37–47, 2011.
8. Abe, J.M., et al.: Lógica Paraconsistente Anotada Evidencial E, pp. 38–39.
Comunnicar, Santos, 2011.
9. De Carvalho, F.R., Brunstein, I., Abe, J. M.: Paraconsistent Annotated Logic in
Analysis of Viability: in approach to product launching. In: Dubois, D.M. (ed.), vol.
718, pp. 282–291, 2011.
10. Dill, R.P., Da Costa Jr., N., Santos, A. A. P.: Corporate Profitability Analysis: A
Novel Application for Paraconsistent Logic. Applied Mathematical Sciences 8, 2014.
11. International Organization for Standardisation. ISO/IEC: 9126 Information
Technology-Software Product Evaluation-Quality characteristics and guidelines for
their use, 1991.
79
5.4 Artigo 4
Título: ERP Software Quality using Paraconsistent Logic
Autores: Tavares, P. F. S. L.; Silva, G. C.; ABE, Oliveira, C. C.
Publicação: Conference Advances in Production Management System (APMS
2016). IFIP Advances in Information and Communication Technology, 2016.
Resumo: Este estudo mostra a percepção dos usuários em relação ao software
ERP (Enterprise Resource Planning). Utilizou-se ISO / IEC 9126-1 para a avaliação
de questões de qualidade. Como uma ferramenta de tomada de decisão, foi utilizado
o Paraconsistente Anotada Evidential Logic Eτ, auxiliando fábricas de software em
que item de qualidade para investir a fim de ERP para melhorar o processo de
produção e, consequentemente, seu produto final.
Texto encontra-se nas normas deste periódico.
ERP Software Quality using Paraconsistent Logic
Priscila F.Tavaves1, Jair M. Abe
2, Genivaldo Silva
3, Avelino P. Pimenta Jr.
4
1Paulista University, Graduate Program in Production Engineering
Dr. Bacelar 1212 St, São Paulo, Brazil [email protected],
Abstract. This study shows the perception of users regarding the ERP software (Enterprise
Resource Planning). We used ISO/IEC 9126-1 for the evaluation of quality questions. As a
decision-making tool, we used the Paraconsistent Annotated Evidential Logic Eτ, assisting
software factories in which quality item to invest in ERP order to improve the production
process and consequently their final product.
Keywords: Software Quality, ISO 9126-1, ERP, Paraconsistent Logic.
1. Introduction
In the decade of the 90s of last century, the implementation of ERP software
(Enterprise Resource Planning) was presented as a major focus of investments
related to the use of information technology in enterprises [1], which sought to
gain competitive advantage through cost reduction and product differentiation by
using these systems.
Thus, it was necessary to integrate business processes of companies with ERP
was originally built. As the use of the ERP among companies gets more popular,
the concern about the quality arises [2], as there are in the market several
software development centers of this segment.
80
The question of this research is: how can IT users assess existing quality aspects
in ERPs?
This research proposes to evaluate the perception of the user regarding the
quality of ERP, based on ISO / IEC 9126 [3] and apply Paraconsistent Annotated
Evidential Logic Eτ, with the focus on helping you software factory in which
quality characteristic should invest to improve production process of ERP
software and user satisfaction.
The research is relevant because it motivated by the difficulties encountered by
small and medium-sized software companies with limited financial resources
O'Brien [4] to implement international standards. It helps to verify that the ERP
meets the quality standards established by the standard ISO/IEC 9126 through
Paraconsistent Logic, which analyzes the responses of IT experts that are often
inaccurate or contradictory and that, if verified by other methods, will not have
adequate accuracy for decision making. Thus, this work demonstrates that there
are reasonable solutions for this niche of software market to work with quality in
its products.
2. Literature Review
2.1 Software Quality
Some thoughts on quality: for Deming [5], product quality has a purpose:
satisfying the customer. Crosby [6] states that "quality is the accordance to
requirements".
There are many international norms and frameworks on software quality. We
present them briefly:
ISO 12207 was created in order to standardize the quality of various types of life
cycle of existing softwares in Software Engineering (Pressman 2014). It is
divided into: Primary Processes, Organizational Support and additional
information on ISO/IEC 12207.
CMMI (Capability Maturity Model Integration) is an approach of process
improvement that helps in the development of products, services and
procurement. It has five levels of maturity: 1 - Initial, 2 - Managed, 3 - Defined,
4 - Quantitatively Managed and 5 - Optimized, details at:
www.cmmiinstitute.com.
ISO/IEC 15504 or SPICE, includes a reference model in two dimensions: the
Process Dimension, divided into five big categories: Customer - Supplier,
Engineering, Support, Management and Organization and Capacity Dimension,
divided into six levels: Incomplete, Realized, Managed, Established, Predictable
or Optimized.
Both of the norms above mentioned, including ISO 9126, have some points to
note:
Years are necessary for process improvement, organizational changes,
employees training and putting the standards cited in practice completely;
Significant investment in specific training for human resources;
Greater investment in consulting for internal audits aimed at validation of
requirements specified in each ISO;
Revalidation of certification constantly achieved in software factories,
which also generate investments.
Observing the aspects shown above, the small and medium-sized software
factories don't have financial resources for implementation of norms in software
quality, which makes their competition in the global market in which they are
impossible. To attenuate this problem, the use of Paraconsistent Logic along with
81
ISO 9126 is suggested, which doesn't replace the international standards
mentioned, but contributes to the study, requiring significant financial
investment to assess in which aspects the ERP needs to adapt, assisting
companies in this decision making.
2.2 ISO/IEC 9126-1
It is divided into four regulations, but for this study we used only Part 1: Quality
model. The ISO/IEC 9126-1 presents six groups that assess quality to the
software, as shown in Table 1 below [3]:
Table 1 Characteristics of Software Quality according to ISO/IEC 9126-1
Source: Adaptad ISO/IEC 9126-1
2.3 ERP - Enterprise Resource Planning
The ERP arose from the confluence of factors such as: integration of
transnational companies requiring a unique and real-time treatment of
information; tendency towards substitution of functional structures by
structures anchored in processes; and integration of various information
systems into a single system.
It maintains a unique and consistent flow of information across the enterprise
in a single database and it shows transactions made by the company, designing
scenarios of its business processes [4].
It offers a set of programs that connect and incorporate the administrative
procedures or data generated by other applications [7].
Also, ERP integrates the company's management, improving decision making
and allowing real-time monitoring [1].
2.4 Paraconsistent Annotated Evidential Logic Eτ (Logic Eτ)
Roughly speaking, Paraconsistent logics are logics that can serve as underlying
logic of theories in which there are formulas A and A (the negation of A) both
true without being trivial [8]. There are infinitely many paraconsistente
systems. In this work we consider the Paraconsistent Annotated Evidential
Logic Eτ.
The atomic formulas of the language of the Logic E are of the type pin
which p is a proposition and e (, ) [0, 1] is the real unitary closed interval.
p(, ) can be intuitively read as: " The favorable evidence of p is and the
contrary evidence is ” [9]. For instance, p(1.0, 0.0) can be read as a true
proposition, p(0.0, 1.0) as false, p(1.0, 1.0) as inconsistent, p(0.0, 0.0) as
paracomplete, and p(0.5, 0.5) as an indefinite proposition [10]. Also we
82
introduce the following concepts: Uncertainty degree: Gun(, )= + - 1 (0
, 1) and Certainty degree: Gce( ,) = - (0 , 1) [11].
An order relation is defined on [0, 1]: (1, 1) (2, 2) 1 2 and 2 1,
constituting a lattice that will be symbolized by .
With the uncertainty and certainty degrees we can get the following 12 output
states Table 1: extreme states, and non-extreme states. It is worth observed
that this division can be modified according to each application [12].
Table 2 Extreme and Non-extreme states
Source: Adapted from Abe, (2015)
Some additional control values are:
Vscct = maximum value of uncertainty control = Ftun
Vscc = maximum value of certainty control = Ftce
Vicct = minimum value of uncertainty control = -Ftun
Vicc = minimum value of certainty control = -Ftce
All states are represented in the next Figure (Fig.1).
Figure 2 Extreme and Non-extreme states
Source: Adapted from Abe, (2011)
From data standardization experts and the same being submitted - Aces rules
Paraconsistent Logic, the graph of Figure 1 is generated and from the ordered
pairs indicated in the graph, the analysis can be performed using the Table 2.
83
3. Methodology
We forwarded an on-line questionnaire to thirty IT users of the ERP in daily
operations, where we dealt with questions about the perception of users
regarding the six characteristics of ISO 9126-1 shown in Table 1.
Answers from all requested users were obtained and the results were grouped
by expert teams (Final Users, System Analysts and IT managers) where we
obtained quantitative data.
From these data, we used the Logic Eτ to support the Software Factories in
deciding in which quality feature related to the ISO 9126-1 to invest efforts in
correcting problems in order to, consequently, improve the product and get
satisfaction of ERP customers.
Below, procedures for the application of Logic Eτ:
a) Definition of Proposition: To start the study, we went to the following
statement: There were problems in the quality of ERP software.
b) Factors for expert analysis: The factors used for the analysis of respondents
were the same as listed in Table 1, from the ISO / IEC 9126.
c) Sections for expert analysis: The sections, asked in accordance to each
factor, are related as shown in Table 3:
Table 3 Factors and Sections used in structuring the database
Factors Sections
F1 Functionality S1 - Do the functions that the ERP contemplate meet the current needs?
F2 Reliability S1 - Does the ERP maintain its performance level (does not freeze) even in critical situations?
F3 Efficiency S1 - Is the performance level vs response time of the ERP balanced?
F4 Usability S1 - Is the effort required for the use of the ERP irrelevant, is the software easy to learn and operate?
F5 Maintainability S1 - It is necessary to make great effort to upgrade or to perform maintenance on the ERP?
F6 Portability S1 – Does the ERP work in multiplatforms like: Windows, Linux, Os2, SQL, Oracle, DB2, etc?
Source: The authors
d) Definition of expert groups: The questionnaire was sent to 3 groups of IT
specialists: Final Users, System Analysts and IT managers, (thus following
assessment standard ISO/IEC 9126-1), where each group had ten replies,
totaling thirty ERP users interviewed.
e) User responses: Each quality factor was evaluated by ERP users about the
positive and negative aspects (, ) ranging from 0 to 1.
f) Assigning weights to the responses of experts: a weight "2" was assigned to
the answers of the final user group, as this is the central axis of the research.
g) Database construction: From Table 3, the responses of experts were grouped
according to their group and the data were normalized by arithmetic average
and distributed among each type of specialty, as shown in Table 3:
84
Table 4 - Data collection from experts
Source: The authors
With data from Tab. 4, we drew the favorable and contrary evidence from
experts on the factors (F1 to F6). The rules of Maximum and Minimum have
been applied.
h) Maximization and Minimization rules: We used the rules of Max and Min to
the evidence of experts for each factor and section identified.
4. Analysis and Discussion
We have favorable or contrary evidence relating to software quality
characteristics, if there is a certainty degree equal or greater than 0,6. The
certainty degree is defined as: Gce =
The division criterion adopted was:
Gce 0,6 Truth (T), the valued software can be considered of good quality;
Gce -0,6False (F), the valued software has no good quality; and -0.6 < Gce
< 0.6. Region between Truth and False is called DOUBT, where the amount of
data presented was inconclusive to determine whether the software factor has
good quality or not.
We applied the Max and Min rules to the data of Table 4, below on Table 5.
Table 5 Evidence degrees resulting from the application of Max and Min rules
Source: The authors
Fa
cto
rs
Se
cti
on
s Number of lines: 6
Control Value:≥ 0,6
Max and Min
between groups
Conclusions
1R 2R Gce Gcon
tr Decision
F1 S1 0,9 0,3 0,6 0,2 True
F2 S1 0,5 0,2 0,0 -0,3 Paracomplete
F3 S1 0,7 0,3 0,4 0,0 False
F4 S1 0 0 0,0 -1 Paracomplete
F5 S1 0,2 0,9 -0,7 0,1 False
F6 S1 0,8 0 0,8 -0,2 True
85
Observing the degree of favorable and contrary evidence resulting from the
application of MAX (OR) and MIN (AND) rules to the evidence of the experts,
it is noted that the degree of certainty (Gce) to F1 (functionality) is Gce 0.6
experts say ERP meets the quality questions here in.
When analyzing the F2 factor (reliability) the Gce showed 0.0, which means
experts have not reached a conclusion.
For the F3 factor (efficiency), the presented Gce 0.4, ie, experts report that the
ERP does not offer good response times and uses many computational
resources.
Regarding the F4 factor (usability), the Gce = 0.0, that is, the experts have not
reached a conclusion.
Regarding the F5 factor (Maintainability) the Gce presented -0.7, meaning the
maintenance of ERP is for bug fixes, product enhancements or version
migration which are complex to run.
Finally, for the F6 factor (Portability), the Gce showed 0.8, in which experts
agree that ERP can work in computer multi-platform, showing no significant
problems.
On the Unit Square in the Cartesian Plane, adapted from Abe [11], we are
presented the coordinates and abscissas from Table 5.
Figure 3 Unit Square in the Cartesian Plane (USPC)
Source: The authors
For factors F2 and F4 there were doubts among the experts; in order to clarify
them, stricter criteria for evaluation is needed, i.e., for a safer and more reliable
decision, it may be necessary to increase the Requirement Level or to use a
larger number of experts in the search, or to even consider the given evidence
in terms of each expert's weight.
86
5. Conclusion
After applying the Logic Eτ, it was noted that the Factors F3 (Efficiency) and
F5 (Maintainability) require significant improvements related to quality of ERP
software, according to ERP users questioned.
With this research, it was possible to identify and assess the user perception,
supported by ISO/IEC 9126, as ERP softwares are characterized in the aspect
of quality.
It was from the Logic Eτ that it was assessed that among the six quality traits
studied, two of them - Efficiency and Maintainability - must be reviewed and
better structured by software factories.
Software Factories, knowing their vulnerability among the groups studied by
ISO 9126, will benefit from the results, reducing rework and domestic
spending on their projects, and their potential customers will not be affected by
unscheduled stoppages caused by defects in the ERP, avoiding financial losses
of this type of incident and consequently increasing satisfaction with the
services provided.
In resume, the Logic Eτ was essential to eliminate the contradictions, assisting
the management of software factories in which quality characteristics to invest,
thus improving its processes and therefore its ERP software products, reaching
then the goals at the beginning this study.
The limitations of the paper are: a survey among the most significant software
factories in this segment, thereby generating data for targeted products;
formulating questions covering up the existing sub- characteristics in each
group of ISO 9126, bringing greater specificity to each group and presenting a
deepening in the Paraconsistent Logic theory to better understand the
technique.
References
[1] Laudon, K. C., Laudon, J. P.: Management information systems. 6. ed. Upper Saddle
River: PrenticeHall, 2014.
[2] Pressman, Roger S. Engenharia de Software. 8. ed. São Paulo: McGraw-Hill, 2011.
[3] International Organization for Standardization. ISO/IEC: 9126 Information
Technology-Software Product Evaluation-Quality characteristics and guidelines for their use, 1991.
[4] O'Brien, J. A. Administração de Sistemas de Informação. [S.l.]: AMGH, ISBN 8580551110, 2013;
[5] Deming, W. Edwards. Qualidade: A revolução da administração. Tradução de Clave comunicações e Recursos Humanos. Rio de Janeiro: Marques Saraiva, 1990.
[6] Crosby, P.B. Quality is Free: the Art of Making Quality Certain. Denver: Mentor
Books, 1992.
[7] Cherene, L. P.; DA SILVA, Luciano Souza; SILVA, Simone Vasconcelos.
Dificuldades e benefícios na implementação de um sistema de gestão empresarial (Sap R/3). Perspectivas On-Line 2007 - 2010, v. 4, n. 16, 2014.
[8] Abe, J. M. Nakamatsu. Introduction to Annotated Logics - Foundations for
Paracomplete and Paraconsistent Reasoning, Series Title Intelligent Systems
Reference Library, Volume 88, Publisher Springer International Publishing, Copyright
Holder Springer International Publishing Switzerland, eBook ISBN 978-3-319-17912-4,
DOI 10.1007/978-3-319-17912-4, Hardcover ISBN 978-3-319-17911-7, Series ISSN 1868-4394, Edition Number 1, 190 pages, 2015.
[9] Carvalho, F. R., Abe, J. M.: Tomadas de decisão com ferramentas da Lógica Paraconsistente Anotada. São Paulo. Blucher, pp. 37–47, 2011.
87
[10] Abe, J. M., et al.: Lógica Paraconsistente Anotada Evidencial Eτ, pp. 38–39. Comunnicar, Santos, 2011.
[11] Carvalho, F.R., Brunstein, I., Abe, J.M.: Paraconsistent Annotated Logic in
Analysis of Viability: in approach to product launching. In: Dubois, D.M. (ed.), vol. 718, pp. 282–291, 1997.
[12] Carvalho, F.R., Brunstein, I., Abe, J.M.: Decision Making based on Paraconsistent
Annotated Logic, pp. 55–62. IOS Press, 2005.
88
6 CONSIDERAÇÕES FINAIS
Este capítulo apresenta as considerações finais deste trabalho demonstrando
pontos relevantes para a conclusão do assunto proposto.
6.1 Resultados
Nesta dissertação, a partir do levantamento bibliográfico em que se obteve o
“estado da arte” de cada tema pertinente ao assunto, foi possível identificar a
importância da necessidade de avaliações sobre os aspectos de qualidade em TI,
para a permanência das organizações nesse segmento tão competitivo e de
inovações constantes.
Observou-se a importância relevante dos serviços prestados pela Tecnologia
da Informação, seu grande crescimento mundial destacando-se dentre um dos
maiores tipos de serviços prestados atualmente e assim, estudando alguns de seus
aspectos, aferir seus problemas, sanar inconsistências e dados contraditórios, com a
aplicação da Lógica E, direcionando o segmento para melhoria contínua.
Escolheu-se observar com detalhes os seguintes componentes da TI: de
redes (que engloba também Telecomunicações), o de hardware (que envolve toda a
infraestrutura que suporta a TI), e software (centralizando a maior quantidade de
peoplewares), que realizam inúmeras transações diárias nessa ferramenta, com seu
uso: automação de tarefas, diminuição de defeitos operacionais, maior produtividade
e por consequência, obtenção de maior lucro.
Ao concluir a pesquisa referente ao Artigo 1 - Um estudo comparativo entre
ferramentas e métodos de qualidade para promover a melhoria contínua nas
organizações, percebe-se que muitas empresas não sabem diferenciar e utilizar as
ferramentas para a gestão da qualidade, deixando de utilizá-las por não terem de
forma objetiva como diferenciá-las.
A proposta do artigo foi apresentar características comuns aos métodos
estudados para que sejam comparados e assim, as organizações possam escolher
as ferramentas mais adequadas as suas necessidades empresariais, ao objetivo
estratégico e do negócio, o que satisfaz o objetivo especificado no Capítulo 1.
No artigo 2 de título: Analysis on TELECOM: Aspects of Quality and Risk in
Customer Service, conheceu-se e mapeou-se o funcionamento da regra de negócio
89
referente ao aspecto da Telecom sobre de venda e cancelamento das linhas
telefônicas residenciais, pois a empresa que foi o case real estudado, não possuia
essa visibilidade.
Com o levantamento de dados da pesquisa, apresentaram-se altos os índices
de abertura de Ordens de Serviço e de cancelamento de linhas, o que demonstrou
problemas com os serviços contratados, dúvidas dos clientes não esclarecidas na
primeira abertura de chamado efetuado e mau funcionamento da infraestrutura.
Por fim, analisando as vulnerabilidades encontradas, reforça-se a
necessidade de métodos e normas de qualidade para uma melhoria contínua dos
serviços prestados e consequentemente, maior retenção de clientes.
Ao pesquisar sobre a percepção dos especialistas em TI sobre como
identificam e classificam os incidentes críticos em infraestrutura, apontados a partir
de chamados realizados pelos clientes, recebidos pelos services desks, o artigo 3 -
IT Incident Management and analysis using Non-Classical Logics apresenta que
dentre os quesitos pesquisados houve consenso comum frente aos itens
questionados.
Foi apurado após a aplicação da Lógica E nos dados coletados, que todos
os problemas apresentados na Tabela 4, podem ser considerados críticos e
precisam de ações imediatas ou de contorno para que os serviços sejam
reestabelecidos o mais breve possível, sem danos operacionais.
Esse resultado foi surpreendente, pois na prática (tendo por base quinze anos
atuando profissionalmente na área de TI), percebe-se que muitos incidentes são
classificados erroneamente pelo suporte técnico, ocasionando desdobramentos
incoerentes e distorcendo o problema apontado inicialmente, o que por
consequência apresenta: maior demora em sua detecção e ajuste, maior tempo de
espera por parte do cliente que pode estar com seus serviços total ou parcialmente
interrompidos, acarretando prejuídos financeiros.
Como forma de justificar essas respostas unâmines dos especialistas frente
ao tema pesquisado, acredita-se que as organizações (principalmente as de grande
porte), investiram em métodos e ferramentas de qualidade em TI nos últimos anos,
podendo citar algumas como a implantação do ITIL, da ISO 20.000 e em normas
internacionais relacionadas no Quadro X, o que reforça a partir de treinamentos
realizados, a capacitação profissional do operacional de TI, melhorando sua análise
e execução de procedimentos técnicos como um todo.
90
Ao pesquisar sobre qualidade nos sotwares ERP, citado no artigo 4 - ERP
Software Quality using Paraconsistent Logic E e tendo por base a ISO 9126, que
indica seis grupos essenciais para aferir qualidade em requisitos não-funcionais em
software, nos questionamentos realizados dentre os especialistas questionados,
verificaram-se contradições e inconsistências entre suas respostas.
Para tratar os dados contraditórios e apresentar em quais grupos da ISO
9126 o ERP deve ser melhorado, foi fundamental a Lógica E, que apontou os
fatores F3 (Eficiência) e F5 (Manutenibilidade) como grupos que necessitam de
melhorias significativas relacionadas à qualidade de software ERP, de acordo com
os usuários de ERP questionados.
As Fábricas de Software que produzem ERP, sabendo de seus aspectos
vulneráveis frente aos grupos estudados pela ISO 9126, se beneficiarão a partir dos
resultados apresentados com a pesquisa, reduzindo o retrabalho e os gastos
domésticos com os seus projetos de software, seus clientes não serão afetados por
paradas não programadas causadas por defeitos no ERP, o que evita perdas
financeiras e, consequentemente, aumenta-se a satisfação do cliente com serviços
de melhor qualidade sendo prestados.
6.2 Contribuições
Com este trabalho, entendeu-se a importância de se aplicar normas
internacionais de qualidade para os componentes de TI e, através de estudos que se
tornaram publicações, evidenciou-se que a percepção dos especialistas
questionados frente a temas reais polêmicos na área e em quais questões a TI deve
investir para melhorar seus serviços.
No artigo 1 discutiu-se como principal elemento um quadro comparativo
dentre diversas ferramentas de cunho estatístico para controle da qualidade para
que as empresas consigam diferenciar sua utilização e as utilizem de acordo com a
necessidade específica de seu negócio.
Para o artigo 2, verificou-se dentro da área de telecomunicações, como está o
grau de satisfação dos clientes na prestação de serviços de linhas telefônicas e
apurou-se uma quantidade significativa de cancelamentos de serviços por falta de
qualidade no serviço de suporte técnico e de infraestrutura adequada para prover os
serviços de TI.
91
Sobre o artigo 3, questionou-se para especialistas da área de infraestrutura
como eles classificavam alguns defeitos relacionados à hardware e à software.
Houve consenso entre os entrevistados afirmando ser incidentes críticos em TI.
Houve surpresa após a análise dos dados pois no ambiente profissional real, os
itens questionados apresentam classificações contraditórias. Acredita-se que o
aperfeiçoamento dos especialistas e boas práticas de qualidade em TI estejam
minimizando impactos negativos nesse segmento.
Questionando-se especialistas sobre os aspectos de qualidade em softwares
ERP, no Artigo 4, utilizando a ISO 9126 como base, foi apresentado após a
aplicação da Lógica E em dois grupos: Eficiência e Manutenibilidade apresentaram
vulnerabilidade e precisam de melhores processos e investimento dentre as fábricas
de software para alcançarem excelência em seus produtos.
Para tanto, a aplicação da Lógica E foi instrumento chave para obtenção de
indicadores úteis frente as decisões que devem ser tomadas para aprimorar os
aspectos de TI estudados.
6.3 Trabalhos futuros
A partir desta dissertação, novas pesquisas podem ser realizadas nos demais
componentes da TI, que não foram o foco deste estudo a priori: a confiabilidade dos
dados inseridos nos softwares e são utilizados de forma direta ou indireta por todos
os demais componentes e sobre os peoplewares, pessoas que usam, analisam,
projetam, implantam e dão manutenção em soluções de TI, levantando seus
aspectos de qualificação profissional, remuneração e satisfação.
Por fim, com os aspectos já apresentados nesta pesquisa e com as sugestões
acima citadas, ter-se-ia uma melhor abrangência e compreensão da qualidade nos
aspectos da TI como um todo.
6.4 Considerações finais
O contexto desta dissertação possui como observações gerais analisar pela
perspectiva dos especialistas em TI, como eles visualizam a qualidade em TI com
relação a: telecomunicações, incidentes críticos (infraestrutura e software) e
qualidade de software ERP, com o propósito de apoiar as fábricas de software e/ou
92
departamentos de TI na execução de suas tarefas críticas, mostrar suas
vulnerabilidades e despertar no segmento de TI brasileiro a importância da adoção
de práticas de qualidade em seus processos e produtos como fator de sucesso, para
atender as exigências corporativas, aumentando o grau de confiabilidade e de
satisfação do cliente.
Como apresentado no Capítulo 5, os resultados obtidos com a realização dos
estudos dentre os componentes da TI utilizando a Lógica E, permitiu verificar o uso
e a adequação de uma lógica não clássica para apoiar processos de tomada de
decisão, atendendo assim os objetivos especificados no Capítulo 1.
93
REFERÊNCIAS BIBLIOGRÁFICAS
ABE, J. M. Fundamentos da Lógica Anotada. Tese de Doutorado FFLCH - USP. São Paulo, p. 135. 1992.
ABE, J. M.; AKAMA, S.; NAKAMATSU, K. Introduction to Annotated Logics. Intelligent Systems Reference Library, [s.l.], 190 p., 2015. Springer International Publishing. http://dx.doi.org/10.1007/978-3-319-17912-4.
ABE, J. M.; DA SILVA FILHO, João Inácio; CELESTINO, Uanderson; ARAÚJO, Hélio Corrêa de. Lógica Paraconsistente Anotada Evidencial Et. Santos: Comunicar, 2011.
ABE, J. M., Paraconsistent Intelligent Based-Systems: New Trends in the Applications of Paraconsistency, editor, Book Series: “Intelligent Systems Reference Library”, Springer-Verlag, Vol. 94, ISBN: 978-3-319-19721-0, 306 pages, Germany, 2015.
ABE, J. M.; LOPES, H. F. S.; NAKAMATSU, K. Paraconsistent artificial neural networks and EEG. International Journal of Knowledge Based Intelligent Engineering Systems, v. 17, n. 2, p. 99-111, 2013. ISSN: 13272314. Disponivel em: <http://search.ebscohost.com/login.aspx?direct=true&db=aph&AN=87692584&lang=pt-br&site=ehost-live>. Acesso em: 23 jun. 2014.
ABES - Associação Brasileira das Empresas de Software: Mercado Brasileiro de Software: panorama e tendências, 2016 = Brazilian Software Market: scenario and trends, 2016, 1ª. ed., ISBN 978-8586700-03-3, CDD-338.4300530981, São Paulo, 2016.
AKAMA, S.; Towards Paraconsistent Engineering, Intelligent Systems Reference Library, Volume 110, 234 pages, 2016, ISBN: 978-3-319-40417-2 (Print) 978-3-319-40418-9 (On-line), Series ISSN 1868-4394, Publisher Springer International Publishing DOI: 10.1007/978-3-319-40418-9
ALVAREZ, R. L.P; MARTINS, M. R.; SILVA, M. T. Aplicando o conceito de modelo de maturidade par ao processo servitização de empresas de bens de consumo duráveis no Brasil. Journal of Technology Management Manufacturing, 2015, Vol. 26 Iss:8, pp. 1086-1106.
COSTA NETO, P. L.; COSTA, I.; NETO, M. M.;JUNIOR, J. L. C. Qualidade em Tecnologia da Informação, Atlas, 2013.
CROSBY, P.B. Quality is free. New York: McGraw-Hill, 1979.
DA SILVA FILHO, J. I. Métodos de interpretação da Lógica Paraconsistente Anotada com anotação com dois valores LPA2v com construção de Algoritmo e implementação de Circuitos Eletrônicos. Tese de Doutorado apresentada à Escola Politécnica - USP. São Paulo. 1999.
94
DA SILVA FILHO, J. I.; LAMBERT-TORRES, G.; FERRARA, L. F. P.; MÁRIO, M. C.; SANTOS, M. R. D; ONUKI, A. S.; CAMARGO, J. M.; ROCCO, A. Paraconsistent Algorithm Extractor of Contradiction Effects - Paraextrctr. J. Software Engineering & Applications, v. 4, n. 10, p. 559-601, out. 2011.
DA SILVA FILHO, J. I.; ABE, J. M.; TORRES, G. L. Inteligência Artificial com as Rede de Análises Paraconsistentes. Rio de Janeiro: LTC, 2008. NUMERO DE PGS
DEMING, G. E. Quality, productivity and competitive position. EUA: Centr for Advanced Engineering Study, MIT Press, 1982.
DE HAES, S.; VAN GREMBERGEN, W.; DEBRECENY, R. S. COBIT 5 and enterprise governance of information technology: building blocks and research opportunities. Journal of Information Systems, v. 27, n.1, p. 307-324, 2013.
DOS REIS, N. F. et al. Lógica paraconsistente anotada evidencial Eτ aplicada a cenários. In: Proceedings of Safety, Health and Environment World Congress. 2013.
FITZSIMMONS, J. A. & FITZSIMMONS, M. J. Administração de Serviços: Operações, estratégia e tecnologia da informação. 7ª edição, McGrawHill, p. 4,2014.
IEEE STD. 610 12-1990, IEEE Standard Glossary of Software Engineering Terminology, IEEE, Piscataway, NJ, 1997.
JUNIOR, I. M.; ROCHA, A. V; MOTA, E. B; QUINTELLA, O. M. Gstão da qualidade e processos. FGV Management, 2012.
JURAN, J.M., GRYNA, F.M. Juran´s Quality Control Handbook. Mcgraw-Hill 1988.
KALTENECKER, E. Qualidade segundo Garvin. Annablume, 2013.
KIRCHNER, Joana Benetti; BOARO, Vinicius; SOUZA, Adriano Mendonça. Avaliação da qualidade de serviços de uma empresa agrícula. G&DR - Revista Brasileira de Gestão e Desenvolvimento Regional, v. 8, n.1, jan./abr., 2012, p. 109-124.
KOSCIANSKI, André, SANTOS, Michel. Qualidade de software: aprenda as metodologias e técnicas mais modernas para o desenvolvimento de software. 2. ed. São Paulo: Novatec Editora, 2007.
LAKATOS, Eva M.; MARCONI, Marina de A. Metodologia do trabalho científico. 6. ed. São Paulo: Atlas, 2001.
LAUDON, K. LAUDON, J. Sistemas de Informações Gerenciais. 9a edição, São Paulo, Pearson Prentice Hall, 2011.
95
MAFFEO, Bruno. Engenharia de Software e Especificação de Sistemas. Rio de Janeiro: Campus, 1992.
MARCONI, M. de A. e LAKATOS, E. M. Técnicas de pesquisa. 6.ed. São Paulo: Atlas, 2006.
Ministério da Ciência e Tecnologia (MTC). Qualidade e Produtividade no Setor de Software Brasileiro. Brasília. Ministério da Ciência e Tecnologia. Secretaria de Política de Informática, 2001.
Ministério da Ciência e Tecnologia (MTC). Qualidade e Produtividade no Setor de Software Brasileiro. Brasília. Ministério da Ciência e Tecnologia. Secretaria de Política de Informática, 2005. Disponível em: <www.mct.gov.br>. Acesso em: 24/03/2016.
Ministério da Ciência e Tecnologia (MTC). Qualidade e Produtividade no Setor de Software Brasileiro. Brasília. Ministério da Ciência e Tecnologia. Secretaria de Política de Informática, 2009. Disponível em <www.mct.gov.br>. Acesso em: 17/05/2016.
O'BRIEN, J. A. Administração de Sistemas de Informação.15ed. Porto Alegre: AMGH/McGraw-Hill/Bookman, 2013.
PARASURAMAN, A.; ZEITHAML V. A.; BERRY L. L. A conceptual model of services quality and its implication for future research, Journal of Marketing, v. 49, n. 4, p. 41-50, 1985.
PRADO, Á. A. C.; OLIVEIRA, C. C.; SAKAMOTO, L. S.; ABE, J. M.; NOGUEIRA, M. Reaching Energetic Sustainability through a Self-oriented Battery Charger, Based on Paraconsistent Annotated Evidential Logic Eτ. Ifip Advances In Information And Communication Technology, [s.l.], p.369-374, 2013. Springer Science + Business Media. http://dx.doi.org/10.1007/978-3-642-41263-9_46.
PRESSMAN, Roger S. Engenharia de Software. 6. ed. São Paulo: McGraw-Hill, 2011.
REIS, N. F.; OLIVEIRA, C. C.; SAKAMOTO, L. S.; DE LIRA, A. G.; ABE, J. M. Paraconsistent Method of Prospective Scenarios (PMPS). Ifip Advances In Information And Communication Technology, [s.l.], p.76-84, 2014. Springer Science + Business Media. http://dx.doi.org/10.1007/978-3-662-44739-0_10.
REIS, N. F. Método paraconsistente de cenários prospectivos. Tese apresentada ao Programa de Pós-Graduação em Engenharia de Produção da Universidade Paulista - UNIP, para obtenção do título de Doutor em Engenharia de Produção, 2014.
SEI – Software Engennering Institute.Pittsburgh: Carnegie Melon University, 2001. Disponível em:<http://sei.cmu.edu.>. Acesso em: 20 jun. 2016.
96
SILVA, E. M. da et al. Gestão da qualidade em serviços de TI: em busca de competitividade. Produção, [s.l.], v. 16, n. 2, p.329-340, ago. 2006. FapUNIFESP (SciELO). http://dx.doi.org/10.1590/s0103-65132006000200012.
SLACK, N.; CHAMBERS, S.; JOHNSTON, R. Administração da Produção. 2.ed. ed. São Paulo: Atlas, 2002.
SOMMERVILLE, Ian. Engenharia de Software. 6. ed. São Paulo: Addison Wesley, 2011.
TIGRE, Paulo Bastos.Gestão da Inovação.Elservier, 2014.
VINCENT, R. Géométrie du nombre d´or. Chalagam Edition, 2004.
WAZLAWICK, R. S. Metodologia de Pesquisa para Ciência da Computação. Rio de Janeiro: Elsevier, 2008.
97
ANEXOS
Anexo I – Motivos de Incidentes Críticos em Infraestrutura de TI
Questionário utilizado para levantamento de dados referentes ao artigo 3, Capítulo 5.
98
99
Anexo II – Questionário sobre qualidade em Software ERP
Utilizado para levantamento de dados referente ao artigo 4, Capítulo 5.
100
101