Conversando sobre Análise de Sistemas de Medição (III)

Antes de continuar nossa conversa sobre MSA, gostaria de saber se  alguém chegou a  perceber qual o problema que o profissional da qualidade certamente apontaria ao engenheiro de processos no caso do sistema de medição apresentado no exemplo do post anterior.

Trata-se do seguinte. Se a peça que vai ser medida tem a especificação de 5,00+-0.01 mm, espera-se, no mínimo, que o processo de fabricação seja marginalmente capaz, o que significa que os limites naturais de tolerância devem coincidir com os limites de especificação. Isto quer dizer que 3 * sigma não pode exceder 0,01 mm. Mas a variabilidade das medições está muito maior; o 3*sigma do processo é 0,023 mm.  A Figura 1 ilustra a situação

Histograma de C1; C2

Figura 1 – Processo x especificação (processo não capaz!!!)

Como sabemos que as peças medidas estão dentro da especificação (o laboratório mediu), podemos concluir que o sistema de medição produz de maneira estável e consistente resultados errados.

Este é  ponto que eu queria destacar: um sistema estável de causas aleatórias nem sempre é o suficiente para atender a necessidade do processo.

Determinação do erro sistemático (“bias”)

Isto posto, vamos falar agora sobre como determinar se o sistema de medição apresenta erro sistemático. Vamos lá, definindo em primeiro lugar o que é este erro sistemático.

O erro sistemático é a diferença entre o valor de referência de uma grandeza e o valor médio de certo número de medições realizadas.  Em inglês usamos a palavra “bias” que significa tendência ou polarização; por exemplo, uma “biased opinion” é uma  opinião tendenciosa.

Para determinar o erro sistemático de um sistema de medição você deve fazer o seguinte:

  1. Selecionar uma amostra e determinar os valores usando, se possível, um padrão rastreável. Se um padrão não estiver disponível, selecionar uma amostra com o valor o mais próximo possível da média histórica observada, realizar em laboratório ao menos 10 medições da amostra e adotar como valor de referência a média dos resultados destas medições.
  2. Um único operador deve realizar no mínimo 10 medições da amostra usada para determinar o valor de referência; estas medições devem ser realizadas utilizando o processo normal de produção;
  3. Construir um histograma dos valores medidos pelo operador e verificar como os dados estão distribuídos; espera-se uma distribuição aproximadamente normal, sem valores extremos. Se a análise do histograma não indicar nenhuma anormalidade, o erro sistemático eb é a diferença entre o valor de referência e a média dos valores medidos pelo operador.

Slide1

Como as medições foram todas feitas pelo mesmo operador, sua variabilidade reflete a repetitividade do sistema de medição. Se o número de medições é menor ou igual a 20, o intervalo de variação pode ser usado para estimar o desvio padrão da população:

Slide2

O desvio padrão da média amostral para uma amostra de tamanho n será

Slide3

e o valor de teste correspondente

Slide4O uso da distribuição t se explica pelo fato de que não conhecemos o desvio padrão da população, calculando-o a partir dos dados amostrais.

Na realidade, nosso objetivo é estimar um intervalo de confiança para a média amostral (que supomos ser a mesma de todas as amostras futuras). A amplitude do intervalo depende do nível de significância alfa desejado; acreditamos que a probabilidade de que o valor médio do erro sistemático esteja neste intervalo é de (1-alfa).

O erro sistemático é aceitável se o intervalo de confiança (1 – alfa) incluir o valor zero, ou seja, se for verdadeira a desigualdade

Slide1

Os valores de d2, d2* e g.l. (graus de liberdade) são tabelados. Uma tabela destes valores pode ser encontrada nos apêndices do documento “MEASUREMENT SYSTEMS ANALYSIS Reference Manual – Fourth Edition”, disponível, por exemplo, neste link.

O valor de talfa,g.l. é obtido em uma tabela ou usando a função INVT(alfa;g.l.) do Excel .

Exemplo de determinação do erro sistemático: Deseja-se avaliar o erro sistemático do processo de medição do comprimento de uma peça, cujo valor de referência, estabelecido pelo Laboratório de Metrologia, é 5,000 mm. Esta peça foi medida 15 vezes na linha de produção, por um mesmo operador. O resultado das 15 medições está na tabela a seguir. Considerar um intervalo de confiança de 95%.

MEDIÇÕES
De 01 a 10  De 11 a 15
5,016 4,993
4,999 5,020
5,019 5,005
5,006 4,992
5,020 5,012
4,975 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
4,998 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
5,040 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
4,998 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
5,029 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Tabela 1 – Dados do Exemplo 1

Solução: Com base nos dados da tabela, verifica-se que a média das n=15 medições é:

Slide2

O histograma dos dados, mostrado na figura a seguir parece se ajustar razoavelmente a uma distribuição normal e não exibe valores extremos. Para verificar se, de fato, os dados são normais você pode usar o programa que faz o teste de Lilliefors, que disponibilizei anteriormente. O teste, usando alfa=0,05 como nível de significância, confirma que os dados são normalmente distribuídos.

Fig_9_4

Figura 2 – Histograma das medições da Tabela 1

Portanto pode-se dizer que o erro sistemático das medições é:

Slide3

Os valores de d2, d2* e g.l podem ser encontrados no documento citado. Como há somente um subgrupo com 15 elementos, buscam-se d2* e g.l. na linha g=1, coluna m=15 da Tabela C1 da pag. 203; d2 é encontrado na linha g>15, coluna m=15 da mesma tabela.

Os valores assim encontrados são g.l. = 10,8 d2 = 3,47193 e d2*=3,5533. Substituindo os valores, determinam-se:

Slide8

Slide9

Slide10

 

Para um intervalo de confiança de 95%, alfa=0,05 e deixa-se 0,025 de probabilidade em cada cauda da distribuição t com g.l.=10,8 graus de liberdade.

A função INVT(alfa;g.l.) do Excel somente aceita valores inteiros para g.l., de modo que se requer uma interpolação usando como referência os valores retornados por INVT(0,05;10) e INVT(0,05;11); a interpolação linear resulta em 2,2064 (muito próximo do valor exato, que é 2,2057). Calculando os termos da desigualdade:

Slide1

Slide12Slide13Como se vê, o intervalo de 95% de confiança do erro sistemático inclui o valor zero, logo é possível considerar que o sistema de medição está isento deste tipo de erro.

Se o número de medições é maior do que 15, o intervalo de variação não deve ser usado para estimar o desvio padrão das medições, que deve ser calculado por :

Slide14

O desvio padrão do erro sistemático e o valor crítico de t são calculados como antes:

Slide15

Slide16O erro sistemático é aceitável, ao nível de confiança de (1 -alfa), se incluir o valor zero, ou seja, se for verdadeira a desigualdade

Slide5

onde g.l. é o número de graus de liberdade; o valor de talfa,g.l. é obtido em uma tabela ou usando a função INVT(alfa;g.l.) do Excel.

Vejamos um outro exemplo, neste caso envolvendo uma amostra-com tamanho maior que 20. Vamos supor que se deseja avaliar o erro sistemático do processo de medição do comprimento de uma peça, cujo valor de referência, estabelecido pelo Laboratório de Metrologia, é 5,000 mm. Esta peça foi medida 30 vezes na linha de produção, por um mesmo operador. O resultado das 30 medições está na tabela a seguir. Considerar um intervalo de confiança de 95%.

MEDIÇÕES
De 01 a 10 De 11 a 20 De 21 a 30
5,01559 4,99326 5,00562
4,99919 5,01972 5,00001
5,01926 5,00541 5,01238
5,00580 4,99177 5,01099
5,01968 5,01204 4,98543
4,98918 5,00360 4,97748
4,99824 4,97190 5,03588
5,03078 4,99940 5,03284
4,99843 4,99832 4,99539
5,02894 5,01024 4,98853

Tabela 2 – Dados para o exemplo 2

Solução: Com base nos dados da tabela, verifica-se que a média das n=30 medições é:

Slide18
O histograma dos dados, mostrado na figura a seguir parece se ajustar razoavelmente a uma distribuição normal e não exibe valores extremos. Use o teste de normalidade de Lilliefors para confirmar isto.

Fig_9_5

Figura 3 – Histograma das medições da Tabela 2

Portanto pode-se dizer que o erro sistemático das medições é:

Slide19

Como as medições foram todas feitas pelo mesmo operador, sua variabilidade reflete a repetitividade do sistema de medição. Como o número de medições é maior do que 15, o intervalo de variação não deve ser usado para estimar o desvio padrão das medições, que deve ser calculado por:

Slide20

O desvio padrão do erro sistemático é:

Slide21

e o valor de t

Slide22

Usando o Excel para determinar os valores de t correspondentes ao intervalo de 95% de confiança, aplica-se a fórmula INVT(0,05;29) que retorna o valor 2,0452. Calculando os termos da desigualdade encontra-se:

Slide5

Slide23

Slide6Como se vê, o intervalo de 95% de confiança do erro sistemático inclui o valor zero, logo é possível considerar que o sistema de medição está isento deste tipo de erro.

Caso o erro sistemático seja estatisticamente diferente de zero, ou seja, o intervalo de confiança não contém o valor zero, algumas possíveis causas estão listadas a seguir:

  1. erro na medição do valor de referência;
  2. instrumentos de medição com problemas de ajuste, calibração ou desgaste excessivo;
  3. operadores sem treinamento adequado.

Após investigar estas e outras possíveis causas, pode ocorrer que se chegue à conclusão que o erro sistemático é intrínseco ao sistema de medição utilizado. Neste caso a solução é mudar o sistema ou usar um fator de correção para as medições. A segunda alternativa quase certamente aumentará a probabilidade de erros nos resultados.

COMENTÁRIOS SOBRE ANÁLISE DE SISTEMAS DE MEDIÇÃO (II)

Vamos continuar nossa conversa sobre a análise de sistemas de medição, tratando primeiramente o caso em que desejamos medir uma característica de qualidade representada por uma variável contínua. Por exemplo, um comprimento, um peso, uma tensão, uma frequência de um sinal elétrico,etc. Se durante esta conversa você tiver alguma dúvida, não hesite em me enviar uma mengagem e tentarei lhe responder prontamente.

 

Através da análise de um sistema de medição para variáveis é possível:

  1. determinar se o resultado das medições reflete de fato a variação da grandeza medida;
  2. verificar se os instrumentos de medição apresentam resultados consistentes;
  3. verificar se os operadores realizam medições consistentes.

O que quer dizer resultados consistentes? A ideia  principal é que o sistema produza de forma continuada resultados  (medições) que tenham o grau de exatidão requerido, que sejam precisos (variabilidade pequena e devida principalmente às variações na grandeza medida) e que sejam estáveis (não variem no decorrer do tempo).

Para que isto ocorra é preciso planejar adequadamente o sistema de medição e realizar de maneira impecável sua implantação. Os equipamentos devem ser adequados ao propósito estabelecido; uma regra básica é que eles devem ser capazes de discriminar (=distinguir)  valores dez vezes menores que a tolerância especificada. Por exemplo, se a grandeza medida é especificada como 5,00±0,01 mm o aparelho de medida deve ser capaz de medir 5,000±0,001 mm. Os operadores devem der treinados e qualificados para realizar as medições; deve haver procedimentos definidos, incluindo os controles e verificações periódicas da qualidade do processo. E é preciso garantir a qualificação inicial e a requalificação eventual do processo como um todo, quando necessário.

Vejamos o que é preciso investigar para que se possa ter confiança de que o sistema de medição está corretamente implementado.
Determinação da estabilidade do processo

Se você já fez uma análise de capacidade de algum processo, sabe que só é possível iniciar o estudo depois que o processo está sob controle estatístico. E estar sob controle é a mesma coisa que dizer que temos um sistema estável de causas aleatórias.

Da mesma forma, o pré-requisito para iniciar a análise de um sistema de medição é que este seja estável.  Sabemos que existe uma variabilidade no resultado das medições, porém esta flutuação aleatória deve manter-se dentro de uma faixa estável e conhecida.  E mais, não deve existir nenhum tipo de padrão na maneira como os dados variam; eles devem simplesmente variar de maneira aleatória ao redor da média. Espera-se, portanto, que o sistema de medição seja um sistema estável de causas aleatórias, ou seja, um processo em controle estatístico.

Para determinar a estabilidade de um sistema de medição você deve proceder conforme descrito a seguir:

  1. Selecione uma amostra e faça (ou mande fazer em um laboratório) a medida mais aproximada que for possível da variável de interesse. Esta amostra pode ser uma única peça (que será medida várias vezes), ou várias peças; se não for viável enviar as peças para um laboratório, componha sua amostra com peças nas quais o valor medido esteja o mais próximo possível da média histórica observada.
  2. Execute medições periódicas (por turno, por dia, por semana) da amostra, três a cinco vezes por período durante algum tempo; as medições devem ser feitas em horários diferentes dentro do período, para tornar aleatórios, tão completamente quando possível, fatores que possam afetar as medições. Tais fatores incluem, por exemplo, temperatura ambiente, tempo de aquecimento dos aparelhos de medida, ajustes de equipamentos, diferenças entre operadores, etc.
  3. Construa uma carta X_barra-R ou X_barra-s dos valores medidos e verifique se o sistema de medição está em controle estatístico. Caso não esteja, é necessário determinar e remover a causa especial de variação antes de prosseguir com a análise do sistema de medição.

 

A partir deste ponto em nossa conversa vou mostrar alguns exemplos para ilustrar o processo de análise do sistema de medição. Isto ajuda a entender o que está sendo feito e porque é feito desta maneira. Vamos ao primeiro exemplo.
Exemplo de verificação da estabilidade de um sistema de medição: Deseja-se determinar a estabilidade do processo de medição do comprimento de uma peça; o valor nominal é 5,00 mm. Diversas peças da produção foram enviadas ao Laboratório de Metrologia e foram selecionadas 5 delas, com o comprimento de 5,000 mm. Esta amostra foi então medida uma vez durante cada um dos três turnos diários, durante 10 dias. A média de cada uma das 30 medições está na tabela a seguir; a tabela mostra também o valor de  R para cada amostra. Verificar se o sistema de medição é estável.

 

TURNO (média amostral / R amostral)
DIA Primeiro Segundo Terceiro
1 5,002 / 0,057 4,993 / 0,035 5,005 / 0,015
2 5,010 / 0,020 5,007 / 0,020 5,003 / 0,030
3 5,008 / 0,045 5,016 / 0,040 4,991 / 0,025
4 5,001 / 0,045 4,990 / 0,060 5,000 / 0,032
5 5,009 / 0,020 5,009 / 0,019 4,993 / 0,033
6 4,999 / 0,040 4,995 / 0,045 5,000 / 0,020
7 5,005 / 0,030 5,002 /0,034 5,002 / 0,025
8 5,004 / 0,050 5,017 / 0,032 5,015 / 0,020
9 4,996 / 0,030 4,995 / 0,030 5,014 / 0,030
10 5,000 / 0,032 5,009 / 0,055 5,007 / 0,040

Tabela 1 – Dados do Exemplo

Solução: Para esta verificação, vamos traçar cartas de controle X_barra-R, utilizando o caso mais comum, no qual os parâmetros da carta são definidos a partir dos dados coletados, tomando k observações iniciais (k igual ou maior que 20).

A carta de controle X_barra é utilizada para monitorar a média do processo; a carta R (alguns chamam R-barra) é utilizada para monitorar a variabilidade do processo. Recordando a nomenclatura, o nome vem da letra inicial da palavra inglesa “range”, uma das medidas de dispersão usadas para descrever um conjunto de dados. Conhecido em português como intervalo de variação, R é simplesmente a diferença entre  o maior e o menor valor dos dados de uma amostra.

A principal vantagem de se utilizar R é a facilidade de cálculo, quando comparada com o desvio padrão. As cartas de controle são uma ferramenta de chão de fábrica e esta simplicidade pode facilitar sua aceitação e uso pelo pessoal da linha de manufatura.

Após realizar as observações iniciais, extraindo k amostras de tamanho n, e executar as medições da variável x, pode-se calcular a média geral de todas as observações por:

msaf01

O intervalo de variação média de todas as observações é:

msaf02

Existe uma relação entre o intervalo de variação R de uma amostra extraída de uma distribuição normal e o desvio padrão desta distribuição. Em outras palavras, o desvio padrão de uma distribuição normal pode ser estimado tomando como base o intervalo de variação das amostras extraídas desta distribuição. Neste momento você pode realizar um teste para verificar a normalidade dos dados; pode ser o teste de Lilliefors, assunto de uma conversa anterior.

A relação entre R e o desvio padrão de uma distribuição normal é:

msaf03

 

 

onde d2 é uma constante tabulada para diversos tamanhos de amostra. Os valores desta e de outras constantes (A2, A3, B2, etc.) usadas nas cartas de controle para variáveis são fornecidos em tabelas que podem ser encontradas em livros que tratam do Controle Estatístico do Processo, por exemplo, AZEVEDO (2016).

 

Esta estimativa do desvio padrão é aproximada para pequenos tamanhos de amostra. Não se recomenda o uso de cartas R quando o tamanho da amostra é igual ou maior que 10; neste caso devem ser usadas cartas S.

 

Com base na estimativa de sigma, a carta de controle para a média amostral pode ser construída usando:

msaf04

 

Para monitorar a variabilidade usa-se a carta R, e para traçá-la é necessário calcular o desvio padrão de R. Existe uma relação entre esta grandeza e o desvio padrão de  uma distribuição normal, que é:

msaf05

 

onde d3 é uma constante tabulada para diversos valores de n. Visto que o desvio padrão não é conhecido, usa-se a estimativa mostrada anteriormente, ficando:

msaf06

e calculando os limites de controle e a linha central por:

msaf07

 

As constantes D3 e D4 são também tabuladas para diversos valores de n. Com base nos dados da tabela e usando as fórmulas apresentadas acima, pode-se construir os gráficos de controle mostrados na Figura 1; ao escolher o valor de d2, lembrar-se que n=5. Os gráficos mostram que o processo de medição é estável; não há nenhum ponto fora dos limites de controle nem qualquer padrão que indique a presença de uma variação não casual.

msafig01

Figura 1 – Cartas de controle X_barra-R para os dados do Exemplo

Repare que o cálculo dos limites de controle depende do termo R_barra. Ora, sendo assim, se R não estiver em controle estatístico, provavelmente não faz muito sentido tentar colocar X_barra em controle. A ideia-força é que primeiro temos que controlar a variabilidade do processo e depois sua média.

E mais uma questão para sua análise. Um jovem engenheiro de processos lhe informa  que as cartas da Figura 1 representam o resultado de um teste preliminar de um sistema de medição. O sistema será liberado para a produção dentro de algumas semanas, e ele gostaria de saber sua opinião. Você lhe pergunta o que será medido e ele lhe informa que serão peças com dimensões nominais de 5,00 mm e tolerância de 0,01 mm para mais ou para menos. Qual o seu comentário?

Comentários sobre Análise de Sistemas de Medição (I)

A análise de sistemas de medição também conhecida como MSA (do inglês, Measurement Systems Analysis), pode ser realizada por diversas razões, entre as quais podem ser mencionadas:

  1. definir a aceitação ou rejeição de novos equipamentos de medida;
  2. comparar diferentes equipamentos e processos de medição;
  3. verificar o funcionamento de equipamentos reparados;
  4. avaliar a adequação do sistema definido para a medição de variáveis monitoradas para acompanhar o desempenho de um processo.

 

A aplicação das técnicas de MSA é exigida para a certificação pela ISO/TS 16949, que determina no item 7.6.1 Análise do sistema de medição (ABNT, 2004 p. 33): “Estudos estatísticos devem ser conduzidos para analisar a variação presente nos resultados de cada tipo de sistema de equipamento de medição e ensaio. Este requisito deve se aplicar aos sistemas de medição referenciados no plano de controle. Os métodos analíticos e os critérios de aceitação usados devem estar conforme àqueles nos manuais de referência do cliente para as análises dos sistemas de medição. Outros métodos analíticos e critérios de aceitação podem ser usados se aprovados pelo cliente.”

O “manual de referência do cliente” recomendado por todas as montadoras é o “Measurement Systems Analysis Reference Manual”, publicado pelo “Automotive Industry Action Group” (AIAG), atualmente na quarta edição (2010).

O “Guia para a Expressão da Incerteza de Medição” (INMETRO, 1988) apresenta alguns conceitos básicos utilizados em metrologia, que é a ciência das medições; tais conceitos são discutidos nos parágrafos que se seguem.

Grandeza é um “atributo de um corpo, fenômeno ou substância que pode ser qualitativamente distinguido e quantitativamente determinado”. Por exemplo, comprimento e largura são grandezas que poderiam estar associadas a um corpo “placa de aço”; frequência e velocidade de propagação representam grandezas que podem ser associadas ao fenômeno “geração de ondas eletromagnéticas”; resistividade e densidade constituem grandezas que podem ser associadas à substância “ouro”.

Valor (de uma grandeza) é a “expressão quantitativa de uma grandeza específica, geralmente sob a forma de uma unidade multiplicada por um número”. Assim, o comprimento de uma placa de aço pode ser expresso como 5,4 m, a frequência de uma onda eletromagnética como 1500 kHz e a densidade do ouro como 19,3 g/cm3.

Valor verdadeiro (de uma grandeza)  é um “valor consistente com a definição de uma dada grandeza específica”. Esta definição pode ser melhor entendida através de um exemplo. Considere-se a medição da espessura de uma chapa de aço. A não ser que se defina exatamente o ponto onde a medição deve ser realizada, o resultado obtido em qualquer ponto será um “valor verdadeiro” no sentido em que é consistente com a definição. Em última análise, o valor verdadeiro é um valor que seria obtido por uma medição perfeita, inclusive em termos de definição. Porém toda medição está sujeita a erros e, portanto, o valor verdadeiro é, por natureza, indeterminado. Na prática, basta determinar um valor cuja proximidade em relação ao verdadeiro atenda os requisitos da aplicação.

Medição é um “conjunto de operações que tem por objetivo determinar um valor de uma grandeza”. De modo geral a medição está baseada em um princípio científico, que é aplicado de acordo com um método definido, e é realizada conforme um procedimento estabelecido. Por exemplo, em muitos casos a medição da frequência de um sinal elétrico está baseada no efeito piezo-elétrico, que consiste na propriedade que certos cristais possuem de oscilar em uma frequência extremamente bem definida e estável, quando sujeitos a uma diferença de potencial.  As oscilações do cristal são utilizadas para gerar um sinal de referência, cuja frequência  — conhecida com alto grau de precisão – é comparada com a frequência que se quer determinar; pode-se dizer que esta medição utiliza o método de comparação. Determinada medição real seria feita conforme procedimento específico, provavelmente utilizando um aparelho denominado frequencímetro; o procedimento descreveria em certo grau de detalhe como realizar a conexão dos sinais, operar o equipamento e interpretar o resultado.

Mensurando é uma “grandeza específica submetida à medição”. No exemplo acima, o mensurando é a frequência de um sinal elétrico.

Resultado de uma medição é o “valor atribuído a um mensurando, obtido por medição”. Na prática, o resultado de uma medição é uma estimativa do valor verdadeiro do mensurando; várias medições de um mesmo mensurando, realizadas em condições idênticas, irão produzir diferentes resultados, o que implica na existência de certo grau de incerteza no resultado.

Um sistema de medição consiste no conjunto de equipamentos, pessoas, procedimentos e “know-how” voltado para a realização de medições. Espera-se que o resultado de qualquer medição seja tão exato, preciso, repetível e reprodutível quanto necessário para atender os requisitos da aplicação.

Exatidão é o “grau de concordância entre o resultado da  medição e um valor verdadeiro do mensurando”.

Precisão é o “grau de concordância entre os resultados de diversas medições”. Considerando um conjunto de resultados de medição de uma grandeza, pode-se dizer que a exatidão está  relacionada com a distância entre a média dos resultados e o valor verdadeiro da grandeza; a precisão está relacionada com a dispersão dos resultados da medição.

A Figura 1 mostra os histogramas dos resultados para duas séries de medições de uma grandeza cujo valor verdadeiro é indicado pela linha vertical. Pode-se dizer que a série M1 é mais exata do que a série M2, pois o valor médio de M1 está mais próximo do valor verdadeiro do mensurando. Porém, a série M2 é mais precisa do que a série M1, dado que os valores de M2 estão mais concentrados em torno da respectiva média do que os de M1.

 

fIG1MSA

Figura 1 –  Precisão e exatidão

 

A repetitividade de um sistema de medição está relacionada à sua capacidade de fornecer o mesmo resultado quando determinada grandeza é medida diversas vezes na mesma condição (mesma peça, mesmo operador,  mesmo método, mesmo equipamento, etc). Em um caso ideal, os resultados de todas as medições executadas na mesma condição seriam idênticas. Na prática, é bastante provável que estes resultados estejam distribuídos normalmente em torno de um valor médio e a repetitividade será tanto maior quanto menor for a dispersão dos valores.

A reprodutibilidade de um sistema de medição está ligada à sua capacidade de fornecer o mesmo resultado quando uma mesma grandeza é medida por diferentes operadores, mantidas constantes as demais condições. No caso ideal, os resultados de todas as medições seriam idênticos, independente do operador que as realizasse; na prática, os resultados apresentam diferenças, possivelmente relacionadas aos diferentes graus de aptidão, treinamento e experiência dos operadores.

Para que este ponto fique mais claro, considere-se a Figura 2, que mostra o resultado de medições de comprimento (expressas em mm); foram medidas 1000 unidades de determinada peça. Este trabalho foi executado por diversos operadores, cada um deles utilizando o paquímetro de sua bancada de trabalho, no decorrer de vários dias.
FIG2MSA

Figura 2 – Histograma dos resultados de medições de 1000 peças

 

A questão que se coloca imediatamente é: Quanto da variação observada se deve a diferenças reais no comprimento das peças e quanto se deve às características do próprio sistema de medição?

É claro que em um sistema adequado a variação do resultado das medições deve refletir principalmente a variação real da grandeza que está sendo medida; diferenças entre operadores, equipamentos, etc., devem ter pouca influência.

Há diversas maneiras para realizar a análise de um sistema de medição, quantificando a contribuição dos diversos fatores. Nas próximas postagens serão discutidos os métodos quantitativos para a análise de sistemas de medição.

 

Referências:

 

  1. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS (ABNT). ISO/TS 16949: Sistemas de Gestão da Qualidade – Requisitos particulares para a aplicação da ABNT NBR ISO 9001: 2000 para organizações de produção automotiva e peças de reposição pertinentes. Rio de Janeiro: ABNT, 2004 (Publicação). 43 p.
  2. AUTOMOTIVE INDUSTRY ACTION GROUP (AIAG). Measurement Systems Analysis Reference Manual. AIAG, 2002.
  3. AZEVEDO JR., JOÃO. Fundamentos da Qualidade. São Paulo: Editora SENAI/SP, 2016
  4. INSTITUTO NACIONAL DE METROLOGIA (INMETRO). Guia para Expressão da Incerteza de Medição. INMETRO, 1988.

 

 

 

Teste de normalidade de Lilliefors

Introdução

Quando o profissional da Qualidade se defronta com problemas de inferência estatística, é bastante comum que a aplicação de determinadas técnicas de solução requeira que os dados amostrais tenham sido extraídos de uma população na qual a característica de interesse esteja normalmente distribuída. Isto equivale a dizer que  a característica de interesse é uma variável aleatória que assume diferentes valores com probabilidades definidas por uma distribuição normal.

A necessidade de que as amostras provenham de uma população normalmente distribuída (PND) ocorre na estimação de médias populacionais, na análise da variância, na análise de resíduos em correlação, entre outras aplicações. Relembrando  que a estimação da média é fundamental para o controle estatístico de processos por variáveis, que a análise da variância é a base do projeto de experimentos e que verificar resíduos em correlação é parte importante do trabalho de análise de sistemas de medição, fica patente a necessidade de refletir um pouco sobre a questão da normalidade das amostras usadas.

Tamanho suficientemente grande?

De acordo com o Teorema Central do Limite a distribuição das médias amostrais é sempre normal, independente da distribuição populacional, para amostras de tamanho n suficientemente grande. Mas. o que significa “tamanho n suficientemente grande”? A resposta depende da distribuição da população da qual são extraídas as amostras. Abaixo o tratamento que alguns autores dão a este ponto, nas obras citadas nas referências do presente artigo.

Hines e Montgomery (1980, p. 163) afirmam que se trata de uma questão difícil, pois a resposta depende tanto da distribuição da população amostrada como do critério usado para se considerar que a aproximação é razoável. A seguir conceituam uma tipologia genérica para as distribuições de probabilidades, que seriam:

  1. bem comportadas – são as que não diferem radicalmente da normal; tem a forma de um sino e são quase simétricas; para estas distribuições basta que n seja igual ou maior que 4.
  2. razoavelmente comportadas – são as que não apresentam moda pronunciada, assemelhando-se a uma distribuição uniforme; nestes casos n igual ou maior que 12 costuma ser suficiente;
  3. mal comportadas – são distribuições onde a maioria dos valores se concentra em um extremo; para tais distribuições n igual ou maior que 100 pode ser requerido para uma boa aproximação.

Montgomery (1985, p. 44), escrevendo um livro texto voltado para a Qualidade, afirma que em alguns casos a aproximação é razoável com n menor que 10 e em outros casos pode ser necessário ter n maior que 100. Ressalta, no entanto, que quando todas as amostras são identicamente distribuídas e a distribuição não se afasta radicalmente da normalidade, um valor de n igual ou maior que 4 traz resultados bem aproximados; afirma também que esta condição é frequente em problemas de controle da qualidade.

Freund (1988, p. 262) afirma que, a menos que a distribuição populacional tenha um formato   muito pouco usual, n igual a 30 é geralmente considerado suficientemente grande. Este mesmo número é citado por Mathews (2005, p.40), que escreve ainda um tópico específico sobre a verificação da normalidade das amostras (pp. 76-79) no contexto do projeto de experimentos.

Calzada e Scariano (1999), tratando da estimação de médias amostrais com o uso da distribuição t, sugerem que: (a) não sejam usadas  amostras com tamanho n menor que 15; (b) amostras com tamanhos entre 15 e 30 devem ser analisadas com cuidado quanto ao grau de afastamento em relação à normalidade (outliers, assimetria, bimodalidade, etc.), e; (c) amostras com tamanho n maior ou igual a 30 provavelmente irão permitir uma estimação razoável dos parâmetros populacionais.

Mas seria interessante determinar se a amostra, independente de qualquer outra informação sobre a distribuição populacional, é normal. Posto de outra forma, deseja-se realizar um teste de  hipóteses no qual as hipóteses nula e alternativa são, respectivamente:

H0: A  amostra segue uma distribuição normal.

H1: A amostra não segue uma distribuição normal.

Se a amostra tiver distribuição normal, pode-se assumir com razoável grau de  confiança que o tamanho n usado é “suficientemente grande” e que a aplicação do método que requer uma PND é viável, no sentido de que as estimativas nele baseadas serão corretas.

Uma primeira abordagem

Uma primeira abordagem é examinar as estatísticas descritivas da amostra. O  histograma, o box plot e um gráfico de probabilidades normais são ferramentas úteis. Considere as duas amostras S01 e S02 cujos dados são apresentados na tabela  a seguir.

 

i S01 i S01 i S01 i S01 i S01
1 1 6 3 11 5 16 6 21 7
2 2 7 4 12 5 17 6 22 7
3 2 8 4 13 5 18 6 23 8
4 3 9 4 14 5 19 6 24 8
5 3 10 4 15 5 20 7 25 9
i S02 i S02 i S02 i S02 i S02
1 1 6 4 11 5 16 6 21 6
2 2 7 4 12 5 17 6 22 6
3 2 8 4 13 5 18 6 23 6
4 3 9 4 14 5 19 6 24 6
5 3 10 4 15 5 20 6 25 6

Tabela 1 – Amostras S01 e S02, com n = 25

A Figura 1 mostra o histograma de S01, o qual tem várias características similares às de uma distribuição normal: (a) simetria na distribuição de valores ao redor das classes centrais,(b) a maioria dos valores está concentrada nas classes centrais, e; (c)  a frequência das classes diminui igualmente à medida que se afastam do centro da distribuição.

 

Figura 1 - Relatório Resumo para S01

Figura 1 – Relatório resumo para S01

O box plot de S01, também mostrado na Figura 1, reforça a idéia de normalidade, pois é simétrico e mostra que a média e  mediana são quase iguais; o mesmo ocorre com respeito a extensão do primeiro e do quarto quartil, e do segundo e terceiro quartil. Assim,  parece razoável concluir que a amostra  S01 é normal.

A Figura 2 mostra o histograma de S02, cujas características são completamente distintas das de uma distribuição normal. A distribuição de S02 é fortemente assimétrica, a frequência das classes aumenta de forma contínua, a média está  fortemente deslocada para a direita.

Figura 2 - Relatório Resumo para S02

Figura 2 – Relatório resumo para S02

O box plot de S02, também mostrado na Figura 2, reforça a idéia de não normalidade, pois é assimétrico, mostra que a média e  mediana estão mais distantes, e o primeiro e quarto quartis são completamente diferentes. Parece que é seguro afirmar que a amostra S02  não segue uma distribuição normal.

Testes de normalidade

Mas nem todas as amostras são tão bem definidas em termos de normalidade. Na  maioria dos casos é praticamente impossível tomar uma decisão simplesmente examinando as estatísticas descritivas.

Existem diversos métodos quantitativos para realizar o teste de hipóteses mencionado anteriormente. Os softwares estatísticos disponíveis no mercado contém em geral um ou mais destes testes, como por exemplo o teste de Anderson Darlington (AD)  e o teste de Kolmogorov-Smirnov (KS)

Usando um destes softwares, neste caso o MINITABTM, para aplicar o teste de KS à amostra S01, obtém-se a confirmação de que a amostra é normal, ou, mais rigorosamente, de que não é possível rejeitar H0 ao nível de significância indicado pelo teste. Refira-se à Figura 3 a seguir.

 

Figura 3 - S01 KS

Figura 3 – Teste de Kolmogorov-Smirnov para S01

 

A aceitação ou rejeição de H0 no teste de KS é indicada pelo valor de p. Em essência p representa a probabilidade de que aquela amostra tivesse sido coletada SE a hipótese nula fosse verdadeira. Ou seja, se o valor de p for menor que o nível de significância desejado, H0 deve ser rejeitada naquele nivel de significância. Quando p for muito pequeno, pode-se dizer praticamente com certeza que a amostra não é normal; por outro lado, p >0,15 implica, para todos os efeitos práticos, que a amostra é normal.

A aplicação do teste de KS à amostra S02 confirma que ela não apresenta a característica de normalidade, pois o valor de  p é muito pequeno, conforme evidenciado na Figura 4.

 

Figura 4 - S02 KS

Figura 4 – Teste de Kolmogorov-Smirnov para S02

 

Observe que o MINITAB traça o gráfico das densidades de probabilidades acumuladas normal e empírica (ou seja, realmente observada) para a amostra usando uma escala com valores normalizados no eixo vertical. Por isto a distribuição de probabilidade acumulada normal (NCDF) é representada como uma reta; a distribuição de probabilidade acumulada empírica (ECDF) é representada por pontos em um gráfico de dispersão. O grau de alinhamento dos pontos da ECDF sobre a reta da NCDF indica a normalidade da amostra.

 

Teste de Lilliefors

Trata-se de um teste de normalidade desenvolvido por Hubert Lilliefors no final da década de 60. O teste de Lilliefors (LF) é muito similar ao  de KS  e está também baseado na comparação entre os valores das funções de densidade de probabilidade acumulada normal (NCDF) e densidade de probabilidade acumulada observada empiricamente para a amostra(ECDF). A diferença entre as duas funções é calculada para todos os elementos da amostra e o valor máximo L do “gap” entre as duas funções é comparado com um valor limite tabelado (Lcrit) para decidir sobre a aceitação ou rejeição de H0.

Geralmente os estatísticos determinam os valores críticos através de formulações matemáticas, mas Lilliefors fez esta deteterminação pelo método de Monte Carlo. Usando amostragems simuladas por computador, foi criada a tabela de valores críticos aplicável a diversos tamanhos de amostra (Lilliefors, 1967). A tabela de valores críticos foi aumentada através de simulações mais exaustivas. Neste trabalho foi utilizada aquela fornecida em Abdi e Molin (2007).

Os resultados obtidos com o teste de LF são comparáveis àqueles obtidos pelos testes de AD e KS; as simulações realizadas por Razali e Yap (2011) mostram que a efetividade do teste de LF na deteção da não normalidade é geralmente superior à do teste de KS e ligeiramente inferior à do teste de AD.

Uma vantagem do teste de LF é que pode ser implementado com relativa facilidade utilizando por exemplo o Microsoft EXCELTM, que é um recurso disponível para a grande maioria dos profissionais da área da qualidade, o que não é o caso de pacotes estatísticos como o MINITABTM, o SASTM e outros.

Seguindo o proposto em Gonzalez, Sahni e Franta (1977), para uma amostra ordenada de tamanho n, calcula-se o valor de L por:

FórmulasLF

onde

D+ é o valor absoluto da diferença entre a probabilidade acumulada observada até a j-ésima amostra [ é o termo(j/n)] e a probabilidade acumulada normal padrão esperada para a j-ésima amostra [é o termo Z(j)]

D- é o valor absoluto da diferença entre a probabilidade acumulada normal padrão esperada para a j-ésima amostra [é o termo Z(j)] e a probabilidade acumulada observada na (j-1)-ésima amostra [é o termo (j-1)/n]

L é o maior valor entre todos os D+ e D-, e constitui a estatística do teste de LF para a amostra, que será comparada com o valor crítico tabelado para decidir pela aceitação ou rejeição de H0. Se L é menor que o valor crítico, H0 não pode ser rejeitada; caso contrário rejeita-se H0.

Dado que alfa representa a probabilidade de cometer um erro Tipo I no teste, ou seja, rejeitar H0 quando ela é verdadeira, o valor crítico de L é tanto maior quanto menor o valor de alfa.

Facilitando o uso do teste de LF

Usando o EXCEL Visual BasicTM, o autor desenvolveu uma pasta de trabalho que pode ser usada para realizar o teste de normalidade LF para amostras de tamanho n , sendo n maior ou igual a 4 e menor ou igual a 1000. O número máximo de amostras que podem ser fornecidas como dados de entrada é de uma centena.

O usuário pode examinar detalhes do teste, incluindo os gráficos da NCDF e da ECDF, para qualquer das amostras. Em princípio, acredita-se que em uma situação real o usuário realize o teste para um conjunto de amostras e depois procure analisar com mais detalhes aquelas que tenham sido consideradas não normais.

O valor de alfa deve ser escolhido entre um dos seguintes: 0,01; 0,05; 0,10; 0.15; 0,20.

A pasta de trabalho “Teste de normalidade – Lilliefors” e uma pasta de trabalho com exemplos estão disponíveis em um arquivo compactado, que pode pode ser baixado sem custo acessando este link . O código foi exaustivamente testado e os resultados obtidos foram verificados e confirmados.Porém leia com atenção o parágrafo que segue.

DECLARAÇÃO DE ISENÇÃO DE RESPONSABILIDADE: Esta pasta de trabalho “Teste de normalidade – Lilliefors” é fornecida sem custo. O código foi exaustivamente testado mas não há garantia de que os resultados obtidos estejam corretos. O código é aberto e pode ser modificado pelo usuário como melhor lhe aprouver. O autor se exime de toda e qualquer responsabilidade por quaisquer erros na execução deste programa, ou em sua estrutura, ou ainda em sua codificação. Nenhum tipo de suporte será fornecido quanto ao uso, funcionamento ou atualização do código.

Para rodar o código, basta carregar a pasta de trabalho descompactada em um diretório qualquer  e abrir o arquivo. É necessário que a execução de macros esteja habilitada; se não estiver, pode ocorrer um erro ao abrir a pasta de trabalho.

Instruções de uso da pasta de trabalho

Abra a pasta de trabalho, que mostra inicialmente a planilha “Controle”. Selecione a planilha “Dados” e carregue as amostras. Cada coluna desta planilha pode conter uma amostra de tamanho mínimo 4 e máximo 1000; as amostras podem ser de tamanhos diferentes e até 100 amostras podem ser carregadas na planilha “Dados”. A linha 1 contém o identificador da amostra, que deve ser umasequência de caracteres alfanuméricos, iniciada por uma letra. Obs: Inicialmente, a planilha “Dados” contém as amostras S01 e S02 listadas na Tabela 1 deste documento. (ver Figura 5)

Figura 5 - Formato da planilha Dados

Figura 5 – Formato da planilha “Dados”, com as amostras S01 e S02

Quando a pasta de trabalho é aberta, a caixa de listagem incorporada à planilha “Controle” está vazia. Selecione o nivel de significância alfa desejado e clique “EXECUTAR” para analisar a normalidade das amostras usando o teste de Lilliefors. O resultado (com alfa 0,05) é mostrado na planilha “Sumário”. (ver Figura 6)

Figura 6 - Formato da planilha Sumário

Figura 6 – Formato da planilha “Sumário” com o resultado do teste para S01 e S02

Após a elaboração do sumário a caixa de listagem da planilha “Controle” aparece preenchida com o identificador de cada amostra. Caso deseje ver os detalhes da análise de uma amostra específica, selecione a planilha “Controle”, selecione o nome da amostra na caixa de listagem e clique “EXECUTAR”. (ver Figura 7).

Figura 7 - Selecionar amostra para ver detalhes do teste

Figura 7 – Selecionando a amostra S01 para ver detalhes do teste

Os detalhes serão mostrados na planilha “Gráfico”, que inclui um gráfico das funções de densidade de probabilidade normal (NCDF) e empírica (ECDF) para a amostra. (Ver Figura 8)

Figura 8 - Detalhes do teste de LF para amostra selecionada

Figura 8 – Detalhes do teste de LF para S01

Se desejar usar um alfa diferente ou modificar os dados de uma amostra, faça a modificação requerida, selecione a planilha “Controle”, selecione “ANALISAR DADOS” na caixa de listagem e clique “EXECUTAR”. Caso a mudança envolva o acréscimo ou a remoçãode amostras, é conveniente salvar a pasta de trabalho, fechá-la e abri-la novamente.

 

Referências:

  1. ABDI, Hervé, e MOLIN, Paul. “Lilliefors/Van Soest’s test of normality.” 2007), Encyclopedia of Measurement and Statistics. Available at: http://www. utdallas. edu/∼ herve/Abdi-Lillie2007-pretty. pdf (2007).
  2. CALZADA, Maria E., e SCARIANO, Stephen M. “WHAT IS NORMAL, ANYWAY?” The Mathematics Teacher, vol. 92, no. 8, 1999, pp. 682–689. JSTOR, JSTOR, www.jstor.org/stable/27971171.
  3. FREUND, John E.. Modern Elementary Statistics. New York: Prentice-Hall, 1988.
  4. GONZALEZ, Teofilo, SAHNI, Sartaj, e FRANTA, William R.. “An efficient algorithm for the Kolmogorov-Smirnov and Lilliefors tests.” ACM Transactions on Mathematical Software (TOMS) 3.1 (1977): 60-64.
  5. HINES, William W. e MONTGOMERY, Douglas C. Probability and Statistics in Engineering and Management Science. 2. ed. New York: John Wiley & Sons, 1980.
  6. LILLIEFORS, Hubert W. “On the Kolmogorov-Smirnov test for normality with mean and variance unknown.” Journal of the American statistical Association 62.318 (1967): 399-402.
  7. MATHEWS, Paul. Design of Experiments with Minitab. Milwaukee: ASQ Quality Press, 2005
  8. MONTGOMERY, Douglas C. Introduction to Statistical Quality Control. New York: John Wiley & Sons, 1985.
  9. RAZALI, Nornadiah Mohd, e YAP, Bee Wah. “Power comparisons of Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors and Anderson-Darling tests.” Journal of statistical modeling and analytics 2.1 (2011): 21-33.

Efeitos da melhoria da qualidade sobre a lucratividade

Comunicar à Alta Direção a justificativa econômica para os investimentos na melhoria da qualidade parece ser um desafio para muitos profissionais da área. Afinal de contas, o objetivo final da melhoria é contribuir para aumentar a lucratividade da empresa e torná-la mais competitiva nos segmentos em que atua. Quase que invariavelmente, demonstrar como as melhorias de qualidade se traduzem em ganhos financeiros é a melhor forma de apresentar o tema aos responsáveis pela direção estratégica da empresa.

Neste artigo apresento uma  sugestão sobre como demonstrar o efeito da melhoria da qualidade na lucratividade de uma empresa. No caso, o exemplo utilizado é uma empresa de manufatura, mas evidentemente o mesmo é aplicável também a empresas de serviços. Por simplicidade, não foram considerados impostos e taxas e usou-se como exemplo um único produto. Porém não há duvida que o ponto  central do problema é inteligível pela gerência de qualquer organização.

A atividade de manufatura inclui custos variáveis (CV´s) e custos fixos (CF’s). Os CV’s incluem, por exemplo: materiais e insumos, energia e mão-de-obra direta (funcionários envolvidos diretamente na produção). Os CF’s incluem, por exemplo, a mão-de-obra indireta (gerentes e profissionais de áreas de suporte – que não participam diretamente da produção), depreciação de máquinas e equipamentos, depreciação de imóveis e instalações, serviços contratados a longo prazo, etc.

Em geral, a mão-de-obra direta é particularmente sensível ao volume de vendas, e varia em prazos relativamente curtos; por esta razão, considera-se que se trata de um CV; talvez sua empresa considere parte do mão-de-obra direta como um CV e parte como um CF mas, novamente, isto não altera o ponto central da discussão. Em contraste, a mão-de-obra indireta varia em prazos relativamente mais longos, pois a formação de pessoal especializado provavelmente exigiu mais investimentos da empresa. Por isto, a mão-de-obra indireta entra como um CF.

Suponhamos que a empresa venda mensalmente 10000 unidades de um único produto, e que cada unidade seja vendida a R$10,00  representando uma faturamento mensal de R$100.000,00. Para produzir tais produtos, a empresa incorreu em um custo variável total de R$50.000,00. A diferença entre o faturamento e o custo variável denomina-se margem de contribuição. Digamos que a empresa incorre mensalmente em um custo fixo de R$30.000,00. Assim, no mês considerado, o lucro bruto, representado pela diferença entre a margem de contribuição e o custo fixo, foi de R$20.000,00. Observe que o custo por unidade vendida é de R$8,00, sendo R$5,00 de CV/unidade e R$3,00 de CF/unidade.

É evidente que todas os valores de custos, lucros e margens são, por natureza, monetários; para evitar repetições desnecessárias, deste ponto em diante os valores monetários serão representados simplesmente como números, não precedidos de R$. Adotando esta convenção, a situação descrita acima pode ser sumariza na tabela abaixo.

 

Rubrica Valor (em KR$)
Faturamento [F] 100,00
Custo variável [CV] 50,00
Margem de Contribuição [MC] 50,00
Custo fixo [CF] 30,00
Lucro bruto [L] 20,00

Tabela 1 – Volume de vendas = 10000 unidades

Podemos traçar um gráfico mostrando como o lucro varia em função do faturamento,  admitindo que o custo po,00r unidade se mantém constante e, neste caso, igual a 5,00 por unidade. O raciocínio é que se as vendas forem nulas, o custo variável será nulo mas o custo fixo se manterá inalterado e, portanto, a empresa terá um prejuízo (lucro negativo) de 30000. Assim, o gráfico será uma reta que passa pelos pontos (0, -30000) e (100000;20000), conforme mostrado abaixo.

Figura 1

Figura 1 – Lucro x Vendas

 

O ponto de “break-even”, no qual a margem de contribuição é exatamente igual ao custo fixo, ocorre quando o faturamento é de 60000, ou seja, a empresa precisa vender exatamente 6000 unidades mensalmente para não ter prejuízo.

 

Ao analisar o funcionamento da empresa,  verifica-se que ela opera com perdas de 5% das unidades produzidas. Deste modo, para vender 10000 unidades do produto é necessário que sejam produzidas (10000/0,95) ~= 10526 unidades.

Logo, o custo variável por unidade produzida é (50000/10526) ~= 4,75. Isto significa que são gastos inutilmente 526 x 4,75 ~= 2500 por mês devido a produção perdida. Esta é a “fábrica oculta” pelos problemas de qualidade, e que pode ser recuperada através da melhoria de processos.

Constatando a oportunidade,  a empresa implementa um programa de melhoria (por exemplo, alguns projetos 6-Sigma) e consegue após alguns meses reduzir seu nível de defeitos para zero, mantendo os custos inalterados. Os 2500 economizados mensalmente revertem diretamente para o lucro, que passa a ser 22500. Observe que, neste caso, uma redução de 5% no nível de defeitos resultou num aumento de 12,5% no lucro. Esta nova situação está mostrada na tabela abaixo.

Rubrica Valor (em KR$)
Faturamento [F] 100,00
Custo variável [CV] 47,50
Margem de Contribuição [MC] 52,50
Custo fixo [CF] 30,00
Lucro bruto [L] 22,50

Tabela 2- Volume de vendas = 10000 unidades sem perdas

Nesta nova situação, o “break even” passa a ser 5714 unidades; o lucro de 20000 é alcançado com a venda de 9524 unidades e a venda das 10000 unidades retorna um lucro 12,5% superior ao registrando quando a operação apresentava perdas. Isto pode ser observado na Fig. 2, abaixo.

Figura2

Figura 2 – Lucro x Vendas, com e sem perdas

O mais importante é que, usando as mesmas pessoas e equipamentos, a empresa tem agora a capacidade de produzir 10526 unidades do produto. Se ela vai ou não produzir imediatamente esta quantidade adicional é uma questão da demanda do mercado. Porém, mesmo que não seja necessária de imediato, a melhoria da qualidade proporcionou um aumento da capacidade que potencialmente coloca a empresa numa situação vantajosa perante a concorrência, no caso de um mercado em crescimento.

Há muitas outras possíveis reduções de custo que podem estar associadas a melhoria da qualidade interna. Entre estas, podem ser citadas por exemplo, redução nos custos de transação, redução nos custos de falhas externas, redução dos custos globais de aquisição e estocagem de materiais, etc.

Quanto à questão dos investimentos necessários para implementação das melhorias, de fato, não é realista supor que sejam nulos. Após uma análise cuidadosa dos investimentos necessários, efetua-se uma análise da taxa de retorno do investimento (comumente usa-se a sigla ROI, do inglês “Return on Investment”), que o pessoal da área de Finanças saberá calcular com precisão.

De qualquer forma, as ideias aqui apresentadas são um bom ponto de partida para uma análise de viabilidade dos projetos de melhoria da qualidade.

 

Referências:

  1. AZEVEDO, João. Fundamentos da Qualidade. São Paulo: Editora Senai-SP, 2016.
  2. BISGAARD, Soren e FREISLEBEN, Johannes. “Six Sigma and the Bottom Line” in Quality Progress, Sep 2004, vol. 37, no. 9, pp 57-62. Milwaukee: ASQ Press

 

 

“FUNDAMENTOS DA QUALIDADE”

Antes de iniciar nossas conversas sobre qualidade, gostaria de divulgar a todos um livro de minha autoria publicado no ano passado.
 
Em  agosto de 2016 foi publicado pela SENAI-SP Editora meu segundo livro, que se chama  “Fundamentos da Qualidade”.
É praxe que o autor receba alguns exemplares da obra e eu já havia visto como ficou. O pessoal da Editora fez um ótimo trabalho. A parte gráfica (figuras, tabelas,  formatação do texto, etc.) ficou muito bem feita.
O livro pode ser adquirido em livrarias ou pela internet na Amazon.com.br, acessando este  link. Com a certeza de que a forma ficou muito boa, vamos ver o que os leitores acham do conteúdo… Reproduzo aqui um trecho do prefácio que descreve este conteúdo.

 

O Capítulo 1 discute o que é qualidade e procura mostrar porque ela é importante para as empresas. Apresenta-se o conceito de custo da qualidade e mostra-se como tais custos podem ser significativos. As ideias dos principais autores são apresentadas de forma bastante resumida.

O Capítulo 2 trata da melhoria da qualidade. Inicialmente, são apresentadas nove ferramentas básicas para o trabalho de melhoria. A seguir são discutidas a formação e o  funcionamento dos times de melhoria, bem como algumas das ferramentas gerenciais da qualidade que estes times poderão utilizar. Os times de melhoria que existem (ou deveriam existir) na organização trabalham na análise e solução de problemas. Assim, o último tópico abordado neste capítulo trata de algumas das metodologias aplicáveis a este trabalho.

No Capítulo 3 são apresentados alguns conceitos de estatística absolutamente essenciais para o controle de processos. Discute-se o que é Estatística e suas aplicações no Controle da Qualidade, apresentam-se os diferentes tipos de dados e as medidas de tendência central e de dispersão. Passando ao largo das formulações matemáticas, e focando as aplicações práticas e as facilidades de cálculo disponíveis no MicrosoftTM Excel, mostra-se o que vem a ser a distribuição normal e o Teorema Central do Limite.           

O Capítulo 4 discute de modo genérico e conceitual a questão do controle de processos. As ideias fundamentais do Controle Estatístico de Processo (CEP) são aqui abordadas e são apresentados conceitos importantes sobre variabilidade. Como afirmava Deming, estes conceitos deveriam ser conhecidos por todos os gerentes. Neste capítulo são também apresentados o conceito de capacidade do processo e os índices mais comumente utilizados para medi-la. Uma exposição sobre pontos de inspeção no processo e outra a respeito da análise de sistemas de medição fecham o capítulo.

  Os capítulos 5 e 6 discutem a implementação do CEP abordando, respectivamente,  as Cartas de Controle para Atributos e as Cartas de Controle para Variáveis.      Ao longo do texto há diversos exemplos resolvidos e no final de cada capítulo há uma série de exercícios sobre o assunto apresentado. São feitas referências às funções estatísticas do MicrosoftTM Excel e espera-se que este programa seja utilizado na solução dos exercícios, quando aplicável. Em alguns casos, foi utilizado o software estatístico MinitabTM, uma ferramenta que agrega apreciável valor ao processo de análise e solução de problemas de qualidade. 

Conversando sobre Qualidade – Apresentação

Olá, caro Visitante!

Se você se interessou por este blog, isto significa que provavelmente está envolvido profissionalmente nesta fascinante área. Eu trabalhei durante quase vinte e cinco anos com Garantia e Controle da Qualidade, e mesmo aposentado continuo estudando e escrevendo sobre o assunto.

Acho que agora é uma boa hora para me apresentar e deixar claro porque me envolvi com a Qualidade. Sou Engenheiro Eletricista – opção Eletrônica formado pelo Instituto Nacional de Telecomunicações (INATEL), localizado na pequena cidade mineira de Santa Rita do Sapucaí.

Assim que me formei, fui trabalhar na Burroghs Eletrônica (que hoje tem o nome de Unisys) onde fiquei por quase seis anos. Em seguida, fui trabalhar na IBM, como Engenheiro de Produto na unidade de manufatura localizada em Hortolândia, SP.

Entre 1980 e 1990 trabalhei na fabricação de computadores de grande porte, os chamados “mainframes, aquelas máquinas poderosíssimas que suportam o trabalho de  bancos, universidades ou montadoras de veículos, por exemplo. Desnecessário dizer que a preocupação com o processo de montagem e teste, bem como com a qualidade do produto final para este tipo de máquina é imensa, pois são equipamentos caríssimos, que não podem falhar.

Pode-se dizer que em 1990 começou meu envolvimento direto com a Qualidade. A IBM estava para lançar uma nova família de produtos e fui trabalhar em um dos laboratórios de desenvolvimento da empresa, nos Estados Unidos, na equipe que realizava o teste de verificação funcional do produto. Basicamente, o trabalho consistia em rodar programas e mais programas de teste, com as mais variadas configurações do sistema, para ver se todos os programas eram executados sem erros, se o desempenho era o esperado, se todos os dispositivos de E/S de dados funcionavam corretamente e assim por diante

Quando voltei para o Brasil, fui “nomeado” engenheiro de qualidade do produto. Eu não tinha formação  nenhuma na área, mas fiz diversos cursos e descobri que o assunto era interessante e o trabalho desafiador. Naquela época o Ministério da Ciência e Tecnologia implantava o Programa Brasileiro de Qualidade e Produtividade (PBQP). No contexto deste plano, a UNICAMP em parceria com várias empresas, criou em 1991 um curso de Mestrado em Qualidade. Todas as aulas eram concentradas em um único dia, e a IBM permitiu que alguns funcionários fizessem o curso. Completei os 24 créditos das matérias em 1992 e passei um ano e meio preparando minha dissertação. Finalmente, em setembro de 1994 fiz a apresentação perante a banca examinadora e obtive o diploma de Mestre em Qualidade.

Por volta de 1995 afastei-me um pouco do trabalho na linha de frente da Qualidade. Assumi a responsabilidade de Gerência de Projeto para outras linhas de produto e mais tarde a gerência de uma das linhas de fabricação. É claro que nestes dois cargos a qualidade era uma preocupação sempre presente, mas sob o aspecto gerencial e não  mais operacional.

Em 2000 a operação de manufatura da IBM foi adquirida pela Solectron, uma empresa de Serviços de Manufatura Eletrônica. Assumi o cargo de Gerente da Qualidade Brasil, e tornei-me responsável pela qualidade de uma empresa que  chegou a ter cinco fábricas, alguns milhares de funcionários e que fabricava de telefones celulares a mainframes.

Nessa época obtive a certificação como Engenheiro da Qualidade pela American Society for Quality (ASQ), tornei-me membro sênior da ASQ, obtive a certificação como Lead Assessor da ISO9001:2000 e da TL9000, e fui examinador do Prêmio Nacional da Qualidade em 2001, 2002, 2003 e 2004.

Em 2007 passei a trabalhar como Consultor. Meu principal cliente era o Bureau Veritas Certificação, empresa para a qual prestei serviços por vários anos, auditando sistemas de qualidade. Auditei empresas de todos os segmentos, de laboratórios de análise clínica a usinas hidrelétricas, até me aposentar.