Teste Embarcado de Conversores Analógico-Digitais
Autor: This email address is being protected from spambots. You need JavaScript enabled to view it.
Orientador: Prof. Dr. Luigi Carro
Porto Alegre, 2003.
Resumo:
A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura.
A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.
Abstract:
The reliability of systems for digital signal processing is directly related to the reliability of analog-to-digital converters that are part of them. These converters are normally used to interface the system to the real world.This work proposes a new testing method for analog-to-digital converters that is based on noise. The proposed method makes the detection of faulty DUTs possible. Moreover, the proposed technique is able to estimate static and dynamic characteristics, becoming innovative in comparison to techniques that have been already proposed.The proposal of the method, its simulation and its implementation are presented in this master thesis. The comparison of the obtained results to a standard ADC testing method, the histogram technique, shows the effectiveness of the method.
Aplicação da Transformada Wavelet Packet na Análise e Classificação de Sinais de Vozes Patológicas
Autor: Eng. M.Sc. Adriane Parraga
Orientador: Prof. Dr. Adalberto Schuck Junior
Porto Alegre, 2002.
Resumo:
O exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais.
Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a symlet 5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58% para falsos negativos.
Abstract:
The diagnosis of laryngeal diseases is usually realized by videolaringoscopy and videostroboscopy. Most laryngeal diseases cause changes in the patient's voice. Several indices have been proposed to assess the quality of the voice in a quantitative manner. Several methods were proposed for automatic classification of laryngeal pathologies using only the patient's voice. This work presents the application of the Wavelet Packet Transform and the Best Basis algorithm [COI92] for automatic classification of voices into pathological or normal.
The obtained results have shown that it is possible to classify voices using this Transform. The main conclusion is that a linear classifier can be obtained using the Wavelet Packet Transform for feature extraction. The classifier is linear based on the presence or not of the nodes on the decomposition of the Wavelet Packet Transform. The best results have been obtained with the Wavelet basis symlet 5 and the entropy as the cost function. This linear classifier distinguished normal voices from pathological ones with a classification error of the 23,07% for false positive and the 14,58% for false negative.
Comparação entre Métodos Digitais de Linearização de Sensores
Autor: Eng. M.Sc. Osvaldo Andre Betat Basilio
Orientador: Prof. Dr. Luigi Carro
Porto Alegre, 2002.
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor)
. Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Abstract:
In the era of complex embedded systems, the direct interface of System-On-Chip devices to the real world demands the use of sensors and their analog supporting circuits. Since the overwhelming majority of physical sensors requires some sort of calibration, this dissertation compares and discusses four digital calibration techniques well suited for embedded systems applications. Using a DSP board as test vehicle, important design parameters like power dissipation, area, throughput, design time and rate of cost growth with increased resolution were analysed. The obtained implementation results are discussed, and a sensor linearization scheme best suited to embedded systems is presented.
Estudo comparativo da transformada Karhunen-Loève na compressão de imagens
Autor: Eng. M.Sc. Ricardo Noé Bretin de Mello
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 2003.
Resumo:
A representação de funções através da utilização de bases (KERNEL) de representação tem sido fundamental no processamento digital de sinais. A Transformada KARHUNEN-LOÈVE (KLT), também conhecida como Transformada HOTELLING, permite a representação de funções utilizando funções-base formadas pelos autovetores da matriz de correlação do sinal considerado. Nesse aspecto essa transformada fornece uma base ótima, isto é, aquela que proporciona o menor valor de Erro Quadrático Médio entre o sinal reconstruído e o original, para um determinado número de coeficientes. A dificuldade na utilização da KLT está no tempo adicional para calcular os autovetores (base) da matriz de correlação, o que muitas vezes inviabiliza a sua utilização nas aplicações em tempo real. Em muitas aplicações a KLT é utilizada em conjunto com outras transformadas melhorando os resultados destas aplicações. Sendo considerada a transformada ótima no sentido do Erro Quadrático Médio, este trabalho apresenta um estudo da Transformada KARHUNEN-LOÈVE nas aplicações de compressão de imagens bidimensionais estáticas e em tons de cinza, realizando também a comparação desta técnica com outras técnicas (DCT e WAVELET) buscando avaliar os pontos fortes e fracos da utilização da KLT para este tipo de aplicação. Duas técnicas importantes para solucionar o problema de cálculo dos autovalores e autovetores da matriz de correlação (Método de JACOBI e Método QL) são também apresentadas neste trabalho. Os resultados são comparados utilizando a Razão Sinal/Ruído de Pico (PSNR), a Razão de Compressão (CR) e os tempos de processamento (em segundos) para geração dos arquivos compactados.
Abstract:
The function representation using basis (KERNEL) of representation has been crucial in digital signal processing. The KARHUNEN-LOÈVE (KLT) Transform, or HOTELLING Transform, as it has been also known, allows the representation of functions using basis functions formed by the eigenvectors of the correlation matrix of the signal being used. In this way, this transform gives an optimal basis as it minimizes the value of the Mean Square Error between the reconstructed and the original signals for a given number of coefficients. The difficulty in using the KLT is the additional time to compute the eigenvectors (base) of the correlation matrix, that prevent its use in real time applications. In many applications the KLT is used together with other transforms leading to a better results for these applications. As considered the best transform in the sense of Mean Square Error, this work studies the KARHUNEN-LOÈVE Transform in the compression of 2-D grayscale still images, also comparing with other techniques (DCT and WAVELET) leading to a better evaluation of the advantages and disadvantages of using the KLT in this type of application. Two important techniques for solving the problem of finding the eigenvalues and eigenvectors of the correlation matrix (JACOBI Method and QL Method) are also presented in this work. The results are compared using the Peak Signal-to-Noise Ratio (PSNR), the Compression Ratio (CR) and the processing time (in seconds) to generate the reduced files.
Sistema Automático de Contagem de Células Sangüíneas
Autor: Eng. M.Sc. Tomas Kenji Koya
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 2001.
Resumo:
O presente trabalho tem como objetivo a aplicação de algoritmos de processamento digital de imagens em imagens médicas microscópicas, mais precisamente, na quantização de células sangüíneas. O objetivo principal é colocar à disposição do profissional médico da área de hematologia, recursos que permitam obter de forma mais rápida e precisa os resultados dos exames. A forma alternativa de contagem de células através do processamento digital de imagens visa a contagem das células sangüíneas, poupando o profissional da área deste trabalho desgastante, de maneira precisa e custo acessível. A lâmina é previamente preparada segundo método microscópico manual padronizado em 1949 [Brecher]. Depois segue-se a aquisição da imagem digital através de câmara de vídeo acoplada ao microscópio. Sobre a imagem digitalizada da amostra de sangue, aplicam-se técnicas de processamento digital de imagens que envolvem o preprocessamento, separação inicial do que corresponde às células do resto, a segmentação, utilização de métodos morfológicos e técnicas de parametrização de objetos para a extração de características, e finalmente o reconhecimento e contagem das células. No final do trabalho, os resultados das contagens e suas comparações com os obtidos utilizando-se o método microscópico manual tradicional.
Abstract:
The present work has the aim of applying digital image processing techniques in microscopic medical images, more precisely, in blood cell counting. The main goal is to make available for the professionals of hematology, more resources that allow faster and more precise results from the blood exams. The alternative way of blood cell counting through digital image processing methods not only helps the professional in this tiring job, but also has a low cost. Initially, a blood sample preparation is done following the microscopic manual method standardized in 1949 [Brecher]. Then, some fields of the sample are digitized using a video camera installed in the microscope. Digital image processing techniques are applied in these digitized images that involves the preprocessing, initial separation of cells from the rest, the segmentation, the use of morphological methods and object parameterization techniques for feature extraction, and finally the blood cell recognition and counting.
In the end of this work, counting results and their comparisons with the ones obtained using the traditional microscopic manual method.
Localização e Leitura Automática de Caracteres Alfanuméricos - Uma Aplicação na Identificação de Veículos
Autor: Eng. M.Sc. Fernando Peixoto Coelho de Souza
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 2000.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área, sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação.
Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos. Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios pré-definidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números. O sistema desenvolvido foi testado com um conjunto de 500 imagens com diferentes características e tipos de distribuição de luz sobre a superfície da placa. O sistema apresentou 97,7 % de sucesso na localização das placas e 91,3 % na extração correta dos caracteres nela contidos. Estes valores são aproximadamente 20 % superiores aos resultados apresentados por um sistema comercial israelense também testado com o mesmo banco de imagens. Os resultados obtidos com as rede neurais no reconhecimento dos caracteres 81,3 %, e no reconhecimento das placas 37,5 %, não foram satisfatórios, sendo necessário um estudo mais aprofundado nesta área.
Abstract:
Artificial vision systems are used more and more to aid human beings in different tasks. These systems are capable to recognize patterns previously taught in a complex image. The automatic reading is one of the most attractive tasks in this area, and a machine with this capacity can recognize objects that possess characters in its identification. In the traffic area, the identification of vehicles through the reading of its license plate has been conquering more space. In the beginning of the fifties, this concept was used to study the time of duration of trips between origin and destiny. The first used methods were set in observers that wrote down the plates of the vehicles and the corresponding times in a paper or recorded tapes. The plates were compared manually later, and the time of the trip was calculated. The technological progress has been increasing the precision and easiness of this technique substantially allowing its use in the offenders vehicles' identification and in irregular situation, and in the control of tolls and parkings. This work involves the study of several processing techniques and image analysis culminating in the development of a system capable to locate and to recognize the characters contained in a vehicle license plate. The image is analyzed previously by a search algorithm by standardized tonal variations in way to restrict the area of analysis of the main algorithm of the system. This, for its time, binarizes the image through an adaptative algorithm and it looks for elements that possess close dimensions to the expected dimensions of the plate's characters. The system searches for a sequence of characters of approximately same dimensions and for that, it varies a threshold value in the binarization process confering larger robustness to the algorithm. Once found a group of digits that satisfy some previously defined approaches, the characters are redimensioned and presented to two neural networks, one for the letters and another for the numbers. The developed system was tested with a group of 500 images with different characteristics and types of light distribution on the surface of the plate. The system presented 97,7% of success in the location of the plates and 91,3% in the correct extraction of the characters contained in it. These values are approximately 20% superiors to the results also presented by an Israeli commercial system tested with the same image bank. The results obtained with neural networks in the recognition of the characters were successful in 81,3%, and in the recognition of the plates 37,5%, they were not satisfactory, being necessary a study more deepened in this area.
Segmentação de Imagens de Origem Histológica
Autor: Eng. M.Sc. Kamel Bensebaa
Orientador: Prof. Dr. Renado M. Brito - Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 1999.
Resumo:
A precisão do diagnóstico patológico da angiogênese do tumor, usando a microscopia convencional, depende do conhecimento e experiência dos patologistas. Devido a esta dependência de aspectos subjetivos, tem sido notada a discrepância de diagnóstico entre patologistas em particular na interpretação de tumores. Para apresentar ao patologista novas perspectivas que se apoiam em dados quantitativas, ajudando no critério diagnóstico, tornou-se necessário aplicar técnicas novas, como processamento de imagens e análise de imagens, no domínio citopatológico e histopatológico. Conseqüentemente, o uso de computadores para análise automatizada de imagem de seções de tecido está ficando cada vez mais importante. O propósito da análise de imagem quantitativa, no contexto deste trabalho, é de capturar imagens de seções de tecidos, após uma reação imunohistoquímica, com o objetivo de determinar cores características da reação e, conseqüentemente, a presença e a distribuição do antígeno, presente nos tecidos. Assim, este trabalho envolve a implementação de um método automático para segmentação, extração e quantificação da angiogênese de tumores malignas, em secções de tecidos histológicos. Representando a formação de novos vasos sangüíneos capilares a partir de vasos pré-existentes, a atividade angiogênica provoca uma rápida expansão da população do tumor e aumenta o risco da metástase. O sistema desenvolvido permite ao usuário acompanhar e analisar a atividade angiogênica no tumor e, determinar sua área e perímetro do tumor ou da angiogênese, em função de seu interesse. Para extrair as dimensões da angiogênese, uma série de estágios de processamento da imagem, são executados. Uma vez que a imagem tenha sido adquirida, ela é realçada através do filtro "Background-Removal" para acentuar as informações de interesse, o operador de Canny é aplicado em seguida para detectar as variações abruptas nas imagens e finalmente, um seguidor de contorno é aplicado com o objetivo de fechar as bordas quebradas, o que permite determinar as dimensões morfométricas da angiogênese.
Abstract:
The accuracy of the pathological diagnosis of tumor angiogenesis using conventional microscopy depends on the knowledge and experience of the pathologists. Due to this dependence of subjective aspects, it has been noticed diagnosis discrepancy between pathologists in particular in tumor interpretation. To present to the pathologist, new perspectives supported by quantitative data, helping in the criterion diagnosis, it became necessary to apply new techniques, as image analysis and image processing in the citopathological domain. Consequently, the use of computers for analysis of automated images of tissue section is becoming more and more important and the goal of the quantitative image analysis, in the context of this work, is to capture pictures of tissue sections, after a imunohistochemistry coloration to determine characteristic colors and consequently, the presence of the antigen, present in the tissue. Thus, this work involves the implementation of an automatic method for segmentation, extraction and angiogenesis quantification of malign tumor, in section of histological tissue. Representing the formation of new capillary blood vessels from pre-existing blood vessels, the angiogenic activity provokes a fast expansion of tumor population and increases the risk of the metastase. This system allows to user to follow and analyze the angiogenic activity in the tumor, to determine its area and perimeter, according to his/her interest. To extract the dimensions of angiogenesis, a set of image processing steps, is executed. Once the image has been captured, it is enhanced through the Background-Removal filter to enhance the interest information, the Canny operator is applied after that to detect the abrupt variations in the image and in the end, a contour follower is applied with the objective to close the broken edges, what allows to determine the morphometric dimensions of angiogenesis.
Sistema de Aquisição e Processamento de Imagens para Inspeção por Ultra-Som
Autor: Eng. M.Sc. Letícia Vieira Guimarães
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 1997.
Resumo:
Este trabalho apresenta o desenvolvimento de um sistema de aquisição de sinais, composição e processamento de imagens do tipo scan B e scan C obtidas em testes não-destrutivos por ultra-som. O sistema é composto, basicamente, por um microcomputador dotado de uma placa de aquisição, um equipamento de geração de pulsos e um quadro de coordenadas fixado sobre um tanque onde são feitos os ensaios. O programa foi desenvolvido em linguagem C para plataforma XWindow. O quadro de coordenadas foi desenvolvido especialmente para este sistema e tem a função de fornecer o posicionamento do transdutor ultra-sônico sendo conectado à interface serial do microcomputador. O bloco do programa responsável pela aquisição de dados adquire os sinais de posicionamento do transdutor assim como o sinal correspondente aos pulsos ultra-sônicos, relacionando-os e armazenando-os em arquivos de formato apropriado. Para adquirir dados para a composição de imagens scan C de forma que não sobrecarregasse a memória do microcomputador, técnicas de lógica fuzzy foram aplicadas como alternativa em relação à escolha de um limiar de aquisição. O arquivo gerado é lido pelo bloco de processamento de imagens, que apresenta os dados nele contido na forma de imagem na tela do microcomputador. Neste bloco também encontram-se disponíveis funções para o realce na restauração e conversão de formato dos arquivos destas imagens. As funções desenvolvidas para realce foram equalização de histograma, modificação de histograma, segmentação e filtragem. A técnica SAFT, utilizada para aumentar o foco em imagens de origem ultra-sônica, foi desenvolvida para restauração destas imagens. Algumas imagens adquiridas e processadas pelo sistema são apresentadas neste trabalho.
Abstract:
This work presents the development of a signal acquisition, scan B and scan C ultrasonic non-destructive testing image formation and processing system. The system is basically composed of a microcomputer with a signal acquisition board, a pulse generator and a coordinate board (position board) located on a tank where the ultrasonics tests are made. The software was developed using the C language running on a XWindow plataform. The coordinate board was specially developed to this system and provide the ultrasonic transducer position by serial interface to microcomputer. The acquisition part of the software acquires the transducer position signal and corresponding to ultrasonic pulses, relates and stores them on suitable file format. To acquire data to compose scan C images and do not overload the microcomputer memory, fuzzy logic technique was applied as an alternative to threshold technique. The file generated by the acquisition part are read by image processing part that convert their contents to image. These images are shown on microcomputer screen. In this part of the software are available image enhance, restoration and file format conversion functions. To perform image enhance histogram equalization, segmentation and filters functions was developed. The SAFT technique, used to improve focusing on ultrasonic images, was developed to perform restoration on ultrasonic images. Some images acquired and processed by the system are presented on this work.
Filtros Adaptativos Aplicados à Separação de Sinais
Autor: Eng. M.Sc. Marcelo Negreiros
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 1994.
Resumo:
O uso de técnicas de processamento digital de sinais e de processamento adaptativo de sinais possibilita a resolução de problemas que dificilmente seriam resolvidos do modo analógico convencional. O desenvolvimento da microeletrônica e da teoria de análise de sistemas discretos no tempo permitiu a aplicação destas técnicas para a resolução de problemas em "tempo real", com custo economicamente viável e com algumas características vantajosas em relação a implementações analógicas.
O presente trabalho evidencia a relação entre o problema de separação de sinais e a Instrumentação. Apresenta-se em detalhes o "cancelador adaptativo de ruído". É estudada a base teórica para o desenvolvimento de estruturas e algoritmos de filtros adaptativos. As principais estruturas e algoritmos de filtros adaptativos de resposta ao impulso de duração finita (FIR) são examinadas. São apresentados algoritmos para filtros adaptativos de resposta ao impulso de duração infinita (IIR) e estrutura direta. Problemas que estas estruturas enfrentam são salientados.
Mostra-se uma aplicação da técnica de separação de sinais com filtros adaptativos ao problema de cancelamento de eco em linha telefônica. É implementado um cancelador de eco em um equipamento baseado no microprocessador TMS320C25. Os problemas de implementação em tempo real são discutidos. São feitas comparações de desempenho de algumas estruturas e algoritmos de filtros adaptativos para este problema. Medidas de desempenho do sistema implementado e sugestões para a sua melhoria são apresentadas.
Abstract:
The use of digital signal processing and adaptive signal processing techniques makes it possible to solve problems that would hardly be solved by conventional analog techniques. The development of microeletronic and of discrete-time systems theory permitted the application of these techniques to the solution of real-time problems, with an economically viable cost and with some advantageous characteristics over analog technology implementations. The present work evinces the relation between the signals separation problem and Instrumentation. The adaptive noise canceller is presented in details. It is studied the theoretical basis for the development of structures and algorithms of adaptive filters. The main structures and algorithms for adaptive filters with finite duration impulse response (FIR) are examined. Algorithms are presented for adaptive filters with infinite duration impulse response (IIR) and direct structure. Problems that these structures face are pointed out.
An application of the technique of signals separation with adaptive filters to the problem of echo canceling in telephone lines is showed . An echo canceller is implemented on a TMS320C25 microprocessor based equipment. Problems of real-time implementation are discussed. Comparisons of some adaptive filter structures and algorithms performance for this problem are made. Measures of the implemented system performance and suggestions for its improvement are showed.
Reconhecimento Automático de Voz para Palavras Isoladas e Independente do Locutor
Autor: Eng. M.Sc. Joel August Luft
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 1994.
Resumo:
Neste trabalho são apresentadas diversas técnicas aplicadas no reconhecimento de voz para palavras isoladas e independente de locutor. Estas técnicas são estudadas abordando-se os aspectos referentes a sua aplicabilidade prática. É apresentada uma implementação de um sistema de reconhecimento de voz em tempo real. São estudadas as características do processo de produção da voz e da capacidade auditiva do homem. São abordadas as limitações relacionadas com o reconhecimento automático da voz e apresentada a estrutura de um reconhecedor de voz para palavras isoladas. Diversas formas de representação do sinal de voz utilizando medidas de energia, cruzamento por zero, análise espectral e análise cepstral são apresentadas e estudadas de modo a serem utilizadas no processo de reconhecimento de voz. A técnica LPC de codificação do sinal de voz é analisad com a descrição dos algoritmos de extração dos parâmetros do sinal. Também são estudadas medidas de distorção entre parâmetros do sinal de voz para avaliar as diferenças entre eles. É apresentado o processo de quantização vetorial que reduz o volume de dados utilizado no processo de reconhecimento. Duas técnicas de reconhecimento de voz (DTW e HMM) são estudadas e detalhados os aspectos referentes à implementação prática de tais algoritmos. Também são apresentados algoritmos de detecção automática dos limites da palavra. Os detalhes de implementação em tempo real com os resultados de diversos experimentos práticos são mostrados. Conclusões gerais e a avaliação dos resultados obtidos são apresentados. Também são relacionados alguns aspectos para a melhoria e desenvolvimento do sistema de reconhecimento descrito neste trabalho.
Abstract:
This work presents several techniques applied in speaker-independent isolated word speech recognition. These techniques are studied regarding its practical use. The implementation of a real time speech recognition system are presented. The speech production mechanism and the human hearing characteristics are studied. The speech recognition constraints are analyzed and structure of an isolated-word speech recognizer is presented. Several representations of speech signal using energy measurement, zero crossing, spectral analysis and cepstral analysis are presented and studied related to the speech recognition process. The LPC coder is analyzed and the algorithms for parameters extraction are presented. The distortion measures are studied to evaluate the differences between speech parameters. The vector quantization process, which is important in data reduction, is presented. Two speech recognition techniques (DTW and HMM) are studied and several aspects related to the practical implementation are detailed. Endpoint detection algorithms for isolated words are also presented. The details of the real time implementation and the results of practical experiments are presented. General conclusions and the evaluation of the results are presented. Some aspects to improve and to develop the recognition system described in this job are reported.
Instrumento para Medida Digital de Potência e Valor Eficaz de Corrente e Tensão Distorcidas
Autor: Prof. M.Sc. Eric Ericson Fabris
Orientador: Prof. Dr. Ildon Guilherme Borchardt
Porto Alegre, 1994.
Resumo:
Este trabalho descreve o projeto e a implementação do protótipo de um instrumento para medida digital da potência ativa e reativa e dos valores RMS da corrente e tensão, visando à utilização em sistemas elétricos monofásicos com sinais distorcidos. O instrumento propõe-se a medir tais grandezas com precisão melhor que 0,05% do fundo de escala para sinais de entrada cujos espectros estejam compreendidos entre 1 e 20.000 Hz. Inicialmente, as definições das grandezas a serem medidas são estendidas para a situação em que os sinais não são senoidais (distorcidos). Em seqüência, são apresentadas a descrição e análise sucinta de algumas técnicas empregadas nas medidas destas grandezas, listando-se, ainda, as razões que levaram à adoção da abordagem digital com amostragem assíncrona dos sinais de tensão e corrente. Uma estrutura funcional baseada em técnicas de processamento digital de sinais é proposta, simulada e implementada, desenvolvendo-se, também, uma arquitetura eletrônica para a implementação do protótipo do instrumento. O resultado foi um instrumento de estrutura simples, robusto e de baixo custo. Finalmente, são apresentados os resultados obtidos a partir da implementação efetuada, demonstrando que a precisão de 0,05% nas medidas do valor RMS é assegurada para toda a faixa desejada. Para as medidas de potência até 2 KHz foi obtido uma precisão de 0,05%. Acima dessa freqüência, os resultados não são conclusivos devido às incertezas dos padrões disponíveis no momento dos ensaios. Pode-se afirmar, entretanto, que a precisão nessa faixa é melhor que 0,2%.
Abstract:
The purpose of this work is to describe the design and implementation of an instrument for the measurement of active and reactive power and RMS values of current and voltage signals based on digital signal processing techniques. The instrument is designed to have an accuracy better than 0,05% FS for distorted (non-sinusoidal) signal of current and voltage in the spectrum of 1 to 20000 Hz.
First of all, the definition os power and RMS values for distorted signals are stated. Some techniques of power and RMS value measurement are listed and analyzed. A technique based on assyncronous sampling of the current and voltage signal is suggested. A functional structure and a hardware architecture for carrying out the adopted technique is proposed, simulated and implemented. the result of this implementation is a robust instrument of simple structure and low cost.
The results of the implementation are presented. For the measurements of the RMS value the accuracy is 0,05% FS over the range os frequencies of interest. The accuracy for power measurements is 0,05% FS up to 2 KHz. The results for frequencies greater than 2 KHz is not conclusive, because the uncertainties of the standards available during the calibration process mask those results. It is possible to state that the accuracy of these measurements is better than 0,2%.
Um Ambiente para Estudo de Processamento Digital de Imagens
Autor: Prof. M.Sc. Alceu Heinke Frigeri
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 1992.
Resumo:
Este trabalho versa sobre processamento digital de imagens. Nele são discutidas e apresentadas técnicas fundamentais de processamento digital de imagens.
Com o objetivo de estudar e analisar técnicas de processamento de imagens é apresentado um modelo de processamento de imagens modular, que pode servir de base tanto para hardware dedicado a processamento de imagens como para software de processamento de imagens.
Para introduzir o assunto é feita uma apresentação prévia da nomenclatura utilizada, definindo-se conceitos básicos como o que é uma imagem e quais são os seus atributos principais. Em seqüência são apresentadas algumas características do olho humano que permitem qualificar resultados e definir limites práticos em termos de processamento de digital de imagens.
A apresentação de algumas das principais técnicas de processamento digital de imagens é feita no capítulo 4, onde, inicialmente, é apresentada uma taxonomia dos algoritmos de processamento de imagens, segundo diversos critérios, a fim de ordenar o estudo dos mesmos. As técnicas apresentadas são:
- Transformada de Fourier,
- Transformada co-seno,
- Transformada seno,
- Transformada de Wash-Hadamar,
- Transformada de Hough,
- Convolução,
- Pseudocoloração,
- Histogramas & equalização de histogramas e,
- Operações no domínio homomórfico.
Dado o fato de que estas técnicas envolvem formalismos matemáticos nem sempre claros, foi desenvolvido um ambiente integrado de software que permite aplicar tais técnicas na prática e desta forma possibilita observar-se as propriedades de cada um dos algoritmos. O ambiente desenvolvido (programa DIP) caracteriza-se por ser um sistema de múltiplas janelas definíveis pelo usuário, tendo cada janela o seu contexto próprio de operação, o que facilita a comparação de resultados entre a execução de diversos algoritmos.
Como fechamento são apresentados alguns resultados da aplicação dos algoritmos apresentados, utilizando-se o ambiente desenvolvido. Os casos estudados são:
- Eliminação de ruído,
- Eliminação de ruído coerente,
- Aumento de contraste,
- Realce via homomorfismo,
- Equalização automática de histograma,
- Realce via equalização de histograma,
- Extração de bordas,
- Binarização,
- Detecção de objetos,
- Detecção de movimento,
- Compressão de imagens e,
- Ampliação de imagens.
Palavras chaves: Processamento Digital de Imagens, Processamento Digital de Sinais, Ambientes.
Abstract:
In this work, about digital image processing, some fundamental techniques of image processing are presented and discussed.
With the purpose of study and analysis of image processing techniques, a modular image processing model is proposed. This model is useful both to hardware and software implementation.
To introduce the subject, firstly the nomenclature used is presented, allowing the definition of the basic concepts related to images. Next the human eye is studied to make it possible to quality results (in a qualitative manner) and to define the limits of what is reasonable to espect using digital image processing.
The presentation of the main techniques is done in a entire chapter, where a taxonomy of such algorithms is presented (according to different criteria). The algorithms studied are:
- Fourier transform,
- Cossine transform,
- Sine transform,
- Wash-Hadamar transform,
- Hough transform,
- Convolution,
- Pseudo-coloration,
- Histograms & equalization of histograms and,
- Homomorfic operations.
An integrated environment allowing the application and study of such algorithms was developed. The environment (DIP program) is a user-defined multi-window system with a different operation context in each window, what facilitates the comparison task putting the results of diferent algorithms face to face.
To finish the text some practical results, obtained using the developed program, are showed. The studied cases are:
- Noise cancellation,
- Coherent noise cancellation,
- Contrast enhancement,
- Homomorfic enhancement,
- Histogram equalization,
- Histogram enhancement,
- Edges extraction,
- Binarization,
- Objects detection,
- Image compression and
- Image enlargement.
Key-words: Digital Image Processing, Digital Signal Processing, Enviroments.
Processamento Digital de Sinais Aplicado à Transmissão de Voz
Autor: Prof. M.Sc. Thomas Weihmann
Orientador: Prof. Dr. Altamiro Amadeu Susin
Porto Alegre, 1992.
Resumo:
Este trabalho trata da aplicação da tecnologia de processamento digital de sinais à transmissão do sinal de voz, sendo estudadas, simuladas, propostas e/ou implementadas em tempo real de execução, diversas técnicas de "compressão" de voz, que permitem reduzir substancialmente a taxa de transmissão.
São estudadas as características acústicas e fisiológicas do processo de produção de voz pelo sistema fonador humano bem como a capacidade perceptiva de seu aparelho auditivo. É apresentado um modelo digital simples para a produção de voz (Capítulo 1). São apresentados e estudados codificadores de forma de onda, numa escala crescente de complexidade, iniciando pelo PCM e passando pelo logPCM, DPCM, APCM e ADPCM. É estudado o efeito da taxa de amostragem na qualidade do sinal de voz. É proposto e implementado em tempo real de execução, usando o processador de sinais TMS320C25, um codificador ADPCM de 24 kbit/s. É também implementado um codificador ADPCM de 18 kbit/s (Capítulo 2).
É analisada uma técnica de compressão harmônica do sinal de voz, executada no domínio tempo (TDHS), que permite efetivamente reduzir pela metade a banda de freqüência do sinal de voz, praticamente sem comprometer a qualidade. Esta técnica foi implementada em tempo real, sendo apresentados os problemas de ordem prática. É estudado o efeito do cálculo inexato do pitch (período fundamental) sobre o TDHS. É proposta e implementada, em tempo real, uma combinação dos codificadores TDHS e ADPCM, atingindo uma taxa de transmissão de 12 kbit/s (seis vezes inferior à taxa de amostragem original do sinal de voz) (Capítulo 3). É estudada a técnica LPC de codificação paramétrica do sinal de voz. São apresentados os algoritmos de extração de parâmetros do sinal de voz (coeficientes do filtro preditor, ganho, pitch). É estudada a técnica APC, os quais não se mostraram adequados à qualidade de comunicação telefônica (Capítulo 4). Conclusões gerais e perspectivas futuras para o desenvolvimento e estudo dos codificadores de voz estudados neste trabalho, são apresentadas (Capítulo 5). São estudados e implementados em tempo real, usando o processador TMS320C25, filtros digitais anti-aliasing multi-freqüênciais de subamostragem e sobre-amostragem. É apresentado o uso da notação em ponto fixo para o processamento digital de sinais baseado em aritmética binária. É descrita a infra-estrutura de hardware utilizada na simulação, implementação e testes dos algoritmos de compressão de voz estudados neste trabalho (Anexos A, B e C).
Abstract:
The subject of this work is the application of digital signal processing technology to digital voice transmission. Several voice compression techniques are studied, simulated, proposed and/or implemented in real time. These techniques allow a substantial reduction in the transmission rate. The acoustic and physiological characteristics of the voicing process and the vocal tract are studied. Also the perception by human hearing is analyzed. A simple digital model for voice generation is presented (Chapter 1). Waveform coders are presented and studied in a growing order of complexity: PCM, logPCM, DPCM, APCM and ADPCM. The effect of the sampling rate on the speech quality is studied. A 24 kbit/s ADPCM coder is proposed and implemented in real time on the TMS320C25 processor. A 18 kbit/s ADPCM coder is also implemented (Chapter 2). A time domain harmonic scaling algorithm (TDHS) for speech signals is studied. This algorithm allows an effective frequency band halving, with little quality reduction. this algorithm is also implemented in real time and the resulting problems are presented. The effect of an inaccurate pitch extraction on the TDHS algorithm is studied. A combined speech coder based on TDHS and ADPCM is proposed and implemented in real time, achieving 12 kbit/s (Chapter 3). The LPC coder is studied. Algorithms for parameter extraction are presented (prediction filter coefficients, pitch, gain). The APC technique is studied. The APC and LPC coders are simulated and show not to be acceptable for telephonic communication (Chapter 4). General conclusions and future trends for the speech coders studied in this work are presented (Chapter 5). Multi rate filters are studied and implemented in real time using the TMS320C25 processor. These multi rate filters are used in over and under sampling of speech signals. The fixed point notation, necessary for signal processing based only on integer numbers, is presented. The hardware and systems used in simulation, implementation and testing of the algorithms studied in this work are described (Annexes A, B and C).