PROGRAMA DE PÓS-GRADUAÇÃO EM MODELAGEM MATEMÁTICA E COMPUTACIONAL (PPGMMC)

UNIVERSIDADE FEDERAL DA PARAÍBA

Telefone/Ramal
Não informado

Dissertações/Teses


Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPB

2024
Descrição
  • BRADSON TIBERIO LUNA CAMELO
  • TEORIA DOS LEILÕES NAS CONTRATAÇÕES PÚBLICAS PARAIBANAS - UMA ESTIMAÇÃO DOS CUSTOS DE TRANSAÇÕES ATRAVÉS DO APRENDIZADO DE MÁQUINA
  • Orientador : PEDRO RAFAEL DINIZ MARINHO
  • Data: 19/07/2024
  • Hora: 14:00
  • Mostrar Resumo
  • Esta dissertação visa preencher uma lacuna específica na literatura ao investigar os custos de transação em contratações públicas, utilizando modelos matemáticos e técnicas de aprendizado de máquina. A motivação pessoal e prática para esta pesquisa surge da necessidade de melhorar a eficiência e a transparência nas licitações públicas, particularmente no estado da Paraíba, onde a otimização dos recursos públicos é de suma importância. O objetivo principal deste estudo é desenvolver e aplicar um modelo matemático para analisar as contratações públicas e utilizar técnicas de aprendizado de máquina para prever os custos de transação que impactam os preços públicos. A pesquisa é dividida em duas partes principais. A primeira parte dedica-se ao desenvolvimento de um modelo matemático (jogo-teórico), adaptando os leilões clássicos para as modalidades de contratação pública mais usuais, como Concorrência e Pregão. Esta seção explora matematicamente o impacto das estratégias e comportamentos dos participantes nos resultados dos leilões, com foco na presença de custos de transação, incluindo preços de entrada. Na segunda parte, são aplicadas técnicas de aprendizado de máquina para prever os custos de transação em contratações públicas, utilizando dados como notas fiscais de entidades públicas do estado da Paraíba, bem como informações econômicas, geográficas, sociais e contábeis. Os métodos incluem o uso de Random Forest e LASSO para criar modelos preditivos, visando estimar os preços das contratações de forma mais precisa. Os resultados da pesquisa indicam que o modelo Random Forest apresentou um coeficiente de determinação (R2) de 0,97, explicando cerca de 97% da variabilidade nos custos de transação, com um erro quadrático médio (RMSE) de 0,14 desvios padrão dos preços normalizados. A análise revelou que fatores como o Tempo Médio de pagamento e prazo para adimplir precatórios são determinantes para os custos de transação. Esses resultados mostram que é possível prever os custos de transação nas contratações públicas com alta precisão, utilizando técnicas avançadas de aprendizado de máquina. Na conclusão, destacam-se as consequências práticas da pesquisa, como a possibilidade de implementar modelos preditivos para melhorar a gestão das contratações públicas, promovendo maior eficiência e transparência no uso dos recursos públicos. A abordagem interdisciplinar adotada, que combina estatística, economia, matemática, ciência da computação e administração pública, reflete a complexidade e relevância do tema, oferecendo ferramentas práticas e teóricas para aprimorar os processos de licitação pública.
  • VALDEMI NUNES COSTA
  • Modelos INGARCH log-lineares com inovações Poisson mistas
  • Orientador : RODRIGO BERNARDO DA SILVA
  • Data: 12/06/2024
  • Hora: 14:00
  • Mostrar Resumo
  • Neste trabalho, propomos uma estrutura geral para modelagem e inferência de dados de séries temporais de contagem através de um modelo INGARCH log-linear com inovações pertencentes à classe de distribuições Poisson mista, em que a variável latente envolvida pertence à família exponencial. Com isso, introduzimos uma classe ampla de modelos de séries temporais, cujos casos particulares explorados serão baseados nas distribuições Poisson inversa-gaussiana e binomial negativa. Para estimação dos parâmetros, desenvolvemos um método iterativo de máxima verossimilhança por meio de um algoritmo EM, sendo seu desempenho em amostras finitas avaliado através de estudos de simulação. O modelo proposto será ilustrado através de aplicações a dados reais a fim de demonstrar sua utilidade.
  • ISAAC FERREIRA DE LIMA
  • UMA COMPARAÇÃO DAS DISTRIBUIÇÕES INFLACIONADAS PARA MODELAR DADOS DUPLAMENTE LIMITADOS
  • Orientador : TATIENE CORREIA DE SOUZA
  • Data: 31/05/2024
  • Hora: 09:30
  • Mostrar Resumo
  • No contexto de dados duplamente limitados, as distribuições inflacionadas são muito utilizadas para casos em que os dados contenham excesso de zeros e/ou uns. Existem na literatura algumas distribuições para lidar com dados nesse domínio como, por exemplo: beta inflacionada (Ospina e Ferrari, 2010), kumaraswamy inflacionada (Cribari-Neto e Santos, 2019) e gama unitária inflacionada (Silva, 2023). Neste trabalho, iremos apresentar as distribuições de probabilidade mais utilizadas no contexto de modelagem de dados distribuídos no intervalo unitário padrão, mas que podem conter zeros e/ou uns e, a partir de um estudo detalhado, via simulação de Monte Carlo, identidencar os cenários, de acordo com as características que são mais adequados para cada distribuição
  • FRANCISCO ALLYSON ANDRADE VIEIRA
  • Aspectos da Imunidade Adquirida à Malária e sua Modelagem Matemática
  • Orientador : ANA PAULA PINTADO WYSE
  • Data: 29/02/2024
  • Hora: 16:00
  • Mostrar Resumo
  • A malária é uma doença infecciosa que apresenta sua incidência de casos nas regiões de climas tropicais e subtropicais devida a adequação da temperatura e pluviosidade que proporciona uma adaptação no ambiente o tornando propício ao desenvolvimento do mosquito transmissor. No que concerne a duração da infecção causada pelo vetor da malária, este período pode apresentar variações de acordo com a exposição do indivíduo ao protozoário. Esse trabalho busca apresentar aspectos da imunidade adquirida à malária e da sua modelagem matemática através de modelos epidemiológicos.Considerando as contribuições de tais modelos no fornecimento de informações imprescindíveis ao controle e combate dessa doença.
  • JOSE PAES DA COSTA NETO
  • Avaliação e controle de qualidade na indústria de batatas fritas utilizando visão computacional
  • Orientador : MARCELO RODRIGO PORTELA FERREIRA
  • Data: 27/02/2024
  • Hora: 10:00
  • Mostrar Resumo
  • O controle de qualidade é um processo essencial para assegurar que um produto ou serviço atinja os padrões de qualidade estipulados, envolvendo atividades destinadas a identificar e prevenir falhas. Isso inclui inspeções, testes e análises para garantir que o produto ou serviço satisfaça os requisitos do cliente, com o objetivo de detectar e resolver problemas antes que afetem negativamente a satisfação do cliente ou os resultados financeiros. A implementação de processos de controle de qualidade pode ajudar as organizações a aprimorar seus produtos e serviços, aumentando a satisfação do cliente. Esse controle é crucial na cadeia de suprimentos para garantir a consistência do produto, a eficiência da cadeia de suprimentos, a reputação da marca e a conformidade regulatória. Para este trabalho será utilizado um conjunto de dados públicos que é proveniente da Frito-Lay, que é uma divisão da PepsiCo, que fabrica, comercializa e vende uma variedade de marcas populares de batatas fritas como Lay's e Doritos, a qual estudos estão em andamento para melhorar a qualidade dos alimentos. Durante o processo de fabricação, as batatas fritas podem apresentar queimaduras, com um limite mínimo para a quantidade de partes queimadas ou danificadas permitidas em um chip de batata, de forma que a industria deseja minimizar essas partes queimadas para poder entregar produtos com o melhor grau de qualidade aos seus consumidores.
2023
Descrição
  • NAIARA PEREIRA TAVARES
  • MODELAGEM MATEMÁTICA DOS EFEITOS DA VACINAÇÃO CONTRA A COVID-19 NO BRASIL
  • Data: 31/08/2023
  • Hora: 16:00
  • Mostrar Resumo
  • A pandemia do coronavírus ou COVID-19 (Corona Virus Disease) foi declarada no início de 2020 mudando completamente a maneira de nos relacionarmos uns com os outros. O cenário exigiu que nos distanciássemos socialmente, tendo o menor contato direto possível entre os seres humanos. A doença era algo novo para o mundo e consequentemente para a ciência e assim desencadeou a busca incessante por uma vacina eficaz que contivesse a propagação do vírus. Com isso muitos estudos foram sendo realizados sobre a situação mundial, dentre eles, a modelagem epidemiológica que explicasse a dinâmica da COVID-19 e suas complexidades, para tanto, a modelagem matemática se fez e faz presente para descrever situações reais e fornecer informações importantes que ajudem no enfrentamento de doenças. Utilizando desta ferramenta, o presente trabalho tem como objetivo modelar matematicamente a dinâmica da COVID-19 levando em consideração os indivíduos vacinados no intuito de analisar o comportamento da doença a medida em que as pessoas recebem a vacina. Foi realizada uma modificação no modelo SIR, onde incluímos os compartimentos dos indivíduos vacinados com uma dose, duas doses e três doses de vacina; consideramos a influência de alguns parâmetros como taxa de transmissão, taxa de recuperação, taxa de reinfecção e taxa de vacinação. A dinâmica do comportamento da população foi representada por simulações numéricas, utilizando o software Maple, para diferentes cenários de vacinação.
  • DAVID ELOI DOS SANTOS BITENCOURT
  • Influência do raio, da distância e do movimento estocástico no problema de perseguição multidimensional.
  • Data: 30/08/2023
  • Hora: 14:00
  • Mostrar Resumo
  • Este trabalho investiga a influência do raio, da distância e do movimento estocástico no problema de perseguição multidimensional. A partir de simulações de Monte Carlo, um ponto com movimento determinístico e um objeto com movimento aleatório realizam saltos discretos ou suficientemente pequenos para simular o comportamento contínuo. Utiliza-se ferramentas da inferência estatística para analisar os achados em relação ao percentual de capturas, variável aleatória. Tais achados indicam uma relação diretamente proporcional entre o percentual de capturas e o raio, bem como a distribuição probabilística dos saltos. Ademais, o crescimento da distância inicial entre o ponto e o objeto podem alterar o comportamento da variável aleatória.
  • JOHN WILLIAMS FERREIRA DE SOUZA
  • ANÁLISE DE ESTRUTURAS RETICULADAS GEOMETRICAMENTE NÃO-LINEARES COM O USO DA FORMULAÇÃO CORROTACIONAL DE ELEMENTOS FINITOS
  • Data: 30/08/2023
  • Hora: 10:00
  • Mostrar Resumo
  • Há diversos trabalhos dedicados ao desenvolvimento de formulações de modelos de estruturas reticuladas que levem em consideração a posição deslocada da estrutura, bem como os diferentes comportamentos não lineares inerentes a essas estruturas. A tendência de utilizar estruturas mais esbeltas e com maior resistência faz com que a análise de estabilidade seja objeto de fundamental importância. O presente trabalho tem como objetivo possibilitar a análise estática não linear de estruturas reticuladas através de algoritmos desenvolvidos em linguagem Matlab®, com os procedimentos necessários para realizar análises estáticas de modelos estruturais compostos por elementos finitos com não linearidade geométrica. Para isso, faz-se necessário o estudo de conceitos de estabilidade estrutural, do traçado das trajetórias de equilíbrio dessas estruturas, das características da formulação do método dos elementos finitos, dos conceitos de não linearidade geométrica e também o estudo da linguagem de programação escolhida. Os algoritmos desenvolvidos foram testados em situações distintas, com o intuito de comprovar a eficiência da formulação empregada. Sendo assim, foram analisados aplicações numéricas com treliças e pórticos planos em casos de comportamento não linear já consagrados na literatura.
  • JOAQUIM DE SOUZA CAMPOS
  • CORREÇÕES DA ESTATÍSTICA DA RAZÃO DE VEROSSIMILHANÇAS EM MODELOS DE REGRESSÃO BETA PRIME
  • Data: 29/08/2023
  • Hora: 14:00
  • Mostrar Resumo
  • A presente dissertação trata da correção de Skovgaard para a estatística da razão de verossilhanças aplicada ao modelo de regressão beta prime reparametrizada na média e precisão por BOURGUIGNON et al. (2018). Para testar hipóteses sobre parâmetros de um modelo de regressão, o teste da razão de Verossimilhanças é um dos mais utilizados, por sua simplicidade. O modelo de regressão Beta Prime é conveniente para modelar dados assimétricos, e é uma alternativa aos Modelos Lineares Generalizados (MLG) quando os dados apresentam assimetria. O teste pode ser significativamente distorcido caso a amostra não seja suficientemente grande. Além disso, é importante ressaltar que a distribuição qui-quadrado, pode não ser uma boa aproximação para a distribuição nula exata da estatística de razão de verossimilhanças em amostras de tamanho pequeno ou moderado. Para melhorar essa aproximação, a estratégia usual é substituir a estatística de razão de verossimilhanças por suas versões corrigidas. Para avaliar o desempenho da estatística corrigida foram realizadas simulações de Monte Carlo. Por fim, são apresentadas duas aplicações a dados reais.
  • RAFAEL OLIVEIRA DO NASCIMENTO
  • ANÁLISE DE FORMAS E ROBUSTEZ: MÉTODOS EXISTENTES E ALGUMAS PROPOSIÇÕES
  • Data: 29/08/2023
  • Hora: 10:30
  • Mostrar Resumo
  • A análise estatística de formas é o estudo das variações de forma, tamanho e suas covariações. Embora a maioria das aplicações diga respeito à biologia, a análise estatística de formas tem se tornado uma poderosa ferramenta, com diversas aplicações nos campos da arqueologia, paleontologia, geografia, e medicina. A análise procrustes é um dos métodos mais empregados na análise estatística de formas e representa um papel importante para mensurar, comparar e estimar a forma média de objetos. Entretanto, tal técnica é baseada no método de mínimos quadrados que é severamente afetado quando os dados apresentam observações aberrantes (outliers). Neste trabalho propomos um método para análise procrustes partindo de modelos de regressão robusta existentes na literatura.
  • IRINEU BARBOSA DA SILVA NETO
  • REPARAMETRIZAÇÃO DA DISTRIBUIÇÃO POISSON INFLACIONADA EM ZERO: ESTIMAÇÃO E APLICAÇÃO
  • Data: 29/08/2023
  • Hora: 08:00
  • Mostrar Resumo
  • O presente trabalho aborda a estimação da média da distribuição Poisson inflacionada em zero (ZIP) por meio dos métodos de estimação de máxima verossimilhança (EMV) e de momentos. Foi proposta uma nova parametrização para a Poisson inflacionada, denominada de ZIPM, que introduz os parâmetros de média (μ) e de inflação (δ). O objetivo principal foi investigar a eficácia da estimação para média da distribuição Poisson inflacionada em zero e a adequação da nova parametrização proposta. Os resultados demonstraram que tanto o EMV quanto o método dos momentos produziram estimativas satisfatórias para a média da distribuição ZIPM. Não foram encontradas diferenças significativas entre os métodos em termos da média estimada, erro quadrático médio (EQM) e viés relativo. Além disso, a nova parametrização ZIPM mostrou-se promissora, permitindo um controle refinado da média e da inflação. No entanto, é importante ressaltar que certos erros de especificação podem ser cometidos ao utilizar a ZIPM e os métodos de estimação. A adequação do modelo e a validade das estimativas dependem do atendimento dos pressupostos estatísticos subjacentes e da aderência dos dados à distribuição Poisson. Em conclusão, este trabalho contribui para o campo da estatística ao propor a parametrização ZIPM e ao explorar os métodos de estimação para a média da distribuição ZIP. Os resultados encorajadores indicam a utilidade da nova parametrização e fornecem informações valiosas para pesquisadores que lidam com dados inflacionados em zero. No entanto, é necessário cautela ao interpretar os resultados, considerando as possíveis limitações do modelo e os erros de especificação associados.
  • RICARDO NEVES TAVARES
  • Avanços para o modelo de percolação com dois fluidos em Z^2
  • Orientador : ANA FLAVIA UZEDA DOS SANTOS MACAMBIRA
  • Data: 25/08/2023
  • Hora: 16:30
  • Mostrar Resumo
  • Percolação é um problema físico que surgiu do estudo do fenômeno do transporte de um fluido através de um meio poroso, constituído de poros e canais microscópicos por onde passa o fluido. Os canais e poros que constituem o sistema podem estar abertos ou fechados à passagem do fluido, representando por exemplo, o modo pelo qual um líquido ou gás se infiltra através de uma rocha. O nosso objetivo neste trabalho é apresentar um algoritmo que resolva o problema da percolação de elos no conjunto Z^2.
  • ANA NERY NASCIMENTO SILVA
  • OTIMIZAÇÃO E ANÁLISE DA LOCALIZAÇÃO DE UNIDADES DE SAÚDE DA FAMÍLIA DO MUNICÍPIO DE JOÃO PESSOA
  • Data: 25/08/2023
  • Hora: 14:30
  • Mostrar Resumo
  • A presente pesquisa tem por objetivo analisar a rede de atendimento das USFs do município de João Pessoa - PB em duas vertentes: primeiro olhando a rede de atendimento à saúde do município de João Pessoa - PB como um grafo e analisando suas medidas de centraidade. E em seguida aplicar o Problema de Localização de Máxima Cobertura de modo a verificar se a localização das USFs é a mais adequada de forma a maximizar a área de cobertura da atual rede de saúde pública, com o fim de otimizar/abranger o atendimento prestado aos usuários, ou seja da população de João Pessoa - PB.
  • MARIA EDUARDA DA CRUZ JUSTINO
  • MEDIDAS DE DIAGNÓSTICO EM MODELOS DE REGRESSÃO BETA PRIME
  • Data: 23/08/2023
  • Hora: 14:00
  • Mostrar Resumo
  • No contexto de modelos para variável resposta contínua positiva, o modelo de regressão beta prime, proposto por Bourguignon et al. (2021), é atrativo para modelar dados positivos assimétricos. Na etapa de validação de um modelo de regressão, uma das técnicas de diagnóstico mais utilizada é a análise de resíduos. Para isso, é importante utilizar resíduos com propriedades conhecidas e que apresentem bom desempenho. Neste trabalho, realizamos um estudo detalhado dos resíduos no modelo de regressão BP. Propomos os resíduos ponderado, ponderado padronizado (ESPINHEIRA et al., 2008) e Pearson padronizado (MCCULLAGH; NELDER, 1989) para tal modelo e comparamos seus desempenhos,via simulação de Monte Carlo, juntamente com os desempenhos dos resíduos quantílico e de Pearson utilizados por Bourguignon et al. (2021), Adicionalmente, avaliamos algumas medidas de predição e de qualidade de ajuste como critérios de seleção de modelos na regressão BP. Nessa perspectiva, propomos coeficientes de predição , baseado na estatística PRESS, e avaliamos o comportamento dessa medida e dos critérios do tipo coeficientes de determinação através de estudos de simulações de Monte Carlo, considerando especificação correta e incorreta em diferentes cenários do modelo de regressão BP. Aplicações a dados reais são apresentadas para ilustrar o desempenho dos resíduos e medidas propostas.
  • LINDEMBERG ROBERTO DE LIMA
  • MELHORAMENTO DO DESEMPENHO DE UNIDADES HIBRIDAS PV/BESS EM MICRORREDES ATRAVÉS DO CONVERSOR BIDIRECIONAL ENTRELAÇADO DE TRÊS FASES COM CONTROLE IMC
  • Data: 21/08/2023
  • Hora: 08:30
  • Mostrar Resumo
  • Apresenta-se, nesta tese, o estudo teórico, a modelagem matemática e o projeto de controle de uma microrrede trifásica, objetivando adotar um conversor CC–CC bidirecional em corrente, não–isolado, entrelaçado, com a finalidade de permitir o aumento da potência, com a redução no dimensionamento dos componentes e a melhoria na qualidade de energia, facilitando a filtragem de transientes, qualidades inerentes aos conversores intercalados. Para atingir esse objetivo é proposta a otimização do controle do conversor, substituindo a técnica convencional de controle por meio de malhas em cascata e controladores PID, por um controle por modelo de controle interno (IMC). São descritos e analisadas como requisitos as topologias convencionais de conversores CC–CC bidirecionais, aplicadas a sistemas de fluxo de potência bidirecional e expostas pesquisas em conversores intercalados, apresentando os conceitos de conversor com indutores intercalados, indutores acoplados e da topologia entrelaçado double dual boost. A modelagem matemática tem por referência o modelo médio por espaço de estados aplicado às diversas etapas de operação, procurando obter um modelo que represente o comportamento dinâmico do conversor em ambos os sentidos do fluxo de potência, considerando os conversores operando como no modo de condução contínua. Com base na função de transferência representativa do modelo são apresentadas técnicas convencionais de controle com controladores sintonizados mediante alocação de polos da planta, por meio do fator k. A par dessas técnicas clássicas de controle, discorre-se sobre o modelo de controle interno e as vantagens por ele apresentadas. Por fim, o modelo de controle interno será aplicando ao conversor entrelaçado, conferindo-se a eficácia dele a todos os modos de operação da microrrede.
  • CARLOS LISBOA DUARTE
  • Pêndulos assimétricos acoplados a um suporte móvel livre
  • Data: 28/07/2023
  • Hora: 14:00
  • Mostrar Resumo
  • O presente trabalho tem como principal objetivo analisar, computacionalmente, o processo de obtenção das expressões analíticas resultantes da modelagem de um sistema dinâmico não-linear formado por dois pêndulos, acoplados a um suporte móvel que pode mover-se livremente sobre um plano. Consideramos uma situação na qual os pêndulos possuem massas e comprimentos diferentes, isto é, assimétricos, isso acaba dificultando o processo de obtenção das equações necessárias ao estudo desse sistema. Assim, utilizaremos o módulo SymPy (Python para computação simbólica) para auxiliar no processo de dedução das expressões analíticas da modelagem do problema proposto. Em seguida, estudaremos o fenômeno da transferência de energia que pode ocorrer entre os modos normais de oscilação do sistema, tentando determinar a estabilidade dos mesmos e as situações em que pode ocorrer a transferência de energia. Do ponto vista metodológico, a pesquisa é fruto de revisões bibliográficas embasadas em estudos teórico de física e matemática. Vale ainda destacar, que os resultados observados no decorrer do estudo foram obtidos a partir de simulações numéricas utilizando a linguagem de programação Python e módulos especializados, tais como o NumPy e o SymPy.
  • JOSÉ WENES PEREIRA LIMA
  • AVALIAÇÃO DA NOTA DE REDAÇÃO DO ENEM NO ESTADO DO CEARÁ VIA MODELO DE REGRESSÃO BETA INFLACIONADO
  • Data: 31/05/2023
  • Hora: 14:00
  • Mostrar Resumo
  • O Exame Nacional do Ensino Médio (ENEM) é atualmente o mais importante instrumento de avaliação da educação básica de nível médio no Brasil, além disso, tal instrumento de avaliação tem nas notas obtidas pelos participantes um critério preponderante para o acesso às universidades públicas e privadas do país. A prova avalia objetivamente os participantes em quatro áreas, são elas: ciências humanas e suas tecnologias, ciências da natureza e suas tecnologias, matemática e suas tecno- logias, linguagens e códigos e suas tecnologias. Além destas, o exame conta ainda com a prova de redação, sendo esta a única prova não objetiva do exame. A nota na prova de redação é importantíssima na aprovação do candidato em diversos cursos universitários. Haja vista que não se limita apenas à escrita, mas também avalia a capacidade do estudante de analisar um tema, construir argumentos consistentes, fundamentar suas ideias e propor soluções. Essas habilidades são relevantes para o ambiente acadêmico, onde é necessário realizar pesquisas, debater ideias e partici- par de discussões. A presente dissertação tem por objetivo identificar os fatores que influenciam na nota de redação dos participantes que realizaram o ENEM em 2019 no estado do Ceará. Para isso foi utilizado o modelo de regressão beta inflacionado, uma vez que a variável resposta apresenta assimetria e assume valores no intervalo [0,1]. Os dados foram obtidos por meio do portal do INEP, na página relacionada ao ENEM. O número de participantes observados foram, respectivamente, 74.943 que estudaram em escolas públicas e 5.279 que estudaram em escolas privadas. Por meio da análise dos modelos propostos, constatamos que, tanto em escolas públi- cas quanto privadas, as notas nas provas objetivas influenciam as notas de redação dos alunos. Adicionalmente, as notas de ciências Humanas, linguagens e códigos e matemática e suas tecnologias apresentam forte influência na probabilidade dos participantes tirar nota 1000 na redação.
2022
Descrição
  • RAPHAEL DANTAS PINHO
  • Métodos de Armazenamento de Matrizes Esparsas para Simulação em Tempo Real de Redes Elétricas
  • Data: 24/11/2022
  • Hora: 08:30
  • Mostrar Resumo
  • A simulação computacional em tempo real de redes elétricas tem se tornado uma das mais importantes ferramentas de análise visando a operação destas redes através do projeto de seus sistemas de controle e de proteção. Para realizar a simulação em tempo real da rede elétrica, faz-se necessário modelar os equipamentos de geração e carga e conectá-los ao modelo da rede passiva, composta por linhas de transmissão e transformadores. Além disto, é necessário solucionar o sistema de equações resultante desta modelagem, sendo este sistema geralmente de ordem elevada devido às dimensões das redes elétricas, para assim obter os resultados que propiciarão as análises. Invariavelmente, as matrizes que descrevem o comportamento da rede passiva são esparsas e neste trabalho, dá-se ênfase às técnicas de armazenamento destas matrizes e suas respectivas formas de resolução do sistema de equações, comparando o desempenho computacional destas técnicas, ou seja, tempo de processamento, uso de memória computacional e quantidade de operações matemáticas necessárias, visando a otimização de desempenho para viabilização da simulação em tempo real.
  • ANDERSON KERLLY RODRIGUES DE SOUSA
  • FORMULAÇÃO VARIACIONAL DE ELEMENTOS FINITOS ESTABILIZADOS APLICADO AO PROBLEMA DE VIGA DE TIMOSHENKO COM GEOMETRIA ARBITRÁRIA NO ESPAÇO TRIDIMENSIONAL
  • Orientador : ANTONIO JOSE BONESS DOS SANTOS
  • Data: 28/10/2022
  • Hora: 14:00
  • Mostrar Resumo
  • Neste trabalho apresentamos a teoria clássica dos modelos de viga de Euler-Bernoulli e de Timoshenko com suas respectivas equações governantes no R3. Para sua resolução, construímos uma formulação variacional baseada no princípio de Hellinger-Reissner e aproximamos utilizando uma formulação em elementos finitos misto estabilizados. Alguns experimentos numéricos são apresentados e os seus resultados são discutidos.
  • VICTOR MATHEUS DA CUNHA SANTOS
  • Dinâmica e espalhamento de mosquitos geneticamente modificados via reação em cadeia mutagênica
  • Orientador : ANA PAULA PINTADO WYSE
  • Data: 30/07/2022
  • Hora: 10:30
  • Mostrar Resumo
  • Um modelo matemático foi desenvolvido para avaliar o uso de Mosquitos Geneti- camente Modificados (MGMs) como estratégia de controle da epidemia de Malária. Os mosquitos responsáveis pela transmissão da malária (vetores) foram modifica- dos geneticamente para que a probabilidade de transmissão do parasita causador da doença ao picar um ser humano seja reduzida em relação aos vetores do tipo selvagem. Nosso modelo representa a dinâmica populacional da introdução de uma cepa transgênica de vetores de malária da espécie Anopheles Gambiae considerando a técnica Mutagenic chain reaction (MCR) que é o processo de edição genômica que tem por princípio a geração de mutações "autocatalíticas"resultando sempre em homozigose do alelo editado. No modelo foram incluídos três tipos diferentes de agentes: mosquitos transgênicos do tipo selvagem, homozigotos e heterozigotos.
  • RAQUEL PRISCILA IBIAPINO
  • Análise estática de estruturas de barras usando o método dos elementos finitos
  • Orientador : ANTONIO JOSE BONESS DOS SANTOS
  • Data: 30/07/2022
  • Hora: 08:00
  • Mostrar Resumo
  • Nesse trabalho apresentamos um modelo para estruturas flexíveis unidimensionais no espaço tridimensional, baseado na teoria de Timoshenko, em regime de pequenos deslocamentos e sujeito a carregamentos arbitrários. Apresentamos uma formulação variacional cinemática de Galerkin e mista, sendo suas discretizações via método dos elementos finitos. Mostramos que a medida que a estrutura torna-se muito esbelta, a formulação cinemática apresenta dificuldades de aproximação, isto é, um trancamento da solução numérica “locking”. Mostramos que a formulação mista não apresenta este tipo de dependência com a esbeltez, apresentando soluções estáveis e convergentes. Alguns experimentos numéricos são realizados e os seus resultados são discutidos.
  • EDIVAGNER BATISTA FERREIRA
  • Medida Probabilística e Densidade de Probabilidade em Sistemas Caóticos
  • Data: 28/07/2022
  • Hora: 14:00
  • Mostrar Resumo
  • O estudo de sistemas dinâmicos que apresentam comportamento caótico fornece aplicações em várias áreas do conhecimento tais como engenharia, física, biologia, entre outras. Logo, estudar tais sistemas é importante não só do ponto de vista intrínseco da busca por entender fenômenos. Dentre as várias propriedades que esses sistemas exibem, estamos interessados na característica de preservar alguma medida sob a ação da dinâmica, como a densidade de pontos ao longo do domínio da transformação. Utilizaremos o Operador de Frobenius Perron para verificar isso em alguns mapas, que são os sistemas em tempo discreto e que fornecem a maneira mais simples de estudar o comportamento caótico, bem como experimentos numéricos a fim de testar os resultados teóricos presentes na literatura.
  • RAUL RENNER MARTINS DE SA
  • Gráfico de Controle Beta Prime Inflacionado
  • Data: 25/07/2022
  • Hora: 09:00
  • Mostrar Resumo
  • A distribuição beta prime é muito flexível para modelar dados que são medidos em uma escala contínua e restritos aos reais positivos, uma vez que sua densidade assume formas bastante diferentes. Quando os dados apresentam zeros em excesso uma distribuição absolutamente contínua não é mais adequada e dessa forma é necessário considerar uma distribuição inflacionada em zero. A proposta de novas técnicas para o controle e melhoria da qualidade de produtos têm crescido muito nos últimos tempos. Contudo, existem poucos gráficos de controle que consideram distribuições inflacionadas. O objetivo desse trabalho é propor um gráfico de controle baseado na distribuição beta prime inflacionada para monitorar características de qualidade no suporte dos reais positivos incluindo o zero. Os gráficos propostos serão abordados considerando medidas individuais (n=1) e amostras com n>1, onde a média da característica de qualidade será monitorada.
  • KATY SYLVIA BATISTA CASTRO
  • Distâncias adaptativas e kernelizadas aplicadas a agrupamento de séries temporais tipo-intervalo
  • Data: 30/03/2022
  • Hora: 14:00
  • Mostrar Resumo
  • A tarefa de agrupar faz parte do cotidiano e da natureza humana. A literatura que trata de agrupamentos disponibiliza técnicas, métricas e algoritmos para realizar essa tarefa. Em particular, o agrupamento de dados observados ao longo do tempo e em forma de intervalos representa um desafio, com novos métodos sendo propostos para essa finalidade. A vantagem das distâncias adaptativas é que elas atribuem pesos diferentes às variáveis do agrupamentos, e um algoritmo que consegue se adaptar a isso pode trazer resultados muito superiores aos algoritmos que tratam todas as variáveis da mesma forma, com o mesmo nível de importância. Ademais, a kernelização torna possível trabalhar com dados em um novo espaço, diferente do espaço original, onde os grupos venham a apresentar uma melhor separação. O objetivo deste trabalho é considerar novas distâncias para o método K-Means no agrupamento de séries temporais de dados tipo intervalo. Utilizaremos distâncias adaptativas e distâncias calculadas através da kernelização da métrica e do espaço de características. Para validar os algoritmos propostos realizamos um estudo com séries temporais geradas a partir dos parâmetros de modelos Autorregressivo Espaço-Tempo (STAR), utilizando simulações Monte Carlo, bem como dados reais. A comparação dar-se-á através de índices externos e internos. Os resultados obtidos nas simulações demonstram que os algoritmos propostos apresentaram desempenho superior em relação aos métodos existentes. A aplicação a dados reais considerou séries de criptomoedas e índices tradicionais como ouro, petróleo, bolsas de valores, entre outros. Os resultados apontam insights que poderão ser usados para trabalhos futuros na área de aprendizagem de máquina e economia.
2021
Descrição
  • ANDERSON MORAIS DE SOUZA
  • Caos Booleano: Em busca de Sincronização
  • Data: 16/12/2021
  • Hora: 09:00
  • Mostrar Resumo
  • O estudo dos sistemas dinâmicos possibilita a descrição de características e de comportamento de uma infinidade de fenômenos, em particular o estudo dos sistemas dinâmicos não lineares, que vêm se destacando no cenário da modelagem matemática por apresentar um comportamento, rico em informações dinâmicas e com várias particularidades próprias e universais. É neste contexto que este trabalho emprega ferramentas matemáticas e computacionais embasadas em conceitos da análise dos sistemas não lineares que são aplicadas no estudo do sistema de Lorenz. Fundamentado na análise dos planos de fases, espaços de fases, simulações numéricas e nos comportamentos que tal sistema apresenta é que analisaremos o comportamento caótico das Redes Booleanas Autônomas, onde a dinâmica da rede será determinada pelo histórico dos eventos de comutação, das interações anteriores e dos atrasos ao longo dos links, bem como, o estudo do comportamento não ideal das portas lógicas, a rejeição dos pulsos curtos e a análise do efeito de memória denominado de "degradação" apresentam um papel fundamental na compreensão da dinâmica e do caos apresentado pela rede em comento. Portanto, o conhecimento dos fatores que podem gerar o comportamento caótico em Redes Booleanas Autônomas com atrasos de tempo, permitirá o estudo da sincronização entre Redes Booleanas Autônomas.
  • RAFAELA SOUZA MORAIS
  • Explorando o espaço de parâmetros do método semiempírico RM1 pela utilização de otimização não-linear
  • Data: 15/12/2021
  • Hora: 15:00
  • Mostrar Resumo
  • A modelagem molecular permite calcular propriedades dos compostos moleculares, sendo utilizada principalmente na descoberta de novos fármacos ou na melhoria de protótipos existentes. Há várias abordagens para gerar esses modelos, sendo os métodos ab initio os mais confiáveis, porém são extremamente lentos computacionalmente. Como alternativa, foram propostos métodos semiempíricos, que utilizam aproximações para obter um resultado muito mais eficiente computacionalmente, porém com uma acurácia que varia muito, dependendo da abordagem e dos parâmetros escolhidos ou ajustados. Um desses métodos é o RM1 (Recife Model 1), criado em 2006 como uma reparametrização do AM1 (Austin Model 1), o qual foi criado em 1985 e foi muito bem-sucedido. O RM1 obteve bons resultados, mas é importante avaliar se a parametrização escolhida foi a melhor possível. Neste trabalho, o espaço de parâmetros para o método RM1 foi explorado, utilizando uma variação do algoritmo de otimização não-linear DFP a partir de diferentes pontos, avaliando se é possível oferecer uma melhoria substancial em sua exatidão unicamente com uma reparametrização, ou se é necessário modificar a estrutura do método para que esse objetivo seja alcançado. Os pontos de partida foram parametrizações encontradas por um trabalho anterior, utilizando algoritmos genéticos, que ofereceram resultados ligeiramente melhores do que o RM1. A otimização deste trabalho não encontrou pontos melhores do que o algoritmo genético, talvez porque a função custo utilizada na minimização não estivesse adequada. Para melhorar os resultados, seria necessário adequar a função custo, o que é possível com um procedimento apresentado como sugestão para um trabalho futuro.
  • EMERSON CHARLES DO NASCIMENTO MARREIROS
  • CÁLCULO COMPUTACIONAL DA FRONTEIRA DO DIAGRAMA DE VORONOI NO PLANO COM DOIS SITIOS E UM OBSTÁCULO CIRCULAR.
  • Data: 10/12/2021
  • Hora: 09:00
  • Mostrar Resumo
  • O objetivo do trabalho é de calcular numericamente a fronteira do diagrama de voronoi para dois pontos geradores sobre o eixo y e o centro do obstáculo circular sobre o eixo x. tarefa é de construir uma estrutura de grafo para resolver o problema de ponto conjunto quando o conjunto é a região de pontos do plano que estão mais próximos de um dos sitios.
  • JHONATAN BRUNNO FERREIRA DA SILVA LINO
  • Métodos de otimização de redes de distribuição de água
  • Data: 29/10/2021
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho tem por objetivo apresentar um modelo computacional para a otimização em redes de distribuição de água, para minimizar seu custo. O modelo será desenvolvido em linguagem Python através do pacote scipy.optimize com a rotina minimize. A rede será criada através do programa Epanet. Além do mais, serão obtidos os resultados apresentados pelo Lenhsnet (módulo de otimização de redes do programa Epanet). Serão realizadas simulações no modelo variando o método de otimização utilizado, verificando-se qual deles apresenta melhores resultados em relação à convergência e ao tempo de processamento.
  • MELQUISEDEC ANSELMO DA COSTA AZEVÊDO
  • PREVISÃO E ANÁLISE DO ICMS DA PARAÍBA
  • Data: 29/07/2021
  • Hora: 13:00
  • Mostrar Resumo
  • A busca por antecipar os fatos é bastante comum ao longo dos tempos, considerando algo como provável com base em indícios, sejam eles científicos ou por crenças populares. No âmbito econômico as previsões são necessárias para que se possa planejar as ações com antecedência e concluir sobre as principais intervenções e suas prováveis consequências, pois se o orçamento for superestimado, acarretará em gastos acima do previsto o que poderá gerar um déficit ou contingenciamento, que é a redução temporária das despesas para atingir a meta fiscal e se os recursos forem subestimado, o que pode dificultar realizações ações de urgência, e/ou de extrema importância. Desta forma a presente dissertação apresenta uma metodologia de modelagem, previsão e análise das arrecadações do Imposto sobre Operações Relativas à Circulação de Mercadorias e sobre Prestações de Serviços de Transporte Interestadual e Intermunicipal e de Comunicação do Estado da Paraíba (ICMS-PB), por representar mais de 80% da receita tributária do Estado. Foram coletados dados de janeiro de 1997 a abril de 2021, que é truncada em datas distintas gerando quatro séries para verificar se a dinâmica da série varia. Assim é utilizando, para as quatro série, os algoritmos de alisamento exponencial Holt-Winters com sazonalidade aditiva e multiplicativa, e modelos Box-Jenkins com os modelos sazonais auto-regressivos integrados de médias móveis (SARIMA) e o SARIMAX com a variável dummy referente a pandemia do COVID-19, a tendência e a sazonalidade como variáveis de regressivas. Comparando-as entre se e com os valores reais das arrecadações do ICMS da Paraíba. Finalmente, considerando o erro quadrático médio e erro total obtidos através da relação entre as arrecadações e previsões, selecionou-se os modelos que geraram as melhores previsões para cada série, exibindo o gráco com os valoreis reais, as previsões e o intervalo de confiança de 95%, vericando quais as circunstâncias que os modelos melhor se adéqua para prever o ICMS da Paraíba.
  • NIVALDO ANTÔNIO DE SOUZA SILVA
  • PREVISÃO DE CONSUMO DE ÁGUA NA ESTAÇÃO DE TRATAMENTO DE ÁGUA DE GRAVATÁ - PB
  • Data: 27/07/2021
  • Hora: 13:00
  • Mostrar Resumo
  • Esta dissertação tem por objetivo realizar a previsão do consumo de água na Estação de Tratamento de Água de Gravatá-PB. No decorrer deste trabalho abordamos o sistema de abastecimento de água, com seus componentes, a estação de tratamento de água, e o sistema de abastecimento de Campina Grande. Para a previsão do consumo de água utilizamos como base os principais conceitos relacionados às séries temporais, a saber, o algoritmo de alisamento exponencial e os modelos Box-Jenkins. Esses últimos apresentam os modelos autorregressivos integrados de médias móveis ARIMA e o ARIMAX. No ARIMAX empregamos variáveis independentes. As variáveis independentes usadas no ARIMAX foram a estimativa da tendência, a variável dummy, que representa o consumo de água no período da pandemia da COVID-19, e a temperatura da região de Campina Grande. Por fim, realizamos comparações com os resultados obtidos das previsões e verificamos que o modelo ARIMAX(1,1,4) com variável explicativa a temperatura da região de Campina Grande obtive melhor resultado preditivo.
  • ADRIANA RIBEIRO MOURA
  • CRITÉRIOS DE SELEÇÃO DE MODELOS: UM ESTUDO COMPARATIVO
  • Data: 23/07/2021
  • Hora: 16:00
  • Mostrar Resumo
  • Ao estudar um dado fenômeno aleatório, em geral, há a necessidade de modelar o seu comportamento através de um modelo probabilístico. Na estatística, uma grande parte desses problemas são tratados com a hipótese que os dados são retirados de uma população com uma distribuição de probabilidade específica. Nesse sentido, surge a necessidade de avaliar a qualidade do ajuste de um modelo para modelar os dados em questão. Na literatura, algumas estatísticas foram desenvolvidas como uma forma de mensurar a qualidade do ajuste de um modelo especificado pelo pesquisador a um conjunto de dados. Na inferência clássica, famílias de distribuições de probabilidades são impostas como possíveis candidatas para a modelagem do fenômeno de interesse e deseja-se decidir entre distribuições pertencentes à essas famílias, qual a que melhor se ajusta aos dados por meio de uma estatística de adequação de ajuste. A ideia, em geral, provém de um problema de teste de hipóteses composto, no qual é considerado uma amostra aleatória $ X_{1},X_{2},...,X_{n} $ de uma população com função de distribuição acumulada contínua $ F_{X} $. O objetivo é testar a hipótese nula $ \mathcal{H}_{0}: F_{X}= G $ contra a hipótese alternativa $ \mathcal{H}_{1}: F_{X}\neq G $, em que $ G$ é uma função de distribuição acumulada imposta e assim, conhecida e $F_X$ é a distribuição real dos dados que é geralmente desconhecida. Considerando as propriedades das famílias de distribuições generalizadas denotadas por $ G_c^{sup} $ e $ G_c^{inf} $ propostas por Tablada (2017), com parâmetro $c>0$, em que $G$ (\textit{baseline}) é uma distribuição de probabilidade qualquer, neste trabalho propomos um critério de adequação de ajuste $V$ baseado na razão de log-verossimilhanças $LR=\ell_g^{sup} - \ell_g^{inf}$. Dessa forma, aceitar a hipótese nula $H_0: V=0$ implicará que $G_c^{sup}$ equivale a $G_c^{inf}$ para modelar os dados especificados. Por sua vez, a equivalência dessas duas distribuições induzirá que os dados poderão ser modelados por $G$. Para comparar o desempenho do novo critério juntamente com os critérios: critério de informação de Akaike (AIC), critério de informação de Akaike corrigido (AICc), critério de informação bayesiano (BIC), critério de informação de Hannan-Quinn (HQIC) e os critérios de adequação de ajuste modificados de Crámer-Von Mises (W *) e Anderson-Darling (A*) realizamos diferentes cenários de simulação. Também para fins de comparação, ilustramos a sua aplicabilidade por meio de conjuntos de dados reais. Como complemento da investigação realizada ao longo deste trabalho, apresentamos os resultados mais importantes sobre regressão linear múltipla e realizamos simulações com o objetivo de compararmos o desempenho do critério proposto juntamente com os critérios: critério de informação de Akaike (AIC), critério de informação de Akaike corrigido (AICc), critério de informação bayesiano (BIC), critério de informação de Hannan-Quinn (HQIC), também em modelos de regressão linear múltipla. Por fim, utilizamos o novo critério juntamente com os critérios de informação de Akaike (AIC), critério de informação bayesiano (BIC) e o coeficiente de determinação ajustado ( R² ) e verificamos seu desempenho aplicado a um conjunto de dados reais.
  • GEDEÃO DO NASCIMENTO CORPES
  • DISTRIBUIÇÃO BETA PRIME INFLACIONADA
  • Data: 14/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • As distribuições de probabilidade, sejam elas discretas ou contínuas podem encontrar barreiras quando falamos de dados que contenham "zeros em excessos". Para que essas distribuições possam mensurar tais dados, criam-se distribuições mistas chamadas de distribuições inflacionadas. A forma como esse inflacionamento vai ocorrer dependerá de seu conjunto suporte. Nesta pesquisa propomos a construção da distribuição beta prime inflacionada em zero (BPIZ) a partir da reparametrização apresentada em BOURGUIGNON et al.(2018). Determinamos também estimadores de máxima verossimilhança e intervalos de confiança para o modelo BPIZ. Avaliamos numericamente os estimadores e os intervalos de confiança, onde verificamos sua eficiência. Por fim, realizamos aplicação para verificar, também, sua eficiência em relação à dados reais.
  • EMILIA GONÇALVES DE LIMA NETA
  • Aperfeiçoamento do teste da razão de verossimilhanças baseado na função de verossimilhança perfilada.
  • Data: 12/02/2021
  • Hora: 15:00
  • Mostrar Resumo
  • Na área de Estatística, uma das formas de realizar inferência sobre os parâmetros de um determinado modelo probabilístico é por meio de teste de hipóteses. Porém, muitas vezes, é conveniente realizar o estudo inferencial apenas para um subconjunto desses parâmetros, os quais são denominados de parâmetros de interesse e os demais, de perturbação. Inferências para parâmetros de interesse podem ser feitas utilizando a função de verossimilhança perfilada. Porém, o uso desta função pode conduzir a resultados imprecisos quando o número de parâmetros de perturbação é grande em relação ao tamanho da amostra. Além disso, a função de verossimilhança perfilada não é uma função de verossimilhança genuína. Assim, algumas propriedades básicas de uma função de verossimilhança podem não ser válidas. Com o intuito de atenuar esses problemas, Barndorf-Nielsen (1983) e Severini (1998) propuseram versões ajustadas da função de verossimilhança perfilada. É conhecido da literatura que a estatística da razão de verossimilhanças, sob hipótese nula, tem distribuição assintótica qui-quadrado. Portanto, para amostras de tamanho pequeno ou moderado, a aproximação da distribuição assintótica nula pela distribuição nula exata pode não ser satisfatória. Visando conferir inferências baseadas em amostras de tamanho pequeno ou moderado mais confiáveis, Sousa (2020) propôs um método de aperfeiçoamento do teste da razão de verossimilhanças que consiste em fazer uma correção na cauda da distribuição nula assintótica através da distribuição qui-quadrado inf. Neste trabalho, o principal objetivo é comparar o desempenho dos testes baseados na estatística da razão de verossimilhanças (considerando a função de verossimilhança pefilada e versões modificadas) com o método de aperfeiçoamento proposto por Sousa (2020) em amostras finitas. Também serão incluídas na comparação testes corrigidos pela técnica de reamostragem bootstrap. Especificamente, essa comparação será feita aplicando as diferentes abordagens às distribuições Lindley Ponderada e Weibull Exponencializada. Para isso, serão realizadas simulações de Monte Carlo, considerando diferentes cenários. Por fim, realizamos exemplos numéricos com base em conjuntos de dados reais.
  • ALEXANDRE GOMES SOUZA
  • Volatilidade dos retornos dos índices de energias renováveis e choques de incertezas nos EUA e Europa
  • Data: 29/01/2021
  • Hora: 14:00
  • Mostrar Resumo
  • O objetivo deste trabalho é estimar a volatilidade dos retornos e choques de incertezas sobre os índices relacionados ao desempenho do mercado de energias renováveis no âmbito dos EUA e Europa. Neste sentido, uma análise dos riscos associados aos índices European Renewable Energy e o Renewable Energy Generation pode revelar como os mesmos afetam o desempenho do setor. Primeiramente serão estimados testes de quebra estrutural sobre as trajetórias de retornos e verificar se a análise deve divida entre regimes. Para estimar a volatilidade serão utilizados modelos heterocedásticos condicionais propostos na literatura, particularmente o modelo Dynamic conditional correlation multivariate GARCH (DCC-MGARCH). Os dados foram escolhidos tomando como base os índices Standard & Poor's 500, WilderHill, Arca Tech 100, West Texas Intermediate e Morgan Stanley Capital International, Thomson Reuters/CoreCommodity e U.S. Dollar. Além das estimativas de todos os parâmetros, serão obtidas matrizes de quase-correlação, quase covariância, e choques de incertezas sobre os índices estudados, por meio de funções de impulso respostas obtidas por um modelo de vetores autoregressivos (VAR).
  • JEFFERSON BEZERRA DOS SANTOS
  • MODELO DE BALANÇO ENERGÉTICO HIBRÍDO BASEADO EM PROGRAMAÇÃO DINÂMICA DUAL ESTOCÁSTICA
  • Data: 29/01/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Com o aumento da demanda por energia elétrica grandes avanços tecnológicos são indispensáveis para um crescimento eficiente. No Brasil a hidrelétrica é a principal fonte de geração de energia. No entanto, devido ao aumento desproporcional da demanda e a escassez de chuvas, tem sido necessário a ativação de termelétricas para suprir a demanda, tendo como principais desvantagens o dano ambiental ser maior que outras fontes como as hidrelétricas. Vislumbrando a necessidade de realizar um gerenciamento adequado do despacho de energia, de modo a minimizar os custos da geração e uma diminuição do impacto ambiental, neste trabalho foi proposto um estudo baseado em Programação Dinâmica Dual Estocástica para sistemas hidrotérmicos com um sistema de geração eólica complementar. Para simular o comportamento aleatório do vento utiliza-se o movimento Browniano, admitindo-se que a velocidade do vento ao longo do tempo é um processo gaussiano contínuo. Neste trabalho foi feita a construção e análise do modelo hidrotérmico-eólico utilizando-se variações de produtibilidade para vários cenários de planejamento. Para a análise numérica dos resultados utilizou-se dados reais de curva de carga e uma amostra de curva de vento. No final os resultados da pesquisa identificaram duas configurações de despacho que evidenciam que a geração eólica complementar e variação do índice de produtibilidade trouxeram benefícios para a geração do sistema e diminuição do custo esperado.
  • WILTER DA SILVA DIAS
  • Modelo de Segmentação Clusterwise com Protótipos Híbridos
  • Data: 28/01/2021
  • Hora: 14:30
  • Mostrar Resumo
  • Apresenta-se, nesta Dissertação, uma metodologia que combina técnicas de predição e agrupamento denominada Modelo de Segmentação Clusterwise com Protótipos Híbridos (MoSCH), o qual objetiva segmentar os dados em clusters de modo que cada cluster seja representado por um modelo preditivo, como, por exemplo, um modelo de regressão ou algoritmo de aprendizagem de máquina (protótipo), dentre uma lista de métodos pré-definidos. A escolha do melhor protótipo para cada cluster tem o intuito de minimizar uma função objetivo. Além da implementação do algoritmo de estimação do método MoSCH, consideramos diferentes técnicas de alocação para novas observações de modo a avaliar o poder preditivo do algoritmo. Uma prova de convergência é apresentada, bem como a aplicação do método proposto em dados sintéticos e a bases de dados reais. Um novo método de alocação baseado no KNN, chamado alocação com KNN dos clusters combinados, é proposto, apresentando resultados interessantes. Já no experimento com dados sintéticos o algoritmo MoSCH é comparado com outro algoritmo em 6 cenários diferentes, tendo um ótimo desempenho. Na validação do algoritmo MoSCH com dados reais, o método proposto apresenta uma relevante performance quando comparado a outros 3 algoritmos, bem como a avaliação de 5 diferentes métodos de alocação.
  • CARLOS AUGUSTO DOS SANTOS
  • Dinâmica do Sarampo em Populações Parcialmente Imunizadas
  • Data: 22/01/2021
  • Hora: 09:00
  • Mostrar Resumo
  • Serão introduzidos conceitos básicos relacionados ao sarampo e principalmente sua forma de contágio, bem como modelos matemáticos que regem sua dinâmica considerando efeitos de vacinação. A seguir serão apresentados conceitos da Teoria do Controle Ótimo que serão utilizados para a formulação e resolução de um problema que visa minimizar a densidade de infectados.
2020
Descrição
  • DIONARTE DANTAS DE ARAUJO
  • Seleção de portfólios a partir da microestrutura de mercado de capitais brasileiro empregando aprendizado de máquinas
  • Data: 30/12/2020
  • Hora: 14:00
  • Mostrar Resumo
  • O presente trabalho procura encontrar melhores resultados em carteiras de investimentos construídos pelo modelo proposto por Markowitz utilizando, utilizando técnicas de Machine Learning (ML). Modelos de aprendizado de máquinas ganham, cada vez mais, destaque no campo da economia e das financias. Através da análise comparativa dos resultados encontrados em cada modelo, este trabalho elucida a diferença entre a performance do modelo de Markowitz, do modelo clássico em aprendizado de máquina Decision Tree (DT) e um dos modelos modernos de ML o Extreme Gradient Boosting (XGBoost). Para os modelos de aprendizado de máquinas foram utilizados os dados do histórico das cotações de cada ativo obtido no portal da B3, em conjunto com os algoritmos XGBoost e DT. Já para execução do modelo de Markowitz, foram utilizadas as série de retornos dos ativos, proveniente dos valores de fechamento de cada ativo no recorte temporal estudado, junto à biblioteca IntroCompFinR e um script em Linguagem R. Os resultados da análise comparativa, para o período de 03/06/2019 a 01/08/2019, sugerem que o modelo de Markowitz apresentou melhor resultado no risco vs retorno encontrado para os portfólios estudado. Foram analisadas 36 carteiras durante esse período (12 carteiras com 10 ativos para cada modelo), onde as carteiras de Markowitz obtiveram o rendimento médio superior aos demais.
  • RAFAEL PEREIRA DE LIMA
  • UM ESTUDO DO DIAGRAMA DE VORONÓI PARA DOIS PONTOS GERADORES ESPECÍFICOS COM UM OBSTÁCULO CIRCULAR
  • Data: 29/12/2020
  • Hora: 14:00
  • Mostrar Resumo
  • Neste trabalho, estudamos conceitos relacionados ao diagrama de Voronoi, uma estrutura de dados geométrica importante na solução de problemas de proximidade. Sua construção se dá pela comparação entre pontos dispostos em um certo espaço e pontos específicos, chamado do sítios ou pontos geradores. Pontos que se encontram a mesma distância de dois sítios vizinhos compõe a fronteira do diagrama. Exis- tem algoritmos que permitem construir esse diagrama quando é inserido obstáculos poligonais entre os sítios. Porém, esses algoritmos não servem para quando esses obstáculos possuem outros formatos. Nesse sentido, propomos um algoritmo com- putacional para determinar a fronteira do diagrama de Voronoi quando se tem um obstáculo circular entre dois pontos geradores dispostos no espaço plano R 2 .
  • PRISCILA SANTANA DA PAZ
  • Mapas Discretos para Dinâmica de Laser de Fibra Óptica com Travamento de Modos
  • Orientador : HUGO LEONARDO DAVI DE SOUZA CAVALCANTE
  • Data: 11/12/2020
  • Hora: 14:00
  • Mostrar Resumo
  • Lasers de fibra com travamento de modos exibem uma dinâmica rica e complexa, incluindo bifurcações e comportamento periódico e caótico. Esse tipo de laser é importante, pois permitem a ocorrência de pulsos com duração temporal ultracurta e cuja interação com a matéria pode ser consideravelmente diferente daquela produzida por um laser de onda contínua, pois pulsos ultracurtos podem gerar respostas dinâmicas ultrarrápidas. Existem muitos modelos para a dinâmica destes sistemas, mas alguns são complicados e de difícil implementação, pois nesse tipo de dinâmica existem vários fenômenos ocorrendo e sujeitos a várias descrições. Comumente, as dinâmicas são descritas em termos de equações de propagação do campo eletromagnético ou simplificadamente de sua envoltória ou amplitude de Fourier, ao longo da fibra. A equação resultante é uma equação diferencial parcial em uma dimensão espacial, uma dimensão temporal e um número indeterminado de modos de oscilação. Nesta dissertação, foi elaborado um modelo matemático em tempo discreto, diferente dos que utilizam equações diferenciais, que leva em conta os elementos ópticos e a maneira como estes atuam sobre o estado de polarização da luz. Esse modelo foi usado para construir mapas discretos capazes de incorporar os efeitos de rotação da polarização, efeito Kerr óptico e a transmissão do cubo polarizador, capazes de descrever o comportamento do laser e diagramas de bifurcação qualitativamente similares aos observados experimentalmente nesse sistema.
  • RODRIGO NÓBREGA ROCHA XAVIER
  • PYCRYSTALSCD: UM SOFTWARE PARA OBTENÇÃO DA DEMARCAÇÃO DO CLUSTER SUPRAMOLECULAR EM CRISTAIS ORGÂNICOS.
  • Data: 08/12/2020
  • Hora: 14:00
  • Mostrar Resumo
  • O cluster supramolecular, segundo a abordagem proposta pelo grupo de pesquisa NUQUIMHE, é composto por uma molécula central (M1) e as MN moléculas do seu entorno, sendo a menor porção de uma estrutura cristalina capaz de trazer todas as informações topológicas e energéticas que caracterizam as interações intermoleculares envolvidas em toda a rede cristalina. A correta identificação do cluster supramolecular é o ponto de partida para a construção do entendimento da formação de determinada fase cristalina, o que possui extensa aplicabilidade. Com esse intuito, o NUQUIMHE segue um procedimento padrão, que utiliza diversos programas existentes para identificar e separar as moléculas candidatas a comporem o cluster supramolecular. O procedimento envolve inspeção visual e diversas etapas para a construção do cluster supramolecular e a obtenção dos dados de área de contato. Isso resulta em um procedimento muito lento e sujeito a falhas. Neste trabalho, é relatada a construção do software PyCrystalSCD, responsável por automatizar a parte mais trabalhosa dessa abordagem, que é a demarcação do cluster supramolecular e a obtenção da área de contato entre as moléculas envolvidas, utilizando diagramas 3D de Voronoi.
  • ANTÔNIO RUBENS DE SOUSA
  • DISTRIBUIÇÃO QUI-QUADRADO INF: UMA NOVA ABORDAGEM PARA O APERFEIÇOAMENTO DO TESTE DA RAZÃO DE VEROSSIMILHANÇAS.
  • Data: 29/05/2020
  • Hora: 17:30
  • Mostrar Resumo
  • O objetivo principal da estatística é realizar inferência em uma população ou fenômeno a partir de um subconjunto de dados desta, denominado de amostra. Uma das maneiras de realizar inferência é realizando teste de hipóteses. A grosso modo, podemos dizer que é a partir de uma amostra da população que estabeleceremos uma regra de decisão segundo a qual rejeitaremos ou aceitaremos a hipótese proposta, denominada hipótese nula. Um procedimento geral que produz testes razoáveis é o Teste da Razão de Verossimilhanças (TRV). Para aplicar o TRV, precisamos conhecer a verdadeira distribuição da estatística da razão de verossimilhanças λ*(x) que, geralmente, não é fácil de ser obtida. Todavia, é conhecido na literatura que a estatística RV = −2 log(λ*(x)) segue distribuição aproximada qui-quadrado quando o teste é baseado em uma amostra de tamanho grande. No entanto, o uso da distribuição qui-quadrado como uma aproximação à verdadeira distribuição da estatística RV pode levar a inferências imprecisas quando o tamanho da amostra é pequeno. O objetivo desta pesquisa é a perfeiçoar o TRV quando o teste for baseado em amostra de tamanho pequeno ou moderado. Para isso, fazemos uso de novas famílias de distribuições, denotadas de sup e inf. Usando em particular as propriedades da família inf de distribuições, propomos uma nova abordagem para o TRV, em que fazemos o uso da distribuição qui-quadrado inf como uma distribuição corretora da distribuição qui-quadrado para a obtenção do quantíl 1 − γ que determina a região crítica do teste. Finalmente, neste trabalho é criado o pacote computacional LikRatioTest, escrito na linguagem R, com o objetivo de fazer as simulações de Monte Carlo, impondo vários cenários, para observarmos as taxas de rejeição da hipótese nula tanto com base no quantíl da qui-quadrado quanto no quantíl da qui-quadrado inf, tendo em vista validar nossa proposta. Tal pacote é open source e encontra-se disponível no GitHub para instalação no R.
  • MANUEL ESTEBAN RAMIREZ CARRILLO
  • APLICAÇÃO DO MÉTODO DAS SOLUÇÕES FUNDAMENTAIS EM PROBLEMAS INVERSOS GEOMÉTRICOS
  • Data: 27/03/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho tem como objetivo explorar algumas aplicações do método das soluções fundamentais (MFS) na resolução de alguns tipos de problemas inversos. Inicialmente, estudam-se as reconstruções de um subdomínio para as equações de Laplace e Helmhotz modificada. Finalmente apresentam-se duas formas de utilização do método das soluções fundamentais para a reconstrução da área úmida para um problema de tomografia por impedância elétrica.
  • MANOEL MESSIAS FRUTUOSO DOS SANTOS
  • ESTUDO MATEMÁTICO E COMPUTACIONAL DA HIPERTERMIA ONCOLÓGICA
  • Data: 20/03/2020
  • Hora: 14:00
  • Mostrar Resumo
  • A hipertermia oncológica tem se destacado entre os métodos de combate ao câncer. Essa terapia consiste em aquecer artificialmente o tecido do corpo através de ondas eletromagnéticas, concentrando o calor em células cancerígenas. O aumento conseguido da temperatura nos órgãos afetados promove uma maior sensibilidade nas respectivas células tumorais, otimizando-se assim os benefícios esperados da quimioterapia, radioterapia e cirurgia. Além de ser um procedimento indolor, não invasivo e sem a necessidade de internação hospitalar, a hipertermia não excede a tolerância térmica do corpo, preservando assim os tecidos saudáveis adjacentes às células tumorais. No problema da hipertermia eletromagnética, ondas eletromagnéticas são geradas por eletrodos (antenas) ajustáveis e espacialmente distribuídas. Estas antenas produzem uma fonte na equação de Helmholtz, cuja solução aparece como uma fonte de calor na equação de Bioheat. Objetiva-se encontrar o melhor posicionamento das antenas, de modo que apenas as células cancerígenas sejam afetadas pelo aumento de temperatura, resultando portanto em um problema de otimização.
  • EWERTON VERISSIMO DA SILVA
  • MODELAGEM MATEMÁTICA DO USO DA BACTÉRIA WOLBACHIA COMO MEIO DE CONTROLE DA POPULAÇÃO DE MOSQUITOS AEDES AEGYPTI
  • Data: 20/03/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Devido a dificuldade de combater a população de Aedes aegypti, que tem grande capacidade de reprodução, a dengue tornou-se um problema de saúde pública mundial. Apesar dos esforços do poder público, que emprega métodos de controle, em especial o químico e mecânico, as iniciativas mostram-se, ainda assim, insuficientes. Na tentativa de reduzir os casos de dengue, um método alternativo consiste no uso de controle biológico do vetor transmissor por meio da bactéria Wolbachia. Em linhas gerais, esta técnica coloca em interação a população de mosquitos selvagens com mosquitos contaminados com a bactéria, visando encurtar a longevidade do inseto e alterar a sua fecundidade, tendo em vista que, sob certas condições, existe a possibilidade da população inteira de mosquitos selvagens contrair a bactéria. Pelo exposto, o objetivo geral do presente trabalho será analisar a dinâmica e propagação da Wolbachia em populações naturais do mosquito Aedes aegypti. Para tanto, a modelagem matemática será utilizada a fim de descrever a interação entre as populações infectadas e não-infectadas.
2019
Descrição
  • WILSON SALUSTIANO JUNIOR
  • Métodos Numéricos para Previsão em Sistemas Dinâmicos
  • Data: 13/12/2019
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Muitos comportamentos naturais e artificiais podem ser reproduzidos por sistemas dinâmicos descritos por equações diferenciais, cujas soluções formam séries temporais. Portanto, um problema importante é a determinação de qual o modelo matemático capaz de descrever o comportamento de um dado sistema dinâmico, assim como determinar os valores dos parâmetros que regem este modelo. A solução desse problema nos permite obter informações sobre a evolução do sistema e a determinação de seus possíveis estados futuros. Estas informações são especialmente importantes em sistemas de difícil previsão, como é o caso de sistemas complexos ou não-lineares, que possuem grande sensibilidade a condições iniciais. Para tentar reproduzir a dinâmica de sistemas cujas equações não são conhecidas, a principio estudaremos o sistema de Lorenz. Temos como objetivo mostrar que o conhecimento de séries temporais de dados oriundos de sistemas dinâmicos podem ser usadas para recuperar a dinâmica que origina o comportamento observado. Em seguida, usando esta dinâmica recuperada, abordaremos o problema da previsão do estado futuro. Desenvolvemos uma técnica de inteligência artificial utilizando funções polinomiais para calcular as velocidades de evolução das variáveis de estado do sistema, com o objetivo de recuperar sua dinâmica, para em seguida realizar a previsão. Veremos que o algoritmo é capaz de se adaptar ao sistema, com parâmetros flexíveis, extraídos a partir dos dados coletados em observações pregressas, mesmo quando estes dados estão contaminados por ruído observacional. Esperamos que o nosso método seja útil além de ciência básica, em várias aplicações, tais como fazer previsões de sistemas físicos, biológicos, financeiros, geográficos, meteorológicos, etc.
  • ROMULO DA SILVA LIMA
  • O MÉTODO DAS SOLUÇÕES FUNDAMENTAIS APLICADO À RECONSTRUÇÃO DE FONTES CONCENTRADAS PARA PROBLEMAS ELÍPTICOS
  • Data: 14/03/2019
  • Hora: 09:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O problema inverso estudado neste trabalho consiste em reconstruir uma fonte concentrada escrita por uma combinacao linear finita de cargas puntuais do tipo delta de Dirac, tendo como base informacoes observadas na fronteira do dominio. Como exemplo de aplicacoes, podemos citar: identificacao de hipocentros e epicentros de terremotos, conhecendo a priori os seus efeitos sobre a superficie da Terra; deteccao de monopolos e dipolos em magnetencefalografia e eletroencefalografia, auxiliando no diagnostico de disturbios cerebrais como tumores ou acidente vascular cerebral (AVC), por exemplo. Nesta dissertacao, o problema inverso da reconstrucao de fontes concentradas associado a operadores elipticos, como o operador de Laplace ou de Helmholtz, foi resolvido atraves de um problema de otimizacao. Em particular, o problema inverso foi reformulado como um problema de minimizacao de um funcional de forma a ser minimizado com relacao a um conjunto de fontes admissiveis. O Metodo das Solucoes Fundamentais (MSF) foi utilizado para resolver os problemas diretos auxiliares provenientes da reformulacao do problema inverso, tendo em vista todas as vantagens deste metodo numerico sem malha, em comparacao com tecnicas de discretizacao do dominio, como o Metodo das Diferencas Finitas (MDF) e o Metodo dos Elementos Finitos (MEF), por exemplo. Alem disso, o MSF foi utilizado para representar as cargas puntuais que compoe a fonte concentrada, eliminando o ruido que e caracteristico quando se usa discretizacao do dominio no algoritmo de reconstrucao para a representacao de fontes concentradas. Com os resultados numericos obtidos, foi possivel comprovar a eficiencia, eficacia e robustez do algoritmo de reconstrucao proposto, mesmo considerando-se dados contaminados por ruidos.
  • RITA DE CASSIA JERONIMO DA SILVA
  • DIAGRAMA DE VORONOI PARA DOIS PONTOS COM UM OBSTÁCULO CIRCULAR
  • Data: 18/02/2019
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho, inicialmente apresentamos uma estrutura de dados geometrica de grande importancia na solucao de problemas de proximidade denominada diagrama de Voronoi. Atraves de um conjunto de pontos geradores no plano, analisamos como se da a sua construcao sem a presenca de obstaculos entre estes pontos, apresentando suas propriedades e algumas caracteristicas importantes. Em seguida, analisamos quais as consequencias causadas em tal estrutura quando inserimos obstaculos entre seus pontos geradores. Primeiramente, observamos esta situacao considerando obstaculos poligonais. E finalizamos determinando a fronteira deste diagrama quando consideramos dois pontos geradores e um obstaculo circular.
  • MARLOS ANTONIO PINHEIRO ROLIM
  • MODELAGEM BIDIMENSIONAL DA DINÂMICA E ESPALHAMENTO DE MOSQUITOS SELVAGENS E TRANSGÊNICOS
  • Data: 08/02/2019
  • Hora: 11:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho, apresentamos a modelagem da dinamica da interacao entre populacoes de mosquitos selvagens e transgenicos e seu espalhamento em um dominio espacial bidimensional. Para isso, as subpopulacoes sao classificadas de acordo com a sua zigosidade: selvagens, transgenicos heterozigotos e transgenicos homozigotos, que interagem por meio de acasalamento e competicao por recursos. As linhagens obtidas do acasalamento entre essas tres variedades estao de acordo com a genetica classica Mendeliana. Este modelo esta sendo representado por um sistema de equacoes diferenciais parciais do tipo reacao-difusao, onde o termo de reacao e fortemente nao-linear. Para resolve-lo numericamente, desacoplamos os operadores de difusao e reacao do sistema, atraves de uma tecnica de decomposicao de operadores sequencial, aplicamos o metodo dos elementos finitos na resolucao do sistema difusivo (exclusivamente espacial), e o metodo de Runge-Kutta de quarta ordem ao sistema associado a reacao. Algumas simulacoes numericas sao apresentadas mostrando a potencialidade da aplicacao do modelo.
2018
Descrição
  • ALINE COSTA DE MENESES
  • Transmissão de Malária baseada na Dinâmica da Interação entre Mosquitos Selvagens e Transgênicos usando a Genética Mendeliana e a Técnica de Reação em Cadeia Mutagênica
  • Data: 13/12/2018
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Recentes avancos na manipulacao genetica viabilizaram a obtencao de mosquitos refratarios a doencas, de forma que o transgene que bloqueia o ciclo do protozoario no mosquito se propague atraves dos descendentes. O estudo com os mosquitos transgenicos e uma alternativa promissora para a reducao da malaria, apesar disso, disseminar genes que controlem uma populacao de mosquitos selvagens tem sido um desafio ate os dias de hoje. Experiencias e avancos tecnologicos com a enzima CRISPR/cas9 atraves da tecnica de Reacao em Cadeia Mutagenica (MCR) tem trazido mudancas para este cenario. Nesse contexto, a busca por modelos matematicos que descrevam a dinamica da interacao entre populacoes de mosquitos que vivem em uma mesma area geografica tem sido viabilizada atraves de simulacoes e experimentos, verificando o comportamento das populacoes de mosquitos selvagens e transgenicos. Dessa forma, o objetivo deste trabalho e propor um modelo matematico diferencial nao-linear para descrever a dinamica de interacao dos mosquitos atraves do modelo θ-logistico, com base nas diferencas entre a genetica classica mendeliana e a tecnica MCR. Busca-se assim, resultados mais precisos da implementacao do gene mutante, visando a melhor metodologia para diminuir os indices de malaria com esta tecnica. Neste modelo sera utilizado o metodo Runge-Kutta de quarta ordem para a resolucao numerica aproximada das equacoes diferenciais utilizadas no modelo adotado. Os cenarios obtidos das simulacoes para diferentes valores de θ e f ilustram a pertinencia desse tipo de sistema para a modelagem proposta, fornecendo diretrizes sobre as diferencas entre o modelo genetico mendeliano e a tecnica MCR quanto a interacao entre as tres populacoes de mosquitos.
  • EVILASIO MACEDO FELIX
  • AGRUPAMENTO FUZZY NO ESPAÇO DE CARACTERÍSTICAS BASEADO NO KERNEL DE MAHALANOBIS COM DISTÂNCIAS QUADRÁTICAS ADAPTATIVAS
  • Data: 11/12/2018
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nesta dissertacao de mestrado, propomos metodos de agrupamento fuzzy no espaco de caracteristicas baseado no kernel de Mahalanobis com distancias quadraticas adaptativas, rotulados respectivamente por (MK-FCM-PFCV-FS, MK-FCM-PDFCV-FS, MK-FCM-FCV-FS e MK-FCM-DFCV-FS). Este estudo e uma extensao do trabalho desenvolvido em Silva, A. S. (2018). Os metodos propostos sao baseados no kernel de Mahalanobis a partir de distancias quadraticas adaptativas definidas por matrizes de covariancias simetricas positivas definidas. Estas matrizes de covariancias podem ser diagonais ou completas, comuns a todos os grupos ou diferentes para cada grupo, determinadas sob o enfoque de agrupamento no espaco de caracteristicas, que realiza um mapeamento de cada observacao por meio de uma funcao nao-linear e entao obtem os centroides dos grupos no espaco de recursos. Esta tecnica permite que ao passarmos para um espaco de mais alta dimensao (espaco de caracteristicas), um conjunto de observacoes no espaco de entrada nao-linearmente separavel torna-se separavel linearmente no espaco de caracteristicas. Os algoritmos propostos foram comparados com os diversos metodos de agrupamentos tradicionais conhecidos na literatura, como o fuzzy k-medias e suas versoes baseadas no kernel Gaussiano, como tambem os metodos desenvolvido por Silva, A. S. (2018). A avaliacao se deu atraves de experimentos numericos com dados simulados e reais. Os resultados corroboram a superioridade dos metodos propostos.
  • OLIVIA SOBREIRA GOMES
  • Animação e Otimização
  • Data: 31/08/2018
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O texto aborda um problema de perseguicao, comum em animacoes, do ponto de vista deterministico e do ponto de vista aleatorio. Uma abordagem que mescla otimizacao, obstaculos e modelos probabilisticos.
  • JAELSON DOS SANTOS OLIVEIRA
  • Modelo de Percolação Bidimensional com Dependência Local.
  • Data: 27/07/2018
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho se faz uma abordagem de como grafos planares podem estar ligados ao problema da percolacao. Portanto, estabelece-se uma relacao entre certos modelos fisicos com a simulacao computacional.
  • JOSÉ ALUISIO SILVA
  • Estudo da Minimização da Massa de Treliças Tridimensionais
  • Data: 20/07/2018
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As trelicas sao modelos estruturais simplificados de barras. A minimizacao das massas dessas trelicas e geralmente empregado em projetos de engenharia onde se busca por estruturas leves e resistentes. Neste trabalho estuda-se o problema de minimizacao da massa de trelicas tridimensionais, com restricoes de tensao. Para definir este problema, se apresentam os modelos matematicos de otimizacao e de estruturas trelicadas. E descrito o modelo de elementos finitos para trelicas e o modelo programacao nao linear para o problema de otimizacao. Para resolver o problema de otimizacao proposto emprega-se o Feasible Arc Interior Point Algorithm (FAIPA). Sao apresentados resultados numericos obtidos com o FAIPA para diferentes tipos de estruturas tridimensionais. As estruturas otimas calculadas com esta tecnica mostram a utilidade do problema resolvido neste trabalho: as estruturas otimas empregam menos material (sao mais baratas) e sao viaveis, pois verificam as restricoes de tensao de cada barra.
  • JOÃO PAULO CARAU DE OLIVEIRA
  • Aplicação de Eliminação Iterada de Estratégias Dominadas a Modelos de Competição entre Dois Jogadores.
  • Data: 18/06/2018
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Apresenta-se, nesta dissertacao o estudo e aplicacao de uma ferramenta retirada da Teoria dos Jogos chamada de eliminacao iterada de estrategias ou acoes estritamente dominadas (IESD). Utilizando a linguagem de programacao Python, este trabalho se concentra na construcao e aplicacao de um algoritmo baseado nesta ferramenta para resolucao de uma situacao hipotetica de conflito entre duas naves espaciais. A analise ocorre da perspectiva de um dos jogadores e diversos modelos de distribuicoes para qualificar como e escolhido um ganhador sao adotados e simulados. Para ganhar um dos jogadores deve realizar uma serie de escolhas de trajetorias para ser ganhador, e uma escolha errada significa sua destruicao. No geral a utilizacao de (IESD) se mostrou mais vantajosa que a escolha aleatoria.
  • CAMILA RAVENA DE OLIVEIRA
  • Agrupamento subtrativo baseado em kernel para dados simbólicos de natureza intervalar
  • Data: 23/05/2018
  • Hora: 09:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Tornou-se primordial a tarefa de sumarizar enormes conjuntos de dados em termos de seus conceitos subjacentes, afim de extrair deles novos conceitos. Uma alternativa para isso e representar os dados atraves de listas, intervalos, distribuicoes e afins. Estas representacoes sao exemplos de um tipo de dado denominado dado simbolico, que tem sido tratado principalmente pela Analise de Dados Simbolicos (ADS) - Symbolic Data Analysis (SDA). Metodos de agrupamento sao tecnicas de mineracao de dados multivariados que a partir de informacoes das variaveis de cada caso tem por objetivo agrupar automaticamente por aprendizado nao supervisionado os casos da base de dados em grupos. Yager e Filev (1994) desenvolveram o metodo de agrupamento de montanha, que estima os centroides dos grupos construindo e modicando a funcao de montanha em um espaco de grade e Chiu (1994) desenvolveu o metodo de agrupamento subtrativo, que calcula a funcao nos pontos de dados em vez de pontos de grade. Diversos metodos tem sido propostos, capazes de lidar com estrutura de dados complexa, dentre eles, metodos de agrupamento baseados em kernel. A essencia dos metodos baseados em kernel e a realizacao de uma mapeamento nao-linear arbitrario do espaco de entrada original para um espaco de alta dimensao. Neste trabalho sera proposto um metodo subtrativo baseado em kernel para dados simbolicos do tipo do intervalo, que e uma variante do metodo de agrupamento subtrativo baseado em kernel proposto por Kim et al. (2005).
  • JOSEVANDRO BARROS NASCIMENTO
  • Jogos Digitais e Probabilidades: Uma Possibilidade de Ensino Interdisciplinar.
  • Data: 09/05/2018
  • Hora: 12:30
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A presente pesquisa de mestrado fundamenta-se em pesquisas de educacao Matematica e Ciencias e modelagem matematica. Tinha como objetivo geral desenvolver jogos pedagogicos digitais para o ensino de probabilidade em uma perspectiva interdisciplinar com alunos do Ensino fundamental.
  • ALISSON DOS SANTOS SILVA
  • Agrupamento fuzzy baseado no kernel de Mahalanobis com distâncias quadráticas adaptativas
  • Data: 04/04/2018
  • Hora: 09:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nesta dissertacao de mestrado, propomos metodos de agrupamentos fuzzy baseado no Kernel de Mahalanobis com distancias quadraticas adaptativas definidas por matrizes de covariancias diagonais comuns a todos os grupos ou diferentes para cada grupo e matrizes de covariancia completas comuns a todos os grupos ou diferentes para cada grupo. Este kernel foi construido a partir de uma distancia quadratica adaptativa definida por uma matriz simetrica positiva-definida que e modificada a cada iteracao do algoritmo que tambem sera proposto. Os algoritmos propostos serao comparados com os diversos metodos de agrupamentos tradicionais conhecidos na literatura como o k-medias, o fuzzy k-medias e suas versoes baseadas no Kernel Gaussiano. A avaliacao sera feita atraves de experimentos numericos com dados simulados e reais.
  • CREYTON BORGES ROCHA
  • ESTUDO DA MAXIMIZAÇÃO DA FREQUÊNCIA DE TRELIÇAS COM MASSA NÃO ESTRUTURAL
  • Data: 28/02/2018
  • Hora: 11:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho se estuda a relacao entre a minima frequencia e a massa nao estrutural de estruturas mecanicas. Sao apresentados resultados teoricos desta relacao. Adicionalmente, se define o problema de maximizacao da menor frequencia de uma estrutura com restricoes de volume e complacencia e sua relacao com o problema de minimo volume com restricoes de frequencia e complacencia. O problema de maximizacao da frequencia e um problema de programacao semidefinida nao linear de dificil resolucao numerica. Por isto, para formular estas relacoes foram necessarias definicoes e resultados teoricos da programacao semidefinida. Com o objetivo para obter resultados numericos no estudo destas relacoes e para resolver os problemas de otimizacao, emprega-se o modelo de elementos finitos para estruturas trelicadas e emprega-se um algoritmo de pontos interiores para programacao nao linear semidefinida denominado FAIPA-SDP. Esta tecnica foi aplicada para os testes numericos apresentados, podendo-se comprovar todas as questoes teoricas e a solucao dos problemas de otimizacao apresentados neste trabalho.
  • ANDRE FRANCISCO COELHO CASTRO
  • Otimização de estruturas através de uma técnica de programação semidefinida de grande porte.
  • Data: 28/02/2018
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As tecnicas de programacao semidefinida, que permitem lidar com problemas de otimizacao sujeitos a restricoes matriciais, sao muito eficientes quando se trata de aplicacoes em otimizacao estrutural. Utilizando-se destas tecnicas, o presente trabalho apresenta um novo algoritmo numerico, pertencente a familia FDIPA-SDP-NL, capaz de resolver problemas estruturais de grande porte. Seu diferencial esta na formulacao de um novo sistema de Newton, cuja funcao e encontrar uma direcao que seja ao mesmo tempo de descida e viavel, com dimensoes bem reduzidas em relacao ao das versoes anteriores, o que facilita o seu armazenamento em memoria e torna possivel sua aplicacao em problemas que requerem um grande numero de elementos na discretizacao da estrutura. Com a finalidade de mostrar o desempenho deste algoritmo, apresentam-se resultados numericos de aplicacoes das tecnicas desenvolvidas em um problema classico de otimizacao estrutural: a maximizacao da frequencia natural de estruturas sujeito ao equilibrio de condicoes e restricoes de volume e energia de deformacao (complacencia).
  • JAIRO CARLOS DE OLIVEIRA QUINTANS
  • Metaestabilidade na cruz
  • Data: 23/02/2018
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • O trabalho descreve certo modelo da mecanica estatistica do ponto de vista computacional. Tal modelo e descrito por uma cadeia de Markov. O objetivo e de simular tal modelo um certo numero de vezes com o intuito de estimar as probabilidades dos possiveis estados que a cadeia pode convergir.
  • VANLEX GOMES GALDINO
  • Técnicas para estimação de expoentes de Lyapunov em sistemas dinâmicos não-lineares
  • Data: 16/01/2018
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • A estabilidade de trajetorias no espaco de fase de um sistema dinamico pode ser caracterizada com o uso dos expoentes caracteristicos de Lyapunov. Em situacoes simples, estes expoentes correspondem aos autovalores da equacao de movimento linearizada. Entretanto, para trajetorias complexas que aparecem em muitos sistemas nao lineares, particularmente na ocorrencia de caos, a determinacao e a propria conceituacao de estabilidade e dos valores destes expoentes e mais um elusivo, ao ponto de criar dificuldades tecnicas. Este trabalho faz uma revisao didatica apresentando e explicando os conceitos de estabilidade e dos expoentes de Lyapunov, discutindo sua aplicacao na caracterizacao de sistemas dinamicos nao-lineares e propoe um estudo sobre as tecnicas de calculo destes expoentes. Para ilustar este estudo, analisamos alguns sistemas especificos, de Lorenz e Rossler, e discorremos sobre as propriedades que podem ser inferidas a partir do estudo realizado.
2017
Descrição
  • LIGIANNE NASCIMENTO BARROS
  • Técnica de programação semidefinida por arco viável e aplicação à maximização da frequência natural de estruturas mecânicas.
  • Data: 28/07/2017
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho, apresenta-se o problema programacao semidefinida, suas aplicacoes e condicoes de otimalidade. Neste trabalho se propoe uma nova tecnica de pontos interiores com arcos viaveis para o problema, nao convexos de programacao semidefinida. O problema de maximizacao da frequencia natural de estruturas e apresentado. Este problema e reescrito como um problema de programacao semidefinida nao convexo. Sao apresentados alguns testes numericos que comprovam a eficacia da nova tecnica quando aplicados ao problema de maximizacao da frequencia natural de estruturas.
  • MOISES FILGUEIRA DE OLIVEIRA
  • ESTUDO DO COMPORTAMENTO ANTROPOFÍLICO DE MOSQUITOS SELVAGENS E TRANSGÊNICOS BASEADO EM UM MODELO DE REAÇÃO-DIFUSÃO-QUIMIOTAXIA
  • Data: 31/03/2017
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • As doencas transmitidas por mosquitos, como dengue, malaria, chikungunya, zika virus e febre amarela, tem sido tema relevante de estudos no meio academico- cientifico. Os numeros alarmantes relatados ano a ano no mundo colocam muitas dessas doencas em destaque. Tecnicas de manipulacao genetica, juntamente com metodos de prevencao, vacinas e medicamentos fornecem um conjunto de possi- bilidades que, se utilizadas de forma correta, podem reduzir consideravelmente a incidencia de muitas doencas. A avaliacao das medidas de prevencao e combate a doencas precisa ser feita, inicialmente, atraves de simulacoes de modelos matematicos e computacionais para posterior aplicacao pratica, a fim de garantir seguranca, economia e viabilidade. Neste trabalho, propomos um modelo descrito por um sistema de equacoes diferenciais do tipo reacao-difusao-quimiotaxia que descreve o espalhamento e a interacao entre mosquitos selvagens e transgenicos, onde a populacao transgenica tem capacidade reduzida de deteccao de CO2 , o que dificulta sua orientacao para o repasto sanguineo e, por consequencia reduz a taxa de picada em humanos. O modelo foi resolvido numericamente utilizando a tecnica de decomposicao de operadores sequencial, com a parte reativa do sistema resolvida pelo metodo Runge-kutta de quarta ordem e a parte difusiva-quimiotatica pelo metodo de Crank-Nicolson. As simulacoes numericas obtidas atestaram a consistencia do modelo com as premissas adotadas. modelo matematico, mosquitos transgenicos, reacao-difusao- quimiotaxia, decomposicao de operadores
2016
Descrição
  • JOSENILDO SILVA DE LIMA
  • Modelagem da interação entre mosquitos selvagens e transgênicos
  • Data: 16/12/2016
  • Hora: 10:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nesse trabalho sera considerado um modelo matematico que descreve a interacao entre mosquitos selvagens e transgenicos, levando em conta a zigosidade. Esse modelo e descrito por um sistema de equacoes diferenciais do tipo reacao-difusao, cujo termo de reacao e nao-linear. A solucao numerica do modelo e obtido utilizando a tecnica de decomposicao de operadores, onde a parte reativa e resolvida pelo metodo Runge-kutta de quarta ordem e a parte difusiva pelo metodo de Galerkin.
  • NATANAILZA MARTINS ALVES
  • CONSTRUÇÃO E ANÁLISE DAS REDES DE COAUTORIA EM PROGRAMAS DE PÓS-GRADUAÇÃO EM MODELAGEM MATEMÁTICA SOB A ÓTICA DE REDES COMPLEXAS
  • Data: 29/11/2016
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Apresenta-se, nesta tese, um estudo sobre a difusao do conhecimento em modelagem matematica no Brasil. Para tanto, exploramos as redes de coautoria dos Programas de Pos-Graduacao em Modelagem Matematica, com perl de modelagem, cadastrados na Sociedade Brasileira de Matematica Aplicada e Computacional (SBMAC). Apresentamos uma breve revisao sobre teoria dos grafos, redes sociais e redes complexas, como conceitos basicos que constituem o alicerce teorico do trabalho presente. Em seguida, reproduzimos a construcao e analise de redes de coautoria em periodicos de educacao matematica, para fundamentar a viabilidade do trabalho. Finalmente, construimos e analisamos as redes de coautoria em programas de PosGraduacao em Modelagem Matematica, atraves da exploracao de dados academicos pelos curriculos Lattes, registrado no CNPq (orgao gorvenamental brasileiro).
  • MARIA REJANE CORREIA RAMOS
  • APLICAÇÕES DO MÉTODO DAS SOLUÇÕES FUNDAMENTAIS EM PROBLEMAS DE DIFUSÃO
  • Data: 28/11/2016
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Apresenta-se, nesta dissertacao, uma formulacao nova e geral para um modelo de difusao com retencao, recentemente introduzida por Bevilacqua et al., onde a equacao resultante e uma equacao diferencial parcial (PDE - partial dierential equation) de quarta ordem. Alem disso, o termo de retencao esta associado ao termo de ordem superior da PDE, podendo ser interpretado como uma pequena perturbacao singular de um fenomeno de difusao pura, levando-se em conta as diferentes ordens de grandeza nos respectivos parametros, como geralmente e observado nos dados experimentais. Esta abordagem possibilitou a proposta de uma expansao assintotica para a PDE de quarta ordem, onde obtemos tres termos acoplados (de difusao pura) mais um pequeno termo remanescente, que pode ser desprezado, permitindo aproximar a solucao numerica da difusao anomala espacial por um metodo de solucoes fundamentais do tipo Kansa (KMFS), considerando-se a solucao fundamental do operador de difusao. Em particular, neste trabalho serao apresentados alguns resultados numericos da aplicacao do MFS em problemas de difusao onde realizaremos uma analise de sensibilidade de seus parametros, o que nos auxiliara na discussao da viabilidade da metodologia ora proposta.
  • MOISÉS VIANA FELIPE DE OLIVEIRA
  • O Método das Soluções Fundamentais com Expansão em Multipolos
  • Data: 20/10/2016
  • Hora: 18:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho faremos uma resenha do estado da arte dos algoritmos propostos na literatura para o problema dos N-corpos, que tem como objetivo a reducao da complexidade computacional da simulacao da interacao entre N particulas. De fato, para um sistema com N particulas, cujas interacoes do tipo Coulomb ou gravitacionais, o custo computacional e da ordem de N^2, o que torna-se proibitivo para algumas aplicacoes de interesse onde N e grande, como encontrados na fisica de plasma, dinamica dos fluidos, dinamica Molecular, mecanica celeste, dentre outros. Em particular, vamos propor uma aplicacao do Metodo dos Multipolos rapidos na solucao do sistema algebrico gerado pelo metodo de solucoes fundamentais do tipo Kansa para a solucao numerica de equacoes diferenciais.
  • MARIA APARECIDA DE ANDRADE DA COSTA
  • Diagnósticos de Influência em Modelo de Regressão de Valor Extremo em Censura Tipo I
  • Data: 01/03/2016
  • Hora: 17:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho, analisaremos o problema de avaliar a influência de observações no modelo de regressão de valor extremo sob censura tipo I. Tal modelo é bastante importante no estudo de dados de tempo de vida. Primeiramente obtemos a função log-verossimilhança, a função escore e a matriz de informação de Fisher. Em seguida, discutimos alguns métodos de influência, tais como a influência global e a influência local. Na análise de influência local derivamos as expressões para curvaturas normais sob diferentes esquemas de perturbações. Finalizaremos obtendo um expressão de forma fechada para a alavancagem generalizada.
  • SUELENA DE SOUZA ROCHA
  • Correção De Viés Do Modelo De Gumbel Com Censura Tipo I E Tipo II
  • Data: 01/03/2016
  • Hora: 15:30
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Nesta dissertacao, utilizamos um modelo geral de regressao cuja variavel resposta segue distribuicao Gumbel. O modelo e geral, pois admite regressores tanto no parametro de locacao, quanto no parametro de escala. Alem disso, as relacoes entre os parametros e os regressores podem ser nao-lineares. Para tornar o trabalho mais abrangente, consideramos dois tipos de censura no modelo: censura tipo I e censura tipo II. Primeiramente, obtemos formulas explicitas, sob os dois tipos de censura, para a matriz de informacao de Fisher. Em seguida, obtemos os principais resultados desta dissertacao, a saber, aplicamos a metodologia de Cox e Snell (1969) para a obtencao de formulas explicitas para os vieses de primeira ordem dos estimadores de maxima verossimilhanca dos parametros de regressao do modelo. Ilustramos a utilidade das formulas atraves de simulacoes de Monte Carlo.
  • VICTOR JOSÉ ARAUJO DE CARVALHO
  • Análise de Influência para o Modelo de Regressão de Valor Extremo sob Censura do Tipo II
  • Data: 01/03/2016
  • Hora: 14:00
  • Visualizar Dissertação/Tese   Mostrar Resumo
  • Neste trabalho, analisaremos o problema de avaliar a Influencia de observacoes no Modelo de Regressao de Valor Extremo sob Censura tipo II. Tal modelo e bastante importante no estudo de dados de tempo de vida. Primeiramente obteremos a funcao log-verossimilhanca, a funcao escore e a matriz de informacao. Em seguida discutiremos alguns metodos de influencia, tais como a influencia global e a influencia local. Na analise de influencia local derivaremos as expressoes para curvaturas normais sob diferentes esquemas de perturbacoes. Finalizaremos obtendo um expressao de forma fechada para a alavancagem generalizada.