PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA (PPGI)

UNIVERSIDADE FEDERAL DA PARAÍBA

Phone
Not informed

Dissertations/Thesis


Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPB

2024
Description
  • ANA CLARA CHAVES SOUSA
  • Retail Cosmetics Demand Forecast Using Machine Learning
  • Advisor : THAIS GAUDENCIO DO REGO
  • Date: Feb 28, 2024
  • Time: 10:00
  • Show Summary
  • Data-driven decision-making has been made easier due to the high availability of data and the increased processing capacity of computers. To assist in decision making, it is possible to extract information from data through Data Science. An example in which there is great applicability of this science in companies is demand forecasting within the Supply Chain Management area. Predicting sales volume is not a trivial task and, in addition, inaccuracies in this forecast can cause stockouts or affect management. In this study, sales forecasts for two different sales channels will be made using Machine Learning algorithms for a brand from a large company. This company is located in the Toiletries, Perfumery, and Cosmetics market, where Brazil is the fourth largest consumer market in the world. Data from the years 2018 to 2023 of sales that occurred in all Brazilian states were used. The forecasts were made in three different time horizons, namely: short-term (next period), medium-term (approximately 3 months ahead), and long-term (about 7 months ahead). Therefore, the consistency of the Machine Learning models was also evaluated. The algorithms analyzed in this study were: CatBoost, LightGBM, XGBoost, and Prophet. Firstly, the mentioned Gradient Boosting methods were compared to identify which of the three methods indicated greater stability when predicting multiple horizons. XGBoost had the smallest forecast errors for the Store channel across all three horizons (10% for the short term, 2.12% for the medium term and 6.4% for the long term). For the Direct Sales channel, XGBoost did not have the lowest WAPE across all horizons, but it had more stability compared to CatBoost and LightGBM. Next, XGBoost was compared with a time series method, Prophet. Comparing the two models in different scenarios, it was concluded that Prophet presented more satisfactory results and greater stability in forecasting multiple time horizons.
  • RENAN PAIVA OLIVEIRA COSTA
  • An Investigation into the Applicability of Transformers Networks in the Context of Machine Translation into Brazilian Sign Language
  • Advisor : TIAGO MARITAN UGULINO DE ARAUJO
  • Date: Feb 28, 2024
  • Time: 09:00
  • Show Summary
  • Significant segments of the world population, including the deaf community, can not fully benefit from Neural Machine Translation (NMT) resources due to various challenges developers faced when building such systems for low-resource languages. Some recent research in Natural Language Processing (NLP) with low resources focuses on creating new linguistic mechanisms and benchmarks. At the same time, another approach aim to customize existing NMT solutions for new languages and domains. Additionally, recent NLP models may apply to low-resource languages and domains without limitations. Some works investigate whether new NMT techniques can also be generalized to different resources regarding data availability and computational resources. In this context, the general objective of this study is to explore Transformer models and analyze their potential applicability in low-resource contexts, which is the case for sign languages. We identified that transformer-based solutions are state-of-the-art for most NLP problems, becoming a new industry standard for various practical problems. For a better evaluation, we adapted and used some promising identified current Transformer models in the machine translation component of the VLibras Suite, and the obtained results were compared with those currently provided by the current LightConv architecture. The first set of experiments evaluated whether such adaptation could also be applied in machine translation from Brazilian Portuguese into Libras. The results indicate that adopting one of the two top-performing architectures (Vanilla Transformer or ByT5) would help increase the accuracy and quality of the translation component of the VLibras Suite, with a maximum percentage increase of up to 12.73% considering the BLEU metric. Through prospecting and evaluation of evident models, considering that the candidate model selection process had a broader search space, a more in-depth study was conducted to try to optimize one of the top-performing models, the Vanilla Transformer. In the second phase of experimentation, a random search and a sweep of relevant hyperparameters were conducted, considering the following hyperparameters in the search space: bpe tokens, warmup updates, relu dropout, attention dropout, dropout, augmentation, and learning rate, which indicated that the first three accounted for approximately 80% of the model’s prediction capacity. The average results obtained for the BLEU metric using the reconfigured Vanilla Transformer model with optimized hyperparameters, the performance was superior by approximately 17,45% compared to the average of the reference model, and 8,95% better than the average achieved by the top-ranked model in the exploration phase, ByT5, which indicates a good potential for the hyperparameter configuration refinement strategy.
  • RENAN MOREIRA DA SILVA
  • Fault Injection and Reliability Analysis in Time-Sensitive Networks
  • Advisor : VIVEK NIGAM
  • Date: Feb 26, 2024
  • Time: 09:00
  • Show Summary
  • Time-sensitive networking (TSN) provides high-performance deterministic communication using time scheduling. In theory, the rigor of a TSN schedule is the key to achieving deterministic communication; However, real devices are prone to errors. TSN-based applications require fault tolerance and end-to-end latency assurance.In this work we identified the limitations of the TSN scaling method, improving the NeSTiNg simulation model to allow fault injection. Fault injection is done by introducing new components, and modules to emulate permanent, transient and intermittent faults with the aid of probability distributions. We evaluated the effectiveness of the injection-failure by comparing the latency and jitter results with those expected by the TSNsched programming generator.In addition, we also present a technique to increase network reliability in faulty scenarios.
  • MATHEUS LIRA SARTOR
  • Fault Detection in Generating Units of Hydroelectric Power Plants Using DCT and Bootstrap Simulations
  • Advisor : LEANDRO CARLOS DE SOUZA
  • Date: Feb 20, 2024
  • Time: 15:00
  • Show Summary
  • Detecting failures in generating units is a topic of utmost importance for maintenance in hydroelectric plants, as anticipating failures can mean avoiding losses in energy supply to the national system as well as possible savings with the prevention of corrective actions or replacement of components. The main challenge for failure detection is that not every anomaly in the data necessarily indicates a failure, so it is necessary that the model to be used in question is capable of detecting characteristics intrinsic to the data and detects an anomaly only when there is a certain signature of failure. failure. Thinking about solving this problem, the DCT-Bootstrap model was developed and tested in the real scenario of a plant and on a set of reference data, having managed to outperform state-of-the-art reference models in both situations. This work then introduces a new powerful model that can be used in tasks related to fault detection in different scopes.
  • LUCAS DA SILVA CRUZ
  • Implementation of Zero Trust Environment for Industrial Networks: Challenges and Industrial Control Systems Application Solutions
  • Advisor : IGUATEMI EDUARDO DA FONSECA
  • Date: Jan 31, 2024
  • Time: 09:00
  • Show Summary
  • The use of applications to collect and manage data acquisition, in particular, control, supervision and data acquisition (SCADA) systems, made it possible to manage equipment for the new industry. Remote access to manage stations is a reality that converges its applicability to industrial use and with the movement to bring information technologies closer to operational technology, which has enabled the increase of the network network and together the possibility of new vulnerabilities to be corrected. Adopting security models to mitigate events caused by new vulnerabilities are being adopted. This paper presents an evaluation of the impact on network performance when adopting a certain Zero Trust-oriented security paradigm in industrial plants. The proposal aims to map possible occurrences of events that impact communication between client, server, SCADA applications, when adopting new policies. As the initial test scenario, it was chosen an industrial network operating with the MODBUS TCP/IP protocol and under rules of the Zero Trust paradigm. Metrics such as latency, jitter and network flow were chosen as ways to evaluate the performance of the investigated network scenarios. The preliminary results suggest that, although Zero Trust enables a control in which domain boundaries become the data, transactions on the network negatively influence response time and computational resource consumption, leading to managers the need to create environments that simulate their industrial spaces to evaluate the use of security models on an industrial scale.
  • ARIANE MARINA DE ALBUQUERQUE TEIXEIRA
  • Dynamic Monitoring of Water Volume in Reservoirs Using Satellite Images and Convolutional Neural Networks
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Jan 30, 2024
  • Time: 16:30
  • Show Summary
  • Image-based monitoring techniques have been applied to track water volumes in regions prone to recurrent and severe droughts, such as the northeast of Brazil. The main objective of this work is to present a framework that leverages deep learning and multispectral images to monitor reservoir water volumes in Paraíba, Brazil. A Fully Convolutional Neural Network (FCN) was used to extract the surface area of water bodies. The network was constructed using the U-Net model and achieved an accuracy of 95%, measured by the Intersection over Union (IoU) metric on the test set. Multispectral satellite images spanning from mid-2018 to 2023 were employed to create the reservoirs' time series. The results highlighted significant variations in the water segmentation model performance across different reservoirs. While some, such as Argemiro de Figueiredo and Engenheiro Ávidos, showed promising results, others, like Marés and Gramame/Mamuaba, presented considerable challenges. These analyses allowed for the assessment of the model's effectiveness and the methodology used for reservoir monitoring, identifying peculiarities and factors that can affect the accuracy of estimates. Among these factors are the presence of clouds, the spatial resolution of satellite images, and the geographical location of the reservoirs.
2023
Description
  • ANDERSON MARINHO PONTES DE BARROS
  • A PROPOSAL TO ENABLE THE RELATIONSHIP BETWEEN THE FINANCIER AND THE PROVIDER OF ENVIRONMENTAL SERVICES THROUGH BLOCKCHAIN ORACLES
  • Advisor : GUIDO LEMOS DE SOUZA FILHO
  • Date: Dec 29, 2023
  • Time: 16:00
  • Show Summary
  • The need for greater transparency and reliability in the stages of investment and administration of project resources motivates the adoption of technologies that allow the use and application of these resources to be monitored transparently and auditable manner, and ensure that these resources are released and used by organizations and and environmental service providers in a responsible and correct manner. This paper proposes a solution using the concept of blockchain oracles, which enables the operation of Standing Forest Coin (SFC) smart contracts, a currency that enables the decentralized collection of funds for initiatives and activities aimed at protecting the Brazilian Amazon ecosystem. Using blockchain technology, oracle-based smart contracts will be able to guarantee the credibility and security for the financial resources of investors and donors invested in projects within the Standing Forest Coin (SFC - Standforest.org). The proposal will be evaluated experiments to analyze the impact of the projected solution on the relationship between the on the relationship between the financier and the provider of environmental services.
  • ANTONIO TEIXEIRA NETO
  • COST-EFECTIVENESS ANALYSIS FOR DECISION SUPPORT IN HEALTH: NEPHROLOGY CASE USING DECISION TREE
  • Advisor : NATASHA CORREIA QUEIROZ LINO
  • Date: Dec 14, 2023
  • Time: 10:00
  • Show Summary
  • This study aims to improve health decision-making by analyzing the cost-effectiveness of treatments for Chronic Kidney Disease (CKD) in the Hospital Information System (SIH) of the Unified Health System (SUS), using a tree-based approach of decision. The research included a systematic review using the PRISMA methodology, cost-effectiveness analysis and the construction of a decision tree model. The literature review revealed advances in the application of machine learning, combined with economic theories, to support healthcare decisions. This review served as the basis for the development of a method for building the decision tree model presented in this dissertation. CKD is responsible for approximately 1.2 million deaths annually worldwide, causing high costs and a significant reduction in patients’ quality of life. Early diagnosis is crucial to prevent and delay its effects. It is estimated that the error rate in diagnoses varies between 10 and 15%, highlighting the importance of healthcare decision support technologies to optimize resources and improve patients’ quality of life. The cost-effectiveness analysis indicates that the treatment of CKD has an average effective cost of R$1,964.84, while kidney transplantation from a deceased donor has the highest effective cost, R$44,269.83. The estimated decision tree demonstrates an accuracy of 90%, revealing that age group, especially if the patient is 65 years old or older, is the most influential attribute on treatment results.
  • JOSÉ LEOBERTO SOARES FILHO
  • Accessible Videoconferencing for the Hearing Impaired with Automatic Libras Avatar
  • Advisor : GUIDO LEMOS DE SOUZA FILHO
  • Date: Aug 31, 2023
  • Time: 14:00
  • Show Summary
  • Considering the increased use of synchronous conferencing in people's daily activities, the most diverse adversities have arisen or been aggravated. The lack of accessibility for people with some kind of hearing impairment is one of the most notable challenges, since this section of society, according to the census conducted by the Brazilian Institute of Geography and Statistics (IBGE) in 2010, represents approximately 9.7 million people with some kind of hearing impairment. There are several laws guaranteeing access to information for deaf people, but professionals trained in translating into Libras are still in short supply. With this in mind, this paper proposes the insertion of a Libras Avatar to translate Portuguese oral language into Libras sign language, while also adding the functionality of automatic subtitles within the Video For Health (V4H) tool.
  • JOÃO RAFAEL CHAVES DE ARAÚJO SILVA
  • Prioritizing usability criteria for Digital Resources for Users with Autism through Crowdsourcing
  • Advisor : TIAGO MARITAN UGULINO DE ARAUJO
  • Date: Aug 30, 2023
  • Time: 14:00
  • Show Summary
  • Autism Spectrum Disorder (ASD) is a neurodevelopmental disorder that affects the communication, social interaction and personal interests of its sufferers. The use of digital resources has become a popular alternative to improve the quality of life of people with autism, however, designing and developing these resources, as well as ensuring their quality, can be a challenge for stakeholders. In this context, there are usability-driven development guides available for consultation. However, the number of guidelines, the concepts involved and their breadth of application make the use of these guides laborious. To solve this problem, this work proposes to define different levels of importance of usability criteria for digital resources aimed at people with ASD. For this, the AutismGuide (a guide for the development of digital tools aimed at people with ASD) were the target of a study that used crowdsourcing in order to define different levels of importance for their criteria. The aim is to obtain the most important criteria for different categories and contexts of use, making it possible to consult and use a reduced number of criteria. This will contribute to making the use and application of the guidelines more practical in the development and evaluation processes of digital resources aimed at people with ASD, promoting the design of better and more accessible digital resources.
  • GABRIEL MEDEIROS DO NASCIMENTO
  • DO A PIX! Balancing control and generativity in a national payment system
  • Date: Aug 23, 2023
  • Time: 09:00
  • Show Summary
  • Generativity is an essential characteristic for digital platforms. It is the platform's ability to have its content guided and programmed by third parties who are not guided and spontaneously involved with the system. The opposite movement, of limitation of this creative activity, is called control. This research answered the question: how does the Central Bank, owner of Pix, control generativity in the famous national platform for Brazilian payments? Based on this question, the specific objectives were to identify ways in which the Central Bank guides generativity on the platform, as well as listing generative opportunities on Pix and how these relate to possible control strategies applied by the Central Bank on Pix. For this, an exploratory and qualitative research methodology was adopted. The primary sources were academic articles, technical documentation, rules and regulations. As secondary sources, we had reports and materials from communication vehicles and journalism. Based on analyzes of Pix's technical manuals regarding Security, Interfaces, and domains as such, we sought to identify the balance strategy between control and generativity employed by the Central Bank in managing Pix. The use of a hybrid methodology was identified to balance control and generativity, in the "domain-structural" aspect. That is, the Central Bank modulates the quality of generativity depending on the domain of the platform and the type of third party involved, whether user or partner financial institution.
  • ARTHUR JOSÉ LOPES DA SILVA
  • Automatic Detection and Analysis of Vertical Displacement of the Hyoid Bone in your Maximum Width in Exams Ultrasonography of Swallowing
  • Advisor : THAIS GAUDENCIO DO REGO
  • Date: Jul 31, 2023
  • Time: 16:30
  • Show Summary
  • Located below the jaw, the hyoid bone is present in the upper part of the neck. It is the only bone that does not articulate with any of the other 205 in the human body, making only connections with surrounding muscles. It occupies an important position and participates in essential functions such as speech, swallowing, and breathing. During swallowing, the hyoid bone performs a movement, or more precisely, an elevation and a forward displacement. From this, to obtain a detailed view and enable the study of this movement, imaging tests such as videolaryngoscopy, videofluoroscopy, and ultrasound are performed, where the latter has the advantage of being a non-invasive, low-cost, safe, fast, and widely used in studies of the structures involved in swallowing. The study of the movement of the hyoid bone is of great importance because if the movement is compromised and not performed correctly, it can generate limitations for the individual and help in the appearance of diseases that compromise their routine. Such a study is usually carried out based on an analysis of bone displacement, where health professionals perform the analysis without tools that automate this process. Because it is a tiny bone (about 42.04 millimeters) and in motion, the quality of test results or diagnoses for the patient may be compromised. With that in mind, the present study aims to develop a tool using artificial intelligence, with deep learning methods, that can automatically detect and quantitatively analyze the vertical movement of the hyoid bone in swallowing ultrasound exams. Through videos of patients swallowing saliva, pasty liquid, and water, training was performed and detection using YOLO in the 7-tiny version. Once detected, the vertical displacement of the hyoid bone was calculated using data from the ultrasound examination and information resulting from the detection, such calculation focused on the maximum amplitude, that is, from rest to the maximum peak of the displacement. After that, all results were shown and evaluated according to precision and recall, obtaining values of 0.95 and 0.93 respectively, and also according to displacement calculation, where they were compared to other results in the literature. The present study showed good accuracy in detecting the movement of the hyoid bone and an approximation in relation to the calculation of vertical displacement compared to the literature.
  • DAVID PEREIRA GALVÃO JÚNIOR
  • Fraud Detection in Bidding Processes - An approach using intersection-based clustering.
  • Date: Jul 13, 2023
  • Time: 10:00
  • Show Summary
  • Bid rigging causes significant harm to the society and is subject of intense investigation by the authorities. Many of the previous works sought to identify a fraudulent bid through the analysis of the financial values of the proposals submitted by the participating companies. The present work proposes a clustering model of companies guided by the common participation in bids, from the formed groups, metrics are extracted with the purpose of quantifying how the joint participation of the companies overcomes the participation by chance, using these values as input for machine learning algorithms. The results demonstrate that the proposed metrics obtained a improvement of up to 9\% in the validation correlation, when compared to the metrics in the literature.
  • YURI DA COSTA GOUVEIA
  • Failure detection in BLDC motors through audio signals using Convolutional Neural Network and SAC-DM
  • Date: Jul 7, 2023
  • Time: 09:00
  • Show Summary
  • Unmanned aerial vehicles (UAVs), commonly called drones, have been increasingly used to aid human tasks, with many purposes. With the increase of its usage, failures become increasingly common, which can cause damage to human life, material damage, and environmental damage. With this knowledge, a methodology is proposed to identify balance failures in the propellers of BLDC motors used in UAVs. In this work, a non-invasive method is used, which acquires the audio signal emitted by the rotating motor, performs a pre-processing step in which the SAC-DM algorithm (Signal Analysis Based on Chaos Using Density of Maxima) is applied, and then the spectrogram of the pre-processed signals is obtained to apply in a convolutional neural network. To validate the methodology, an experiment was carried out to compare the results obtained, which does not have the step of applying the SAC-DM algorithm. Also, to validate, the result obtained is compared with the results of related works to conclude the benefit of using the SAC-DM. With the experiments carried out, the results of 71.43% accuracy in the classification of audio signals from a motor with an unbalanced propeller are obtained for the SAC-DM experiment. As for the experiment that does not use the SAC-DM, there is an accuracy of 98.21% of accuracy in the classification of these same signals.
  • JOSÉ MAURÍCIO FERNANDES MEDEIROS
  • Heuristic approaches for batch scheduling problem in parallel machines with tardiness penalties
  • Date: Jul 3, 2023
  • Time: 16:00
  • Show Summary
  • This work addresses the identical parallel batch machines scheduling problem subject to tardiness penalties, release dates, and job families. In this environment, jobs of the same family are partitioned into batches and each batch is assigned to a machine. The jobs are processed simultaneously and are subject to the release date and processing time of the batch to which they belong. The objective is to minimize the total weighted tardiness. To solve the problem, two metaheuristic algorithms are proposed, employing local search procedures with multiple neighborhood structures and perturbations mechanisms. Computational experiments are conducted on known instances, and the results are analyzed and compared with those obtained using other methods found in the literature.
  • JOSÉ MAURÍCIO FERNANDES MEDEIROS
  • Heuristic approaches for batch scheduling problem in parallel machines with tardiness penalties
  • Date: Jul 3, 2023
  • Time: 16:00
  • Show Summary
  • This work addresses the identical parallel batch machines scheduling problem subject to tardiness penalties, release dates, and job families. In this environment, jobs of the same family are partitioned into batches and each batch is assigned to a machine. The jobs are processed simultaneously and are subject to the release date and processing time of the batch to which they belong. The objective is to minimize the total weighted tardiness. To solve the problem, two metaheuristic algorithms are proposed, employing local search procedures with multiple neighborhood structures and perturbations mechanisms. Computational experiments are conducted on known instances, and the results are analyzed and compared with those obtained using other methods found in the literature.
  • FRANCISCO DE ASSIS COSTA DE ALBUQUERQUE JUNIOR
  • Mitigating the Coupling Problem Between SDN Switches During Denial of Service Attacks
  • Advisor : IGUATEMI EDUARDO DA FONSECA
  • Date: Apr 26, 2023
  • Time: 08:30
  • Show Summary
  • The architecture of a Software Defined Network (SDN - Software Defined Networking) has as its main characteristic to centralize network control in a single asset, which facilitates the implementation of protection techniques against various attack models, including denial of service attacks. (DoS - Denial of Service). However, when the SDN architecture itself is the attacker's target, the network becomes vulnerable. In this dissertation proposal, it is demonstrated that even two networks that do not have a direct connection between them can suffer the consequences of an attack due to the fact that they are using the same controller. In addition, this work proposes techniques to mitigate denial of service attacks that focus on exploiting security by coupling several switches to the same controller. For the demonstration we used a hard-to-detect attack known as Slow-Saturation, which is classified as a low-rate attack.
2022
Description
  • GLÁUCIO BEZERRA ROCHA
  • Approach to Optimization of the Process of Allocation of Police Vehicles using Criminal Occurrence Records to Support the Managerial Decision-Making Process in the Scope of Public Security
  • Date: Dec 2, 2022
  • Time: 14:00
  • Show Summary
  • Considering public security in Brazil as an area of great importance in today's society, being a critical sector in the Brazilian States because it is directly linked to the greatest legal good of the human being, life, in addition to heritage, makes it necessary to carry out a study that allows for mitigating the increase in crime through the use of police intelligence. In this scenario, science offers several methodologies and tools to assist in the solution and management of problems in this context, among them are Business Intelligence, Artificial Intelligence, Time Series, Location Problems, and Criminal Analysis. In an analysis carried out within the scope of public security in the State of Paraíba, one of the problems identified and brought to this work was the poor distribution of police vehicles throughout the geographic area of the cities, causing delays and inefficiencies when serving the population. Currently, police vehicles are distributed in fixed bases located in neighborhoods, where practically every neighborhood has some vehicles available to serve that area, and it is noticed that the allocation of these patrols does not consider some characteristics of the criminal phenomenon to define their locations, the example of a number of existing occurrences and distance from places with higher criminal incidence. In this way, it is possible to identify neighborhoods with a higher crime rate equipped with fewer vehicles at the expense of neighborhoods with fewer incidents, resulting in an oversizing and/or under-sizing of resources and police apparatus. Considering the whole scenario of the problem presented, this work proposes a clustering process that will use the thousands of records of police occurrences, to later predict the number of crimes in these identified regions, and finally, through the location problem techniques (Problem of Location of Maximum Capacity Coverage) to propose places where ostensible police vehicles can be located to serve a greater part of the population, considering the shorter distance, time and service capacity, with acceptable minimum values.
  • ALINE MOURA ARAÚJO
  • DETECTION AND ZOOM IN OF OBJECTS IN VIDEO USING YOLO
  • Date: Oct 31, 2022
  • Time: 15:30
  • Show Summary
  • In mobile devices and cameras, the image magnification (zoom) functionality is increasingly present, however, it is still an innovation to use object detection to automate this task. Detection is a classic problem related to computer vision that deals with the location of instances of semantic objects in a specific class. In this sense, the objective of this work was to implement a system capable of performing the detection of objects automatically in video, evaluating its operation with acoustic guitar, electric guitar and microphone. After this detection, a new video was generated emphasizing the detected instrument, in order to facilitate the observation of its execution. For that, a system was developed that, using a YOLOv4 model, is able to identify objects and perform a procedure similar to a zoom in on the video. A pipeline was implemented, where the frames are first extracted, and then the detection of a parameterized object in an interval of 12 frames. After detection, the clipping is made following an interpolation methodology to deal with the fluidity of the video, and, finally, a new video is generated from these clippings. Tests were made with different parameters for extracting the frames, using videos retrieved from Youtube, evaluating 4 scenarios for extracting the images. In these tests, the performance of the detection model, the time taken for extraction and the percentage of information excluded in the output video in each scenario were evaluated. For the validation of this pipeline, a methodology was adopted, assuming that detection would work efficiently, to validate the heuristic implemented in the interpolation, the confidence of the model for the 4 extraction scenarios and the behavior of the system when dealing with occlusion problems in the video. . In the validation, a pre-trained model of the YOLOv4 open source neural network with 80 classes was used, performing the detection of arbitrary objects, with cat and dog being the chosen classes. In addition, a customized YOLOv4 model and the Imagenet base were also trained to be able to perform specific detection of musical instruments. Regarding the network results, although not the focus of this work, the average accuracy achieved by the model in the guitar, acoustic guitar and microphone classes was 61.90%, 87.94% and 62.27%, respectively. In the zoom in system, it was possible to notice that the better the extraction parameter, the greater the number of objects detected by the model, as well as the greater precision and quality of detection. There was a small loss of quality from the resolution of the original video, and there was no significant loss of video content due to frame gap in detection. Concluding the analysis of the results obtained, it is possible to affirm that the proposal of the work was successful, therefore, all the presented objectives were reached. For future work, we aim to test new detection models, implement new output video evaluation criteria and parallelize the pipeline steps.
  • ALEXANDRE MAGNO DA SILVA NUNES
  • Failure Diagnosis of Drones from Vibration Analysis in Real-Time based on Chaos using Density of Amplitude and Peaks Diagnóstico em Tempo Real de Falhas em Drones através das Análises de Sinais de Vibração Baseadas no Caos Usando Densidade e Amplitude de Máximos
  • Advisor : ALISSON VASCONCELOS DE BRITO
  • Date: Aug 31, 2022
  • Time: 14:00
  • Show Summary
  • The Unmanned Aerial Vehicle (UAV) has become popular over the years in various activities, whether commercial or recreational. However, drones still do not have complete confidence when it comes to safety. Therefore, there is a need to create fault identification techniques that fit the limitations found. This work aims to detect and diagnose drone failures in real time and proposes an architecture to identify mechanical failures. The approach proposed in the work uses chaos-based signal analysis techniques using maximum density (SAC-DM) and maximum amplitude (SAC-AM). To achieve the results, data were captured from a quadcopter drone and applied classification techniques and algorithms. With SAC-DM, performances of 91% were achieved and with SAC-AM 100%. It was also possible to validate the system by diagnosing faults in real time.
  • ANNIE ELISABETH BELTRÃO DE ANDRADE
  • MACHINE LEARNING APPROACH FOR PREDICTING VEGETABLE ANTIMICROBIAL PEPTIDE FAMILIES
  • Date: Aug 29, 2022
  • Time: 10:00
  • Show Summary
  • Plant antimicrobial peptides (AMPs) consist of molecules with 29 to 100 amino acids, generally positively charged and are found in a wide variety of life forms. Most AMPs have direct antipathogenic action, while others have immunomodulatory activity. In a context of rapid development of increasing multi-resistance to conventional antibiotics as well as the need to reduce the use of pesticides, efforts to develop biotechnological products based on AMPs have been accelerating. AMPs are known to have a specific sequence composition for their families, a characteristic that can be used to prospect and design AMPs, helping to characterize functions, biochemical patterns and characteristics of industrial interest. However, experimental approaches are costly and laborious. In this sense, the objective of this work was to develop models using supervised learning methods capable of classifying six families of plant antimicrobial peptides: Thionines, LTPs, Heveins, Snakines, Defensins and Cyclotides, since this characterization can accelerate research with AMP. The methods used for classification were LightGBM, logistic regression, nearest neighbors, decision tree, support vector machine and naive bayes. The training was done using the PhytAMP and PlantpepDB databases, whose labels were assigned by experimental methodologies. The results were compared with the CAMPSing systems and the one described in Quintans (2019), as well as tests were carried out with the model developed to classify the CAMPR3 databases, which includes the Thionine and Defensin families; and OneKP, used by Quintans (2019), which includes the Thionines, LTPs, Heveins and Snakinas families, both bases have labels assigned by in silico methodologies. Regarding the results, considering the training bases, the LightGBM algorithm presented the best performance values in relation to the others. After defining the best hyperparameters, LightGBM presented an average accuracy of 91.5%. In relation to the OneKP database, the method presented an average accuracy of 91.2%, with the prediction performance being variable between classes. Finally, for the CAMPR3 base, the model presented an average accuracy of 93%.
  • LUIZ FERNANDO FONSÊCA PINHEIRO DE LIMA
  • Using a Fairness-Utility Trade-off Metric to Systematically Benchmark Non-Generative Fair Adversarial Learning Strategies
  • Date: Aug 26, 2022
  • Time: 14:00
  • Show Summary
  • Artificial intelligence systems for decision making have become increasingly popular in several areas. However, it is possible to identify biased decisions in many applications, which have become a concern for the computer science, artificial intelligence and law communities. Therefore, researches are investigating solutions that attempt to mitigate bias and discrimination in decision makers. Some of the explored strategies are based on generative adversarial networks which generate fair data. Others are based on adversarial learning to achieve fairness in machine learning by encoding fairness constraints through an adversarial model. Many of these works consider the relationship between fairness and accuracy as an unbreakable trade-off rule. Moreover, it is usual for each proposal to assess its model with a specific metric, making the comparison of current approaches a complex task. Therefore, this work aims to propose a benchmark procedure to have a systematical method to assess the fair machine learning models. In this sense, we define the FUscore metric to evaluate the utility-fairness trade-off, the utility and fairness metrics, the used dataset and applied pre-processing, and the statistical test. We also performed this benchmark evaluation for the non-generative adversarial models. Through the achieved results we could analyze the literature models from the same metric perspective and observe which model performed better for each dataset.
  • RENNO DE ERVEDOSA DINIZ VALE
  • Smartphone app for production and video editing focusing on video coaching
  • Date: Aug 26, 2022
  • Time: 14:00
  • Show Summary
  • The behavioral parental training methodology is one of the most established methods of correcting inappropriate behavior in children. Used since the 70s, this treatment is considered the most effective among non-medicated and is often used as a means of prevention for families whose housing is surrounded by factors that would negatively affect the child’s development. The Fortalecendo La ̧cos program is part of this methodology and, through its systematization, prevents families in need of training from causing harm to the child’s social development. However, such treatment affects not only social factors, but also other aspects, such as school performance and creativity, so the program can be a major setback in an individual’s life. In addition to conventional learning techniques, the program uses the video coaching technique to assist learning and promote self-gratification for participants. However, the process of creating the video in the program is performed manually with the aid of software video editing, which slows down the performance of the program. The purpose of this work, then, is to solve this problem through the development of a mobile phone application that, through the quick choice of options through a simple interface, will perform the video editing process. In this way, this inconvenience will be minimized and the process of generating videos will be streamlined and facilitated, and consequently will benefit the program Fortalecendo La ̧cos.
  • RAFAEL MARANHÃO REGO PRAXEDES
  • A unified exact approach for a class of vehicle routing problems with simultaneous pickup and delivery
  • Date: Aug 19, 2022
  • Time: 15:00
  • Show Summary
  • The Vehicle Routing Problem (VRP) is a classical combinatorial optimization problem widely studied in the literature. By definition, it consists in determining least-cost routes, starting and ending at the depot, to meet the demands of a set of customers. There is a substantial number of variants of the problem, which might include additional attributes such as a heterogeneous fleet of vehicles, time windows, and so on. Among them, there is the VRP with Simultaneous Pickup and Delivery (VRPSPD), where customers have both pickup and delivery demands to be satisfied in a single visit. In this context, this work aims at proposing a unified exact approach based on column generation and cutting planes to solve ten VRPSPD variants including the classic version of the problem. This approach uses the VRPSolver, which is a state-of-the-art branch-cut-and-price solver for routing and similar problems The results show that the proposed approach is highly effective in obtaining the optimal solutions or improving the dual bounds for many open benchmark instances.
  • SANDOVAL VERISSIMO DE SOUSA NETO
  • Attack Detection in Facial Biometrics Using Convolutional Neural Networks
  • Date: Aug 17, 2022
  • Time: 10:00
  • Show Summary
  • With more services becoming available online by the day, biometric authentication methods such as fingerprints and faces are necessary to provide better security for the user. A person's face is one of it's most critical biometric features, mainly due to the easiness of use, and so it has been gaining much attention in the last years. However, as the use of authentication methods with facial biometrics increases, so does the amount of attack attempts on these systems. The incredible ease of use of facial biometry also comes with the shortcoming that social media makes it very easy to find photos and videos of someone and thus use its face to create attacks. Thus it is necessary a system that can detect if a person is real or if it is either a photo or video attack; these applications are known as Face-Anti-Spoofing systems. This work proposes a spoofing detection method using Convolutional neural networks. The experiments are made using four datasets widely known in the literature (NUAA, MSU, Replay Attack, OULU). Results with some models achieve less than 0,2% of equal error rate.
2021
Description
  • DIOGO VENTURA DANTAS
  • An Approach to Fingerprint Classification Using Deep Convolutional Neural Networks
  • Date: Jul 30, 2021
  • Time: 16:00
  • Show Summary
  • Society is increasingly integrated and connected and many of the most mundane tasks are performed remotely. This scenario had several benefits, but it also caused problems such as fraud and data leakage. The use of authentication mechanisms based on biometric traits, such as fingerprints, face and iris, has gained increasing relevance in the search for security. The fingerprint identification problem is not trivial and is still an open problem, especially with the emergence of artificial intelligence techniques, since no algorithm is error free and the growing mass of data generates a need for reliability and speed. This work proposes to use deep machine learning techniques to perform fingerprint classification, a process that can be used in a recognition system to speed up the search and reduce the amount of comparisons in the database. This filtering process helps to obtain a lower error rate and a higher speed in the identification process. Several approaches to solving this problem can be found in the literature, but most of them are dedicated to solving a simplification of the original problem, using four classes instead of the five originally defined classes. This approach is used in order to increase the accuracy rate of the method and reduce the complexity of the problem. In this work, it was found that it is possible to achieve results similar to those found in the literature using the broadest definition of the problem. The proposed method achieved a classification accuracy of 95.273% in the NIST-4 database.
  • KELSON VICTOR PRAXEDES DE ALMEIDA
  • A Data Bus Proposal for Digital Public Services Integration
  • Date: Jul 30, 2021
  • Time: 16:00
  • Show Summary
  • The use of technologies that aim to reduce the bureaucracy of public services is extremely necessary for societies around the world. Using artifacts and technological practices, it is possible to save money and work time. In a country of continental dimensions like Brazil, this challenge becomes even more complex, due to the large number of ministries, agencies, public companies, secretariats and others spread over more than 5570 municipalities and the Federal District. Analyzing these facts, the interoperability of data and information between the different Information Systems of these spheres is fundamental in the processing, validation and provision of services. This work proposes the use of a data exchange bus that aims to assist in the technological impulse of the Digital Government of Brazil, this interoperable layer can provide security, standardization, availability and reliability in e-gov communications. The proposal, called IO Data Bus, shows to be efficient through practical simulations using the context of the provision of Emergency Aid by the federal government. The experiments were carried out using the X-Road data exchange layer as a proof of concept, which provided the technological base of Estonia Digital, which led Estonia to be considered the most technological country in the provision of public services in the world.
  • DIEGO FILIPE SOUZA DE LIMA
  • Biometric Ear Recognition in 2D Digital Images Using Siamese Convolutional Neural Networks
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Jul 30, 2021
  • Time: 14:00
  • Show Summary
  • Society is increasingly integrated and connected and many of the most mundane tasks are performed remotely. This scenario had several benefits, but it also caused problems such as fraud and data leakage. The use of authentication mechanisms based on biometric traits, such as fingerprints, face and iris, has gained increasing relevance in the search for security. The fingerprint identification problem is not trivial and is still an open problem, especially with the emergence of artificial intelligence techniques, since no algorithm is error free and the growing mass of data generates a need for reliability and speed. This work proposes to use deep machine learning techniques to perform fingerprint classification, a process that can be used in a recognition system to speed up the search and reduce the amount of comparisons in the database. This filtering process helps to obtain a lower error rate and a higher speed in the identification process. Several approaches to solving this problem can be found in the literature, but most of them are dedicated to solving a simplification of the original problem, using four classes instead of the five originally defined classes. This approach is used in order to increase the accuracy rate of the method and reduce the complexity of the problem. In this work, it was found that it is possible to achieve results similar to those found in the literature using the broadest definition of the problem. The proposed method achieved a classification accuracy of 95.273% in the NIST-4 database.
  • ISABELA NASCIMENTO CAVACO
  • Knowledge-Based Explanations for Inductive Reasoning on mHealth Data
  • Advisor : CLAUIRTON DE ALBUQUERQUE SIEBRA
  • Date: Jul 30, 2021
  • Time: 14:00
  • Show Summary
  • While mobile (mHealth) applications provide a proper way to continuously assess data about the health conditions of their users, machine learning (ML) is the main technique used to process such data by means of inductive reasoning. However, ML algorithms do not usually give any explanation concerning the rationale of their produced outputs due to the black-box feature of such algorithms. This study analyzed 120 mHealth applications to create a unified ontology that represents the health condition of mobile users and can be used as background knowledge to generate explanations for inductive reasoning. The unified ontology involved several quality of life (QoL) dimensions (e.g. diet, physical activity, emotional, etc.), enabling the specification of a holistic process of reasoning that can improve the effectiveness of interventions. Therefore, the main contributions of this study are (1) the proposal of a strategy to create background knowledge for mHealth applications that support holistic reasoning and explanations regarding the results obtained by means of inductive reasoning, (2) evaluation of a description logics based approach to generate explanations using a simplified version of the ontology, and (3) discussions about important elements that can affect the readability and accuracy of explanations, such as the use of unnamed classes and configuration of the explanation algorithms.
  • ROBERTSON RICHELLE PESSOA LIMA
  • Resource Allocation in Fog Computing for Smart Hospital Environments
  • Advisor : FERNANDO MENEZES MATOS
  • Date: Jul 30, 2021
  • Time: 14:00
  • Show Summary
  • Due to the continuous development of sensors and applications intensified by the wide use of Internet of Things in the context of healthcare, it is essential that the issues of reliability and intelligent usage of resources are solved in order to improve the quality of medical services. These sensors handle directly with the user's health, so their operation is subjected to several restrictions, for example, a minimum response time to process the collected data. Fog Computing appeared to solve these problems related to the unpredictability of the traffic over the Internet, especially latency issues. Thus, this work proposes a Fog-based architecture capable of allocating computational resources entrusted to the processing of data collected by the IoT devices. Based on the classic bin packing problem, an optimization module was developed to effectively allocate processing requests on available machines, in order to maintain the hardware usage cost as low as possible, but respecting all usage restrictions imposed by each type of sensor The proposed module presents a satisfactory performance in obtaining the allocation, generating excellent solutions in less than 7 and 2.8 seconds on average, respectively, for each optimization step.
  • FRANKLIN ARTHUR MENDES VENCESLAU
  • SYSTEM FOR SUPPORT THE DEPLOYMENT AND MONITORING OF INTELLIGENT CAMPUS APPLICATIONS BASED ON IoT PROTOCOLS
  • Date: Jul 30, 2021
  • Time: 09:00
  • Show Summary
  • In recent years, there has been a marked growth in the concept of the Internet of Things (IoT) as an infrastructure to efficiently monitor and manage several environment. The modernization of production chains, especially industry 4.0, was decisive for the popularization of the so-called “intelligent monitoring systems”. However, until recently, IoT devices were limited by computing power, especially by factors such as limited bandwidth and unreliable communication. Based on this premise, this work proposes the conception of an architecture and a system for monitoring Intelligent Campus applications based on IoT protocols. This system aims at to support the implementation of new sensors and actuators, in addition to monitoring the performance of applications. The network architecture considered in this work provides reliability through the use of physical layer and link-level diversity techniques and performs information persistence based on time series. Through this system, information can be collected about the applications currently running and about the quality of the links and the level of wireless network overhead, in order to help in planning for the evolution of the network infrastructure and incorporation of new devices and applications. As a way of validating the proposed architecture, a system for monitoring and measuring electrical quantities will be implemented based on the exploration of several IoT protocols, in addition to the new IEEE 802.15.4g standard.
  • ALISSON YURY DUTRA DE MEDEIROS
  • Application of Social Techniques in SIoV Environments to Support the Dissemination of Emergency Events with Quality of Experience
  • Advisor : FERNANDO MENEZES MATOS
  • Date: Jul 29, 2021
  • Time: 15:00
  • Show Summary
  • The support and daily treatment of critical events simultaneously in cities are among the main challenges of urban centers. Competent authorities must be informed of the occurrence of events so that they can take appropriate action. For this, information from these events must be disseminated efficiently, for example, through a quick notification. Vehicular Ad Hoc Networks (VANETs) are a potential alternative to support the notification of arbitrary critical events due to the ubiquity of vehicles in cities. Vehicles with embedded cameras and sensors can detect events, disseminate the events (using Vehicle-to-Vehicle - V2V communication) and deliver this data (using Vehicle-to-Infrastructure - V2I communication) to an external entity responsible for handling the events. Although the dynamic nature of VANETs compromises the dissemination process, social relationships between vehicle users establish local communities whose social intelligence can be applied to the dissemination of data collected by VANET. Thus, this work proposes SOCIABLE (SOCial monItoring and dissemination of urBan criticaL Events), a robust data dissemination system for critical urban events, operating in a Social Internet of Vehicles (SIoV) network. SOCIABLE uses the relationships established between vehicles that have similar interests or routines to create local communities, in addition to using social techniques for an intelligent choice of relays. Thus, SOCIABLE performs a targeted dissemination (multicast) to deliver data more rapidly, thus increasing user satisfaction (QoE) and assisting in the event treatment. NS3 simulations proved the effectiveness and efficiency of SOCIABLE in carrying out the monitoring, dissemination, and delivery of data from events detected in different traffic contexts and using different social techniques.
  • LARRISSA DANTAS XAVIER DA SILVA
  • Evolution, deviations and tensions in the formation of an information infrastructure: Case study of the Integrated Management System of the Federal University of Rio Grande do Norte
  • Date: Jul 29, 2021
  • Time: 14:00
  • Show Summary
  • The objective of this research is to study, from the theoretical perspective of information infrastructures (II), the evolution, deviations and socio-technical tensions in the formation of the Integrated Management System (IMS) of the Federal University of Rio Grande do Norte, with significant use in the area of Brazilian higher education. The research is based on an exploratory qualitative strategy, using the case study as a method. The methods for data collection were three: collection of documents, interviews and questionnaires. For the stage of selection, analysis and interpretation of the data, a framework was developed that was based on the theoretical foundations of the II and its objective is to systematize the analysis of the results. The research was carried out at the Federal University of Rio Grande do Norte and at the Federal University of Paraíba. The arrival of IMS in the Brazilian higher education sector dynamically assists in the collaboration between the organization, teachers, students and civil servants, promoting speed in internal processes and decision making. As a result of this research, it will be possible to identify the process of how the evolution, the tensions and deviations suffered by the IMS took place, helping the development team and actors responsible for the organizational sector to consider what is being positive and negative in this process. It is concluded that the systems were the result of a succession of tensions and deviations, hence their emergent and continuous character. Such tensions and deviations were not limitations to its evolution. The IMS has been continuously built incrementally with each evaluation cycle and has the infrastructure role of articulating different communities of practice.
  • MARCOS HENRIQUE ALVES DA SILVA
  • An Approach to Incremental Learning of Neural Machine Translators from Portuguese to Libras Using a Collaborative and Dynamic Vocabulary
  • Advisor : TIAGO MARITAN UGULINO DE ARAUJO
  • Date: Jul 29, 2021
  • Time: 14:00
  • Show Summary
  • Deaf people communicate naturally using visuospatial languages, called sign langua- ges (LS). Although sign languages are recognized in many countries as a second official language, content is not always generated in an accessible way for this community. In order to minimize these impacts, research involving machine translation using Deep Learning is gaining more and more space in the literature. However, one of the main barriers to using this strategy is the need for a bilingual corpus, which is not always an easy task to find or produce, especially in languages that are constantly developing, which is the case of Brazilian Sign Language (Libras). In this context, this work presents a weight initialization heuristic with an incremental training approach, in other words, a training for each collaborative insertion in the corpus, in order to improve the translation performance of the new iteration. A case study was developed using the open source tools of the VLibras Suite. The proposed heuristic presented superior results in all the experiments performed in relation to its non-use, obtaining 39.60 as the best value in the BLEU metric. In addition to the results obtained, the study also contributes to filling a gap in the literature regarding research aimed at low-resource languages, such as Libras.
  • DANIEL FAGNER PEDROZA SANTOS
  • A Big Data Reference Data Architecture in the Domain of the Public Digital Bookkeeping System
  • Date: Jul 28, 2021
  • Time: 14:00
  • Show Summary
  • Big Data consists of a large volume of data and, therefore, requires special attention, such as the use of unconventional tools, which can store, process, and integrate all the information in a huge database. It is common these days, companies and organizations to adopt these technologies, as we live in the information age, and the volume of data grows exponentially. This also occurs in the accounting world, especially since 2007, when the Public Digital Bookkeeping System (SPED) was implemented in Brazil through the Federal Government, in private sector companies, and also in public government institutions, responsible for inspection and control of these activities such as municipal and state tax authorities and the Federal Revenue Service. Thus, the study compares the implementation of relational and document-oriented data models, through the use of PostgreSQL and MongoDB respectively, defining different data models to represent the NF-e database. The best results were obtained by the document-oriented data model, using MongoDB, considering the response time of queries in all evaluated operators.
  • THULIO GUILHERME SILVA DE AMORIM
  • An Approach For Micro Aerial Vehicles Swarm Self-Organized Flocking
  • Date: Jul 22, 2021
  • Time: 08:00
  • Show Summary
  • In this thesis, we address the problem of convergence and cohesiveness of an unmanned aerial vehicle (UAV) flocking. Thus, we propose a proximal control-based method for UAV self-organized flocking. Our method efficiently achieves flocking in the absence of alignment control and moves into an arbitrary direction without any direction control or informed robots. Robots use a Lennard-Jones potential function to maintain the cohesiveness of the flocking while avoiding collision within the teammates. Our approach can also be used in GNSS-denied environments as we also performed experiments with UAVs that rely only on a relative visual localization system called UVDAR, previously proposed by our group. We evaluate our approach using the order metric and the steady-state value that can be used as a cohesiveness indicator.
  • MATHEUS LIMA MOURA DE ARAUJO
  • An Accessible Videoconferencing Interface for People with Hearing Disabilities
  • Date: May 28, 2021
  • Time: 10:00
  • Show Summary
  • Sign languages (LS) are the natural form of communication between deaf people. However, although sign languages are recognized in many countries as a language, access to information and education is still a common problem for deaf people. In Brazil, despite the existence of several accessibility laws that determine support for deaf people, many are still dependent on Libras interpreters to communicate, which impairs their autonomy. As a result, there is a great difficulty for the deaf to exercise their citizenship and have access to quality information and education through sign languages, which generally implies linguistic delay and knowledge acquisition. In this sense, the present work addresses a proposal for an accessible interface of tele-education for the hearing impaired in order to facilitate access to information, making it possible to bring the figure of the remote interpreter to the classroom. This solution involves adapting the interface of the open source system textit Video for Health (V4H), making it possible for the remote interpreter to be present to meet the needs of deaf students and make the classroom experience more accessible. In addition, a solution for displaying live subtitles was also implemented. To evaluate the proposed solution, a set of experiments will be developed, including tests with deaf users.
  • RAFAEL ALEXANDRINO SPINDOLA DE SOUZA
  • An Anomaly Support System in Government Data Using Multiple Classifiers
  • Date: Apr 15, 2021
  • Time: 14:00
  • Show Summary
  • With increasing amounts of data to be analyzed and correctly interpreted, Anomaly Detection (or Outliers) appears as one of the areas of great impact in the context of Data Mining (MD). Its applications extend to the most diverse fields of human activity, notably in medicine, administration, process management, information science, physics, economics and many other activities. In this work, we propose a non-parametric system to support the detection of aberrant events in stationary databases, coming from the Public Administration and related to the Federal Government's Bidding Dispensation and Unenforceability Data between 2014 and 2019, to the Fund's Budgetary Data Municipal Health of João Pessoa - PB between 2016 to 2020 and Data relating to the Fleet Management of the State of Paraíba between 2017 to 2019. The proposed solution brings together multiple supervised and unsupervised detection algorithms (OCSVM, LOF, CBLOF, HBOS, KNN, Isolation Forest and Robust Covariance) to classify events as anomalies. The results showed that, of the total events returned by the solution, on average, 90.07% of them were correctly identified as outliers. Therefore, there are indications that the proposed solution has the potential to contribute to activities supporting government auditing, as well as to management and decision-making processes, these arising from the interpretation of the phenomena present in the data.
  • ÍTALO RENAN DA COSTA BARROS
  • ST-SPF & STMS: Two new Algorithms for Path Finding in Robotic Mobile Fullfillment Systems
  • Date: Mar 19, 2021
  • Time: 09:00
  • Show Summary
  • This work aims to propose two new algorithms, the Space-Time Swarm Path Finding (ST- SPF) and the Space-Time Multi-Start (STMS). The algorithms were tested in a simulator developed in the PyGame framework, with up to 250 agents in three different types of warehouses (instances) and two types of map representations: Grid-Based and Graph-Based. The results show that the ST-SPF is scalable in complex and populous maps, achieving up to 48% reduction in execution time when compared to the Conflict-based Search (CBS) art study algorithm, while the STMS presented an advantage to CBS since achieves more completeness in small and populous instances. Finally, it was also noted that the use of the Graph-Based representation has a high use of memory for complex instances (above 600 nodes), with the Grid-Based representation being the most efficient.
  • EDVALDO FRANCISCO DE MELO NETO
  • Forecast of Oil Production in Flow Units Hydraulic with Multiple Perceptron Neural Network Layers
  • Date: Feb 1, 2021
  • Time: 14:00
  • Show Summary
  • Identifying wells that return maximum oil production is a crucial point for reservoir planning and management, as drilling a well involves a lot of investment. Commercial reservoir simulators are able to predict production curves with high confidence, but in many cases they require a lot of time and computational effort. To overcome this difficulty, this work proposes a methodology based on the Multilayer Perceptron (MLP) neural network to predict cumulative oil production in reservoir wells that cross Hydraulic Flow Units (HFUs), which are volumes with good flowability. Each well was drilled vertically from points of maximum closeness within the HFUs. The database of this work, divided into training, validation and testing, was obtained from the UNISIM-I-D synthetic reservoir model, which has similar characteristics to the Namorado field, located in the Campos Basin, Brazil. The production results were presented from two perspectives: the original MLP and its post-processed version, in which both were compared with the oil production curves generated by the Computer Modelling Group Ltd (CMG) simulator. The performance was measured using the metrics: Root Mean Squared E (RMSE) and Mean Absolute Scaled Error (MASE), where the post-processed MLP overcame the results of its original version with an average of 0.0620 and 12.9053 for the RMSE and MASE, respectively, with respect to the test data.
  • FABRICIO LEITE SOARES
  • Strategy and Interaction Design Based on Grouping of Items for the Elicitation of New User Preferences in Information Systems Recommendation
  • Date: Feb 1, 2021
  • Time: 14:00
  • Show Summary
  • In order to provide tailored recommendations to a user, a Recommendation System makes use of a preference elicitation process whenever a new user is registered in the system. We propose that this task is best achieved not by the classic method, in which users first express their preferences for individual items, but instead by expressing preferences for groups of items, since the classic method inefficiently converts a user’s effort into a personalized pro- file. We tested this idea by developing and evaluating an interactive process, where users express preferences through groups of items that are automatically generated by clustering algorithms (clustering). This strategy of recommendation can be applied to any collabora- tive filtering based system. We assess our process, both with offline simulation methods, using the MovieLens data set; and with an online experiment with 312 users. Our evaluation reveals pros and cons associated with moving from preference elicitation per item to pref- erence elicitation per group. The user experiments showed that the top-N recommendations list generated by our proposal contains more itens which users may be interested than the classic method, and that a greater number of groups positively impacts prediction accuracy, at the expense of greater user effort. Furthermore, we have found that, in comparison with a baseline interface of 15 items, users are able to complete the preference elicitation process in less than half the time.
  • VINICIUS MATHEUS VERISSIMO DA SILVA
  • The Use of Emotions Analysis as Assistance in Machine Translation From Brazilian Portuguese Into Libras
  • Date: Jan 29, 2021
  • Time: 16:00
  • Show Summary
  • Across the world, the spread of information is predominantly directed towards oral languages, which harms a portion of the population, the deaf, whose main language is sign language. In this sense, Information and Communication Technologies have appeared to minimize this barrier, however there is still some criticism from this community regarding the use of these technological alternatives. Therefore, this study appears with the objective of helping automatic translators of content in oral language to sign language, through the use of a strategy of emotion analysis in texts, using machine learning, lling in a prototype of an automatic translator that brings more acceptability by that community. To this end, a neural network based on the MultiFit method for the classication of emotions in Brazilian Portuguese texts is built, trained from an existing database, which will be expanded through experiments involving data augmentation. In addition, the Sute VLibras automatic translator has been adapted to that the platform's 3D avatar acts with emotions in the translation through facial expressions. Although initial, to approach to do the emotion analysis presented an accuracy of 94.29%, much higher than the work that originated the database. Thus, the results are useful because they show that the adaptation of the automatic translator oers a starting point for the adaptation of other existing automatic translators. In addition to that, the study brings promising results, which lead to believe that the use of the prototype developed here may come to minimize the usual criticism by the deaf community when using automatic translators. In addition, the results found here also collaborate to ll the gap existing in the literature regarding research focused on low-resource languages, as is the case of Libras.
  • FILIPY GALIZA SOARES
  • An Approach Based on DLT to Fixity Assurance in Trusted Digital Repositories
  • Date: Jan 29, 2021
  • Time: 10:00
  • Show Summary
  • The increased ease provides by records in digital format also brings drawbacks, translated on the challenges of ensure the integrity and authenticity of these records continuously, knowing this format is very susceptible to flaws in any layers of one computational system. International organizations and standards draws recomendations about fixity to guide the Trustworthy Digital Repositories (TDRs) in yours missions of ensure the integrity and authenticity of the records kept there for the time it was defined (or indefinitely). The use of cryptography hash functions enables verify the data integrity and yours authenticity then. However, to trust in the integrity verified by a hash function also is needed trust in the hash value of reference, that eventually are susceptible to the same threats of whose data refers. Starting from this worry, this work proposes an approach in which must be made a chaining in Merkle Trees of the hashes from TDR's inumerous digital objects and the resulting root values may be registered in blockchain. The use of Merkle Trees enables the generation of a unique value that links the integrity of a large number of records and the register in blockchain ensure a reliable witness value over time for use in proof-of-timestamp, proof-of-existence and integrity check and audit of TDRs' digital heritage, enabling to ensure their fixity.
  • CAIO MARCELO CAMPOY GUEDES
  • Low Latency Audio Transmission over IEEE 802.11 Wireless Networks with Focus on Accessibility for Digital Cinema
  • Date: Jan 29, 2021
  • Time: 09:00
  • Show Summary
  • The transmission of audio reinforcement from a server to mobile phones used by the hearing impaired during the presentation of a film in cinemas is an example among applications that use Wi-Fi networks and require the transmission of audio with low latency, synchronism and resilience. In this application, it is meant that the delay between capturing and repro- ducing the audio stream lays below 40 ms, a requirement that focus on the optimization of encoding, transmission and decoding of the solution. This study aims to develop a client-server solution capable of transmitting audio in real time over IEEE 802.11 wireless networks between a server and clients running on mobile devices. The work seeks to limit the maximum latency between source and player to a threshold of 40 milliseconds defined as a threshold for the perception of lip sync. Maintaining low latency by avoiding variations in delay and packet loss in volatile environments such as wireless networks is a complex problem. Therefore, aiming for maximum resilience, the solution makes use of Forward Error Correction and proposes the use of temporal redundancy to mitigate the undesirable effects caused by the loss and discarding of delayed packages. Additionally, a new adaptive algorithm is proposed and used to adjust the buffer of playback in order to mitigate the network jitter.
  • CAMILLA EMILLY JÁCOME FERREIRA DE FIGUEIREDO
  • Implementation and Mitigation of Cyber Attacks in SCADA Systems
  • Advisor : IGUATEMI EDUARDO DA FONSECA
  • Date: Jan 28, 2021
  • Time: 09:30
  • Show Summary
  • Em construção
  • SACHA DE AZEVEDO VARANDAS
  • An analysis of techniques for capturing audience interactivity in movie theaters
  • Date: Jan 11, 2021
  • Time: 16:00
  • Show Summary
  • The addition of interactivity in narratives materialized in films made for exhibition in cinemas has been one of the great tools of media producers to offer an innovative experience and stand out among the countless works that are being produced. Interactive cinema allows audiences to influence or change elements of the film, so that their experience may be different from that of other people. Before the availability of digital technology, this was done manually, as in the case of Kino-automat, which allowed audience members to vote using the red and green buttons on their handrests. Thus, the objective of this work is to carry out a comparative analysis of forms of interactivity used in films made for exhibition in cinemas. For that, experiments were carried out and analyzed with users watching an interactive film interacting through a web application, making an interaction based on sound capture and also interaction captured on smartwatches.
2020
Description
  • DIEGO RAMON BEZERRA DA SILVA
  • A Multi-flow Architecture Based on Deep Learning for Libras Sign Recognition in the Health Context.
  • Date: Dec 22, 2020
  • Time: 16:00
  • Show Summary
  • Deaf people are a considerable part of the world population. However, although many countries adopt their sign language as an official language, there are linguistics barriers to accessing fundamental rights, especially access to health services. This situation has been the focus of some government policies that oblige essential service providers to provide sign language interpreters to assist deaf people. However, this type of solution has high operating costs, mainly to serve the entire deaf community in all environments. These setbacks motivate the investigation of methodologies and automated tools to support this type of problem. Thus, in this paper, we proposed a two-stream model for the recognition of the Brazilian Sign Language (Libras). The proposed solution does not use any additional capture sensor or hardware, being entirely base on images or sequences of images (videos). The results show that the best accuracy for the test set was 99.80%, considering a scenario where the interpreter used in the test set was not used in the training set. Besides, we also created a new dataset in the Brazilian sign language (Libras) containing 5000 videos of 50 signs in the health context, which may assist the development and research of other solutions.
  • LUCAS VALE FAUSTINO DA SILVA
  • Sirius: A Distributed and Partitioned Middleware Platform for Smart Cities
  • Advisor : GLEDSON ELIAS DA SILVEIRA
  • Date: Oct 30, 2020
  • Time: 15:00
  • Show Summary
  • The urban environment in a smart city has a large number of devices and technologies, making difficult to provide an integrated view of urban data, due to the large number of possible multiple providers. It is important that such urban data can be managed and accessed in an integrated way, enabling reuse and sharing of information, promoting the development of new applications and services and assisting in decision-making processes. Furthermore, in this scenario, data may be strongly related, requiring simple, efficient and effective integration between multiple sources or data providers. Thus, this dissertation describes the specification, design, implementation and testing of a distributed and partitioned middleware platform, whose objective is to provide an integrated view of urban data, exploring data partitioning and distribution strategies between multiple data providers in a smart cities’ scenario. In addition, this dissertation also contributes in the conception and definition of an extensible and reusable context data metamodel, which makes possible to adopt different data integration, partitioning and distribution strategies, establishing distinct alternatives for managing data providers or sources. Finally, a prototype implementation of the middleware platform is presented with the purpose of validating the proposal, including performance tests in order to evaluate the data integration, partitioning and distribution strategies under different workloads.
  • FREDERICO AUGUSTO MONTEIRO SARAIVA
  • Fault Tolerance in Wi-SUN / 802.15.4g Networks in Linear Topology through Dynamic Power Control
  • Date: Sep 30, 2020
  • Time: 14:00
  • Show Summary
  • The development of information technologies means that today we live in a connected world, in which pervasive computing is increasingly present in society. Thus, Wireless Sensor Networks (RSSF) are vital components in the construction of this connection infrastructure. Wi-SUN networks are a type of RSSF that implement the IEEE 802.15.4g standard and, by nature, support several topologies, including the linear one. In this way, they also carry with them the need for fault tolerance. Some uses of Wi-SUN networks require the transceivers to be connected in a linear fashion. On these occasions, the failure in any of the transceivers can cause extensive losses due to the break of the information path, since the linear form of interconnection does not offer alternative routes for traffic. In this sense, the present research has as main hypothesis to be followed that there is a need that the whole Wi-SUN network must be as resilient as possible. As a secondary hypothesis, there is the idea that a possible redundancy for a system arranged in a linear way is that the failure of a node can be mitigated by means of dynamic control of transmission power, in order to superimpose the defective node. and, with that, being able to pass on the information. This work aims to analyze how a Wi-SUN network can remain as operational as possible when the transceivers are arranged linearly and there is a failure in any of the nodes.
  • CECÍLIA FLÁVIA DA SILVA
  • Residual Networks: About Number of Layers and Intraclass Variance Using Unsupervised Learning
  • Advisor : THAIS GAUDENCIO DO REGO
  • Date: Jul 31, 2020
  • Time: 17:00
  • Show Summary
  • Deep Learning is a term that came up in the literature to originally define approaches to Deep Neural Networks (i.e. networks that have above two hidden layers). From this, different network architectures have been proposed in the literature and used as a reference for different applications, highlighting networks such as VGG-16, GoogLeNet and residual networks (ResNets). In this context, residual networks have a topology inspired by the VGG-16, thus using stacks of convolutional layers of 3 x 3 filters and, as a main contribution, form residual blocks through shortcut connections, with the objective of reducing model degradation problems. (ie increase in the model's error rate as the depth of the network increases). From this, ResNets of 20 to 1202 layers were proposed, however, the literature does not portray a pattern of use of these models according to a certain context. Therefore, this work had as an objective the realization of an agnostic study, which analyzes the performance of five residual networks, as well as the computational cost, for different databases. In all, 15 databases were used and the ResNet models 20, 32, 44, 56 and 110 layers were trained and evaluated for each one, with the performance of these networks being assessed using the F1 measure. Subsequently, a significance test was performed, using the Student's t-distribution, in which the F1 measure of each network was analyzed, to assess whether there was a significant performance improvement. with increasing depth. However, the experiments carried out indicated that, despite the computational cost increase proportional to the depth, there was no improvement in results. In addition, the intraclass variance characteristics for each class of the databases in this study were analyzed, using the k-means unsupervised learning algorithm, with the clusters formed by this algorithm being evaluated according to the silhouette coefficient. Through this analysis, it was noticed that, among the classes with the lowest F1 measure, for all the networks evaluated, at least one of the classes returned low diversity, thus indicating, as a solution, the improvement of the representativeness of the database to the instead of increasing the depth of the model. Therefore, training was carried out with ResNet-20, with the differential of adding different data augmentation techniques, in which, for all of them, the performance of the ResNet-20 network was superior to that of the other networks previously evaluated. Thus, through the analysis, it was noticed that the increase in depth of these networks results in high computational cost, which is also proportional to the number of samples in the database. However, this increase is not proportional to improvements in the results of the evaluated network models, resulting in measure F1 without significant variations, and the use of data augmentation techniques is more effective than the increase in the number of layers in the model.
  • TATIELLY DIAS DE FARIAS
  • Information infrastructure: A systematic mapping of the literature
  • Date: Jul 31, 2020
  • Time: 14:30
  • Show Summary
  • Introduction: Studies on information infrastructures (II) have gained space in everyday applications due to the massive amount of data from several geographically distributed areas that are shared among themselves, in order to support systems of an organization in which research on II provide a basis for using your concepts in applications. Objectives: From this context, this research aimed to present the most relevant works found in the literature on II as a way to understand such an area of ​​study and its fields of application. Methods: The research method adopted was a systematic mapping study, followed by a protocol as a guide to answer five research questions as a way to extract and synthesize primary studies relevant to the topic. Results: 876 potentially relevant primary studies were identified that contributed to the development of the information infrastructure. It was observed that most studies are applications that use II concepts in their formation. This research provides an information catalog of the studies selected from the application of the criteria assigned for inclusion or exclusion and which answered the research questions. Conclusion: This research showed that the interest on the information infrastructure has grown over the years, showing evidence that some of the studies that have applications reveal concepts as a result if their conception. For this reason, the catalog generated from the results obtained from studies that bring concepts and applications are an important resource to guide and serve as a starting point for future research and improvement of information infrastructures.
  • IGOR DE ALMEIDA MALHEIROS BARBOSA
  • A hybrid algorithm for the problem of routing dial-a-ride vehicles with heterogeneous fleet and multiple deposits
  • Date: Jul 30, 2020
  • Time: 16:30
  • Show Summary
  • Vehicle routing problems emerge in numerous practical situations in transportation logistics. Among them, one can highlight the transportation of people between source and destination locations, this problem is known as dial-a-ride problem (DARP). DARP consists of building minimum cost routes that meet collection and delivery requests, obeying capacity constraints, time windows, maximum route duration, and maximum travel time for customers. This work proposes a hybrid algorithm to solve variants of DARP with heterogeneous demand and fleet, in addition to vehicles that begin their routes in different deposits. The method combines the meta-heuristic iterated local search (ILS) with an exact procedure to solve the problem of partitioning sets. In addition, several mechanisms have been implemented to speed up local search procedures. Computational experiments were carried out in instances of the literature with the objective of evaluating several components of the algorithm. The results suggest that the proposed algorithm surpassed state-of-the-art methods producing high-quality solutions, including finding five new best solutions in competitive computational times.
  • LUANA SILVA REIS
  • Uma Metodologia Multinível de Avaliação da Qualidade da Tradução Gerada por Tradutores Automáticos para Libras
  • Date: Jul 30, 2020
  • Time: 14:00
  • Show Summary
  • A tradução ou intérpretação de conteúdos em língua de sinais possibilita que pessoas surdas possam ter um melhor acesso à informação, interação e socialização, funcionando como uma ferramenta de acessibilidade. Contudo, considerando a complexidade no processo de tradução entre línguas orais e línguas de sinais, essa tradução quando realizada de forma au- tomática pode não tratar adequadamente todas os aspectos gramaticais das línguas de sinais, como por exemplo: o tratamento de palavras homônimas, advérbios de negação, verbos direcionais, frases interrogativas, frases exclamativas, entre outros. O tratamento inadequado destes aspectos pode comprometer a compreensão do usuário à tradução apresentada pelos tradutores e consequentemente interferir na comunicação tornando inadequada a experiência do usuário surdo com essas ferramentas. Sendo assim, foi desenvolvida uma metodologia multi-nível para avaliar a qualidade da tradução de tradutores automáticos da Lingua Portuguesa Brasileira (PT-BR) para a Língua de Sinais Brasileira (Libras). A metodologia apresentada neste trabalho, propõe metodos de avaliação da qualidade de tradução de tradutores automáticos, com a participação de intérpretes em Libras, com a participação de pessoas surdas e sem a participação de usuários. As metodologias propostas foram avaliadas a partir de três estudos de caso com o VLibras, uma tradutor automáticos do PT-BR para a Libras. Como resultado, obsevaram-se fragilidades no tratamento de alguns aspectos gramaticais, o que foi possível identificar pontos de melhorias no processo de tradução. Estas metodologias, podem ser ser usadas por pesquisadores e desenvolvedores na área, para identificar pontos de melhoria no processo de tradução automática de lingua oral para uma língua de sinais.
  • FABIO DE ALBUQUERQUE SILVA
  • Uma Abordagem para Localização em Ambientes Internos baseada em Impressão Digital do sinal de Wi-Fi e Aprendizagem de Máquina
  • Date: Jul 29, 2020
  • Time: 14:30
  • Show Summary
  • Os serviços baseados em localização interna (Indoor Location Based Services – ILBS) vêm atraindo muita atenção nos últimos anos por causa de seu potencial social e comercial, com um valor estimado de mercado de US$ 10 bilhões em 2020. Como os sinais de satélite (GPS) e celular (GSM) não conseguem penetrar bem em ambientes internos, com paredes externas e obstáculos internos, o uso do sinal Wi-Fi, para localização interna, ganhou muita importância, tanto na área acadêmica quanto na área industrial, devido à grande penetração de LANs sem fio (WLANs) e dispositivos móveis habilitados para Wi-Fi. Em particular, a técnica baseada em impressão digital da intensidade do sinal recebido (Received Signal Strength fingerprint – RSS fingerprint) tem atraído muita atenção, por amenizar o problema de multipath (múltiplos caminhos percorridos pelo sinal entre o emissor e receptor) agravado pela existência de paredes e objetos em ambientes internos. Diante deste cenário, motivados pela busca de um ILBS eficiente e eficaz, propomos neste trabalho o uso combinado da impressão digital do Wi-Fi (RSS fingerprint) com algoritmos de Aprendizagem de Máquina, com o objetivo de identificar qual a abordagem mais adequada para localização em ambientes internos e uso racional de recursos em dispositivos móveis, considerando o erro médio de estimativa da localização próximo de 1 (um) metro. Ao contrário de outros trabalhos relacionados, que concentram esforços apenas em uma das fases do RSS fingerprint, nossa pesquisa buscou melhorias tanto na fase de construção do mapa de sinais do ambiente (fase offline) quanto na fase de localização do dispositivo móvel no ambiente interno (fase online). Neste sentido, foi realizado um projeto de experimentos com dois cenários (2D e 3D) e os resultados obtidos apresentaram erro médio mínimo de 2m no experimento 2D, com apenas 5 medições na fase offline, e 1,08m no experimento 3D, utilizando uma Rede Neural e informações da posição anterior na fase online de localização.
  • RENAN GOMES BARRETO
  • H-KaaS: Uma arquitetura de referência baseada em conhecimento como serviço para e-saúde
  • Date: Jul 29, 2020
  • Time: 14:00
  • Show Summary
  • Diante da necessidade de melhorar o acesso ao conhecimento e da criação de meios para o compartilhamento e organização de dados na área da saúde, este trabalho propõe uma arquitetura de referência baseada no paradigma de conhecimento como serviço, que poderá ser usada para auxiliar no diagnóstico e na tomada de decisão clínica. A arquitetura de referência descrita, chamada H-KaaS, oferece, de maneira centralizada, acesso a serviços baseados em ontologias, descoberta de conhecimento em banco de dados, aprendizagem de máquina e a outros meios de representação do conhecimento e raciocínio. Para tal, descreve-se detalhadamente o funcionamento da arquitetura, fornecendo exemplos de implementação, destacando seus principais componentes e interfaces de comunicação. Como forma de validação da pesquisa, dois estudos de caso em serviços baseados em conhecimento foram realizados e instanciados de acordo com a arquitetura de referência proposta, usando diferentes meios de representação e extração de conhecimento. Desta forma, o desenvolvimento desta pesquisa colaborou para o surgimento de uma arquitetura de referência no domínio da saúde, capaz de gerenciar múltiplas fontes de dados e modelos de conhecimento, facilitando e centralizando seu acesso e contribuindo, assim, para o avanço do estado da arte da informática em saúde.
  • RAFAEL FARIAS CORDEIRO
  • MADE - Método de Avaliação da Qualidade de Audiodescrição
  • Date: Jul 28, 2020
  • Time: 14:00
  • Show Summary
  • A audiodescrição (conhecida como AD) é uma faixa de áudio narrativa que auxilia as pessoas com deficiência visual na compreensão de conteúdos audiovisuais. O profissional responsável por gerar a AD é o audiodescritor. Este tem como tarefa transformar as informações visuais de vídeos ou apresentações em áudio para os espectadores. O processo de transformação exige tempo e possui um alto custo. Como suporte para estes profissionais, tendo em vista a redução de tempo e custo para realização das audiodescrições, sistemas automáticos geradores de audiodescrição têm sido desenvolvidos. Dito isto, o objetivo desta pesquisa consistiu em desenvolver um método para avaliar a qualidade de audiodescrição de filme seja ela gerada por humano ou máquina com intuito de auxiliar no processo de avaliação e diminuir o custo/produção da mesma. O Method of Audio Description Evaluation (MADE), método desenvolvido na pesquisa, possibilita avaliar a qualidade da AD de acordo com a viabilidade e aspectos de interesse dos pesquisadores. O MADE possui três cenários de avaliação: i) a partir da análise de aspectos técnicos por avaliador, sem envolvimento do usuário final ii) a partir da avaliação da experiência do usuário deficiente visual ao utilizar a AD; ou iii) cenário híbrido que avalia os aspectos técnicos e do usuário, e engloba complementaridade dos resultados alcançados. A aplicabilidade do MADE foi analisada em estudo de caso onde avaliou duas audiodescrições geradas por máquina por meio do cenário híbrido. Como resultado, foram identificadas em quais aspectos as ADs necessitam de melhorias, comprovando a viabilidade da aplicabilidade do método proposto. O MADE pode ser utilizado por pesquisadores e desenvolvedores na área, para identificar melhorias na audiodescrição e garantir previamente qualidade minimamente aprovada antes da mesma ser disponibilizada para o público final.
  • RODOLFO DA SILVA COSTA
  • Um Modelo de Análise de Operações de Mixagens com Bitcoins em Serviços de Mistura Centralizada
  • Date: Jul 28, 2020
  • Time: 09:00
  • Show Summary
  • Por concepção, uma blockchain permite que qualquer interessado possa analisar todas as transações já realizadas na rede, além de consultar o saldo de moedas que cada carteira contém, bem como qualquer relação que possa existir entre elas. Em contrapartida, informações financeiras pessoais são dados sensíveis que necessitam de privacidade, e sua exposição pode provocar desconforto aos proprietários. Portanto, a privacidade dos detentores dos ativos nesse sistema reside, por concepção, no pseudoanonimato fornecido pelos endereços de carteiras, os quais não possuem dados pessoais associados, apenas um código identificador. Porém, a qualquer momento que um endereço de carteira seja relacionado a um usuário, toda a sua privacidade será perdida. Por outro lado, buscando o direito ao sigilo financeiro e com a perspectiva de alcançar a privacidade desejada na origem da Bitcoin, nasce um tipo de serviço que utiliza de artifícios como a troca e embaralhamento de criptomoedas para atingir o anonimato na rede. Estes serviços são chamados de cryptocurrency mixers ou cryptocurrency tumblers. O objetivo deste trabalho foi desenvolver um modelo de análise da Blockchain para auxiliar no processo de rastreamento de criptomoedas embaralhadas por esses serviços. Para tal, foram realizados testes e análises de padrões de misturas de quatro mixers que atuam na blockchain Bitcoin e o desenvolvimento de uma estratégia para representação em grafos das transações envolvidas no embaralhamento. Dentre as conclusões obtidas, mesmo considerando que alguns dos usuários de tais serviços possam ter direito ao anonimato e sigilo financeiro, além do risco oferecido por tais serviços também é nítido que a existência das mixers favorece o cometimento de crimes fiscais, como a lavagem de dinheiro e sonegação de impostos, e a sua utilização para o apoio de outras atividades ilegais. Por outro lado, ferramentas e metodologias, como as apresentadas neste trabalho, permitem que forças da lei, governos e outros interessados possam rastrear a origem das criptomoedas em cenários onde isso seja necessário.
  • CAIO SOUZA FLORENTINO
  • Sistema Automático de Contagem de Audiência com Uso de Aprendizagem Profunda
  • Date: Jul 27, 2020
  • Time: 14:30
  • Show Summary
  • Contar objetos ou seres vivos é uma necessidade comum em muitas áreas da indústria, comércio e serviços. Automatizar essa atividade pode promover uma otimização do processo envolvido e, consequentemente, a redução de tempo e custos. Com isso em mente, a visão computacional é uma abordagem que oferece novas possibilidades para o processamento digital de imagens, dando ao computador uma capacidade de interpretação cada vez mais semelhante aos humanos. Este trabalho compara a eficiência das técnicas de contagem volumétrica, tanto na visão computacional tradicional quanto na aprendizagem profunda, na contagem de audiências em eventos presenciais. Como estudo de caso, a investigação concentrou-se na contagem de audiência de sessões de cinema e/ou teatro a partir das fotos da audiência. Medir o faturamento de forma automática, precisa e transparente é uma necessidade recorrente da indústria do entretenimento. Para a realização dos experimentos, foi necessário o desenvolvimento de uma base de imagens com exemplos de audiências e a quantidade de pessoas presente. A partir dos resultados foi possível observar a eficiência da aplicação da aprendizagem profunda nesse contexto. Quando comparada a várias técnicas automáticas de contagem volumétrica disponíveis, a aprendizagem profunda foi a estratégia que apresentou os melhores resultados, atingindo sensibilidade e precisão acima de 96%. É proposto um Sistema Automático de Contagem de Audiência que contém os módulos de classificação/contagem (uso de aprendizagem profunda para contagem de audiência), captura (monitoramento contínuo das imagens para melhor captura) e controle (integração, administração e operação do sistema).
  • ANGELINA STHEPHANNY DA SILVA SALES
  • Modeling and Development of Accessible Digital Forms for Deaf People
  • Date: Jul 23, 2020
  • Time: 16:00
  • Show Summary
  • Even with access guaranteed by law, deaf people have difficulty accessing information. This limitation is evidenced when deaf and non-fluent users in Portuguese (target audience) have to inform their opinions as participants in forms, self-report scales or answer questionnaires. This is because usually the traditional data collection instruments used in these types of evaluations are based on text, not on sign languages, which can impose access difficulties. The modes of data collection present in the literature involving deaf people are not feasible for scenarios in which the author of the questionnaire does not know Brazilian Sign Language (Libras) or else, in the experiment does not describe any appropriate tool for data collection. To minimize these problems, this paper is proposed digital form model adapted to the communication needs and requirements of the deaf, including support for Libras, called LibrasForm. As proof of concept, a solution was developed that allows the creation of accessible forms for deaf people, using the proposed model. The experiments include the application of the solution in a questionnaire of general knowledge about Coronavirus and personal care applied to deaf users. The results showed that there are indications that there is an improvement in understanding of the content generated using LibrasForms. In addition, the solution has the potential to be used in other data collection scenarios and can be a functional and viable alternative to mitigate problems of access to information for the deaf, especially when human interpreters are not available.
  • ALTAIR JUSSADIR DA SILVA PINTO
  • An ILS–RVND algorithm for the permutation flow shop escalation problem with full completion time as a measure of performance
  • Date: Jul 16, 2020
  • Time: 10:00
  • Show Summary
  • This paper presents FILS, a new ILS–RVND type heuristic for the flow shop escalation problem with total completion time as a performance measure, which produced 55 new solutions for a set of 90 reference instances presented for the problem in question. In this study, four different heuristic parameterizations were examined through computational experiments, we used the Taillard (1993) instances, demonstrating that the proposed approach is robust and effective. FILS has been compared with algorithms such as VNS, hDDE, DABC, HGLS, VNS4, AGA and V4AGA, and the results indicate that FILS is superior in most cases.
  • JOSÉ FAGNER RODRIGUES MEDEIROS
  • Estratégias de resolução exata para o problema do corte global rotulado mínimo
  • Date: Jul 6, 2020
  • Time: 14:00
  • Show Summary
  • Neste trabalho, abordamos o Problema do Corte Global Rotulado Míınimo (PCG-RM), que é um problema de análise combinatória e pode ser definido formalmente como: seja G= (V,E,L) um grafo com arestas rotuladas, no qual V é o conjunto de vértices de G, E é o conjunto de arestas, L ́é o conjunto de rótulos (cores) sobre E e cada aresta e∈E possui um rótulo L(e) associado; o PCGRM tem como objetivo encontrar um subconjunto de rótulos L′ ⊆ L de modo que o grafo G= (V,E′,L\L′) seja desconexo e |L′| seja minimizado. Então, com o objetivo de solucionar este problema, desenvolvemos algumas estratégias de resolução exata, estendemos e adaptamos os conceitos de fecho cromático, e desenvolvemos uma nova família de formulações matemáticas chamada MFd. Para construção do MFd, tivemos como base um modelo presente na literatura chamado PART2, que é definido em Silva et al (2016). Os experimentos computacionais demonstraram que o modelo proposto neste trabalho obteve uma grande melhoria de tempo em relação ao modelo PART2.
  • PAULO RICARDO PEREIRA DA SILVA
  • Classification and Detection of Singularities in Fingerprint Images Based on Convolutional Neural Networks
  • Date: May 27, 2020
  • Time: 14:00
  • Show Summary
  • Biometrics offers a reliable authentication mechanism using traits (physical or behavioral) that allow users to be identified based on their natural characteristics. Fingerprint recognition is one of the most used biometric approaches, since its high accuracy and low cost make the systems more accessible and with satisfactory results. However, fingerprint recognition is still an open problem as false acceptance and false rejection errors are still found in fingerprint comparison algorithms. This work proposes a method for classifying and detecting singularities in fingerprint images, which is based on convolutional neural networks and sliding window. The detection is done through a sliding window that traverses an input image and extracts a 50x50 subimage and passes it as an argument to the classifier to label between the loop, delta and neg or non-singularity classes, creating a set of candidate singularities for then apply a filtering and keep only the true singularities - the classifier is a convolutional neural network and its architecture is similar to LeNet, with the first convolutional layers and the last ones being fully connected. To evaluate the effectiveness of the proposed method, the databases with and without pre-processing FVC2000-3, FVC2002-1, FVC2004-1 and FVC2006-3, and without pre-processing SPD2010 were used, on which the best classifier reached accuracy of 99% and average F-measurement of 0.99 for the three classes, and the detector achieved 0.84 of F-measure and \textit{IoU} median of 0.76.
  • MARCELO HERCULES CUNHA SOARES
  • Uma Abordagem para Auto Identificação Voluntária e Verificável de Participantes de Aplicações Baseadas em Livros-Razão Distribuídos
  • Date: May 5, 2020
  • Time: 10:00
  • Show Summary
  • As tecnologias de livro-razão distribuído popularizaram-se com o advento das criptomoedas, sobretudo a Bitcoin, surgindo novas aplicabilidades e novos desafios. Embora tenham sido concebidas em um contexto financeiro, associado à criptomoeda, atualmente é possível encontrar tais tecnologias sendo aplicadas em diversos contextos não-financeiros. Com a evolução da tecnologia, surgiram customizações com suporte a controle de permissão de acesso em redes privadas, onde os participantes da rede são previamente conhecidos. No entanto, as DLTs públicas podem ser consideradas mais seguras por possuírem um grande número de nós compondo as redes, o que torna ainda mais difícil a ocorrência de fraudes. No ecossistema das DLTs públicas, a privacidade e o anonimato são atributos desejáveis por parte dos utilizadores. Porém, há diversas evidências de que, em alguns casos, tais atributos podem ser dispensáveis, sendo necessário que a propriedade de um endereço de carteira digital seja conhecida para garantir a legitimidade de uma transação. Este trabalho atua na investigação de mecanismos de identificação de participantes em DLTs públicas, com a propositura de um serviço público de associação de endereço para entidade, alimentado voluntariamente pelo portador do endereço, chamado de Address Name System (ANS). O ANS combina o uso de tecnologias consolidadas, a exemplo de assinatura e certificação digital, para a geração de um artefato, denominado ANS Certificate, que associa criptograficamente o detentor de um endereço de carteira digital com uma entidade do mundo real, e fornece uma arquitetura para a consulta e validação de tais certificados. Como prova de conceito da proposta, foi implementado um protótipo do serviço e foram feitos experimentos de integração para a validação funcional das suas operações com aplicações reais.
  • LUCAS OLIVEIRA COSTA AVERSARI
  • Safe H-KaaS: Uma Estratégia para Proteção Contra Violação de Conhecimento em KaaS no Domínio da E-Saúde
  • Date: Feb 28, 2020
  • Time: 14:00
  • Show Summary
  • Como forma de solucionar problemas relativos ao devido acesso e distribuição do conhecimento na área médica surgiram as arquiteturas baseadas no paradigma de Conhecimento como Serviço (KaaS), com crescente interesse comercial e de pesquisa. Porém, por trás da grande quantidade de benefícios trazidos, tais serviços de distribuição de conhecimento possuem uma vulnerabilidade crítica para os usuários e mantenedores dos mesmos, a violação de conhecimento, ou knowledge breaching. Diante do exposto, o desenvolvimento desta pesquisa visa contribuir para a elaboração de uma estratégia para mitigação de ataques centralizados de violação de conhecimento em serviços provedores de conhecimento, denominada Safe H-KaaS, baseada em aprendizagem de máquina e incorporada como proxy, com foco na fácil utilização, agnosticismo da solução quanto ao serviço defendido e manutenção da qualidade de serviço e experiência do usuário. Tanto a existência da vulnerabilidade e sua gravidade, quanto a metodologia proposta e sua efetividade, são avaliadas por meio de um estudo de caso com um KaaS na área da nefrologia, demonstrando assim, a viabilidade do método na proteção de serviços de distribuição de conhecimento.
  • VICTOR MIRANDA FERNANDES
  • Uma arquitetura de rede neural para condução de veículos autônomos terrestres em estradas brasileiras
  • Date: Feb 20, 2020
  • Time: 10:00
  • Show Summary
  • Os veículos autônomos são aqueles que funcionam sem um condutor humano, sendo um dos produtos que mais recebem investimento da indústria automobilística no seu desenvolvimento, com mais de 50 bilhões de dólares investidos nos últimos 5 anos. Uma das formas de implementá-los é utilizando técnicas de inteligência artificial e, apesar de já existirem diversas implementações, poucos estudos focam na condução em estradas com problemas de infraestrutura, como por exemplo: buracos, lama, estradas de barro, etc, que podem resultar em acidentes de trânsito e danos aos veículos. Isso se torna relevante, levando em consideração dados sobre rodovias brasileiras, onde, atualmente, apenas 13,7% delas são pavimentadas. Neste sentido, uma arquitetura de rede neural convolucional para conduzir veículos autônomos em estradas degradadas é proposta neste trabalho. A arquitetura foi treinada com dados extraídos do jogo Euro Truck Simulator 2 com um mapa brasileiro realístico que considera os problemas de infraestrutura citados anteriormente. A modelagem e treinamento da arquitetura foi realizada em duas fases: a primeira utilizando dados coletados via teclado e a segunda utilizando dados coletados a partir de um volante joystick e com a adição de técnicas de processamento de imagens. Os resultados mostraram que a arquitetura treinada na segunda fase obteve um desempenho superior em tempo médio para intervenção humana, ou seja, o tempo para o condutor intervir na arquitetura treinada pelos dados do volante foi cerca de 9 vezes maior quando comparado ao tempo para a arquitetura treinada com os dados coletados via teclado.
  • FELIPE CRISPIM FRAGÔSO
  • Problema Livre de Garras: Estudo Poliédrico e Soluções Exatas
  • Date: Feb 17, 2020
  • Time: 14:00
  • Show Summary
  • O grafo bipartido completo K1,3 é uma árvore denominada garra. Um grafo G é considerado Livre de Garra se não houver nenhum subgrafo induzido em G isomorfo ao grafo K1,3. O Problema Livre de Garra (PLG) é NP-Completo e consiste em encontrar o conjunto mínimo s ⊂ V (G), tal que, G - S é livre de garra. Este trabalho apresenta um estudo poliédrico do politopo associado ao PLG, explicitando sua dimensionalidade, propondo instâncias e analisando quatro algoritmos de Branch-and-Cut com inequações definidoras de facetas. Além disso, dois algoritmos Branch-and-Price são propostos e uma comparação de todos os algoritmos é feita.
  • IGOR NÓBREGA DOS SANTOS
  • Proposta de um recomendador de fluxograma personalizado com visualização gráfica das dificuldades das disciplinas baseado em filtragem colaborativa
  • Date: Feb 11, 2020
  • Time: 10:30
  • Show Summary
  • Os fluxogramas são construídos com base no Núcleo Docente Estruturante (NDE) que é responsável pela concepção do projeto pedagógico de um curso e podem variar dependendo da aprovação ou reprovação do próprio NDE que utiliza critérios como: a quantidade mínima de créditos por período, a duração do curso, as dependências entre disciplinas. A etapa de construção do fluxograma é de fundamental importância, pois fluxogramas mal formulados podem conter disciplinas mal distribuídas, aumentando o tempo de conclusão do curso, acarretando em maiores gastos financeiros para as universidades. Alunos têm incertezas na escolha de um conjunto de disciplinas ideal em um período, uma vez que eles não sabem, a priori, as dificuldades que enfrentarão em cada uma delas. Diante disso, surge a necessidade do desenvolvimento de sistemas de recomendação de fluxograma personalizados. O presente trabalho propõe o desenvolvimento de um recomendador de fluxograma personalizado utilizando a técnica de filtragem colaborativa com a visualização gráfica do fluxograma. Foram utilizadas cores representativas que alertarão o estudante sobre o nível de dificuldade de cada disciplina. Dessa forma, foi possível fazer uma associação entre as previsões de notas e os níveis de dificuldades para cada uma delas. Foram utilizados os parâmetros: Raiz do Erro Quadrático Médio (Root Mean Square Error, RMSE), Erro Médio Absoluto (Mean Absolute Error, MAE) e a análise da matriz de confusão para testar a eficiência do recomendador. O recomendador de fluxograma foi testado com um conjunto de 298 alunos ativos, do curso de Engenharia de Computação da UFPB, realizando recomendações de disciplinas para todos os períodos do curso, resultando em uma previsão de nota com RMSE de 1,74 e o MAE de 1,33. Além disso, foram obtidos 88,71% de acurácia, 98,52% de especificidade e 54% de sensibilidade. Como possíveis resultados da presente proposta, espera-se a diminuição do risco de reprovação nas disciplinas, uma vez que o aluno terá, de forma antecipada, informações do fluxograma com visualização gráfica sobre as dificuldades das disciplinas através de um fluxograma colorido, podendo assim, planejar melhor a sua dedicação para cada uma delas.
  • TÁRSIO GOMÍDES LIMA DOS SANTOS
  • Sistemas de recomendação para o AVA Moodle: uma abordagem baseada em Filtragem colaborativa e na Taxonomia Revisada de Bloom
  • Date: Jan 31, 2020
  • Time: 14:00
  • Show Summary
  • No cenário atual, a educação a distância e até mesmo a presencial vem fazendo uso dos ambientes virtuais de aprendizagem como ferramenta. Porém, geralmente essas ferramentas não se adaptam ao perfil e necessidades do aluno, como é o caso do Moodle. Com a finalidade de resolver o problema para as chamadas questões de avaliação do Moodle, esse trabalho propõe e desenvolve uma API REST para gerar recomendações usando a Taxonomia Revisada de Bloom, filtragem colaborativa baseada no usuário e também um módulo de eficiência. O recomendador utilizou dados de um curso de LC-EAD da UFPB para sua validação e os resultados obtidos foram recomendações personalizadas de acordo com as características dos usuários. Logo, se espera que a utilização deste serviço possa trazer benefícios para estudantes, os quais receberiam sugestões de atividades que de fato possam alavancar o nível cognitivo dos mesmos. Ademais, como tal abordagem auxilia no aprendizado do aluno, a mesma também tem o potencial de reduzir a taxa de evasão dos estudantes envolvidos em programas de educação a distância.
  • ABRAÃO AIRES URQUIZA DE CARVALHO
  • Utilização de Traços Simbólicos e SMT Solvers para a Verificação de Equivalência Observacional em Segurança e Privacidade de Protocolos
  • Date: Jan 31, 2020
  • Time: 10:00
  • Show Summary
  • Atacantes e usuários maliciosos em redes de computadores podem usar uma série de técnicas para obter informação sensível. Dentre elas, a utilização do tempo e da assinatura do tráfego de pacotes como canal lateral abre várias brechas de segurança.A verificação automática desses ataques, no entanto, não consistem apenas nas técnicas convencionais de propriedades baseadas em alcançabilidade. Isso se deve porque o ataque não possui uma configuração intrinsecamente ruim, como um estado em que um intruso possua um segredo. O ataque existe quando uma determinada configuração apresente um comportamento que outra configuração distinta não possua, possibilitando distinguir uma da outra. Esse trabalho oferece uma definição formal de equivalência observacional no âmbito do tempo e da análise de tráfego, baseada em equivalência de traços simbólicos. Além disso, implementa alguns exemplos discutidos como prova de conceito.
  • BRUNO ADONIS DE SA
  • Uma Abordagem Baseada em Perceptron Multicamadas para Detecção de Faltas no Estator de Geradores Eólicos do Tipo PMSG
  • Date: Jan 31, 2020
  • Time: 10:00
  • Show Summary
  • Entre os geradores eólicos, os baseados na máquina síncrona de ímã permanente (do inglês, Permanent Magnet Synchronous Generator - PMSG) apresentam interrupções de operação recorrentes devido à ocorrência de falhas internas. Falhas internas são de difícil detecção e que podem conduzir, silenciosamente, a danos na máquina e podem ocorrer entre as espiras, sendo denominadas espira-espira, ou entre espiras e a carcaça da máquina, sendo denominadas espira-terra. Assim, estas plantas devem ser constantemente monitoradas para que essas falhas sejam detectadas em seu estágio inicial. Essa detecção precoce possibilita a redução do custo de manutenção, ao mesmo tempo em que diminui o tempo de inatividade das turbinas eólicas. Este trabalho propõe uma estratégia para detectar falhas no estator em seu estágio inicial de forma não invasiva por meio de um módulo classificador que analisa os padrões da corrente do estator. Este classificador baseia-se em uma rede neural do tipo perceptron multicamadas (do inglês, Multilayer Perceptron - MLP), que foi treinada utilizando um conjunto de dados de instâncias geradas por meio de um modelo matemático de uma turbina eólica baseada no PMSG. Os resultados mostram que o classificador MLP é capaz de detectar o problema proposto com 97,62% de acurácia. Além disso, a detecção foi alcançada em um estágio inicial, de 1% a 4% de espiras defeituosas com acurácia de 100%, contribuindo para uma detecção continua e não invasiva de falhas internas ao estator da turbina eólica.
  • DUNFREY PIRES ARAGÃO
  • SpaceYNet: a Regression Pose and Depth-scene Simultaneously
  • Date: Jan 31, 2020
  • Time: 10:00
  • Show Summary
  • Um dos problemas fundamentais da robótica móvel é o uso de informações sensoriais para localizar um robô móvel dentro de um específico contexto. Neste trabalho, foi desenvolvida uma nova abordagem para o dilema da realocalização global, que se refere a conhecer a posição do agente e evitar ações imprevistas de outros atores a partir de uma imagem. Para contemplar, incorporamos cinco camadas Inception, apresentadas por GoogLeNet 1V1, em uma arquitetura simétrica das camadas sequenciais realizando amostragens e revertendo esta atividade, que permite realizar duas tarefas da visão computacional simultaneamente: esti- mar depth-scene do momento capturado e regredir o 6-DoF, a partir da imagem RGB monoc- ular de uma câmera de robô móvel. Além disso, implementamos uma solução de redes recor- rentes que permite que a solução aprenda características dp contexto do ambiente percorrido. Chamamos esta solução como SpaceYNet, e ela opera regredindo depth-scene, que pode ser auxiliar em aprimorar a previsão de 6-DoF, diferentemente de trabalhos propostos encontra- dos, que são definidos para atuar em condições de ambientes controlados ou que trabalham resolvendo uma única tarefa. Nós avaliamos o SpaceYNet comparando-a com PoseNet e ContextualNet, que são o estado da arte na regressão da localização de robôs usando redes neurais convolucionais e extensão da primeira usando redes LSTM, originando SpaceYNet v.2. Esta comparação foi baseada em dois conjuntos de dados diferentes; uma pública e uma gerada em ujm laboratório amplo, rico em detalhes e com variações internas. A com- paração da rede SpaceYNet mostrou maior precisão na regressão do 6-DoF, sendo melhor em 58,42% dos casos com o conjunto de dados público em porcentagens globais quando comparado aos casos PoseNet e 56,06% trabalhando com o conjunto de dados gerado em laboratório. Quando comparamos SpaceYNet v.2 à rede ContextualNet, também houve mel- hor acurácia, e quando comparamos SpaceYNet v.1 e SpaceYNet v.2, esta diferença é de 67.5% de acurácia superior para a SpaceYNet v.2.
  • SUZANE GOMES DOS SANTOS
  • Uma solução para Análise de Vegetação, Separação e Localização de Zonas de Manejo em Imagens Aéreas Utilizando Sistemas com Baixo Poder de Processamento
  • Date: Jan 31, 2020
  • Time: 09:00
  • Show Summary
  • Esse trabalho propõe uma técnica para subdividir um campo em zonas de manejo, processando imagens aéreas capturadas por VANTs através do Índice de Vegetação por Diferença Normalizada (NDVI), permitindo ao agricultor localizar determinada zona e identificar qual tratamento esta necessita. Além disso, esta técnica visa realizar essa tarefa num curto espaço de tempo, permitindo análises instantâneas em computadores com baixo poder de processamento, e, inclusive, em um dispositivo embarcado, ambos apresentados neste trabalho. Para realizar essa separação de forma rápida, são realizadas diversas otimizações no algoritmo para NDVI e no algoritmo de classificação não supervisionada K-means. Como caso de estudo, foram utilizadas imagens de plantação de cana-de-açúcar capturadas por um VANT. Ao final, são apresentadas as imagens classificadas e os dados da avaliação de desempenho da solução proposta tanto em um computador convencional, quanto em um sistema embarcado. Além disso, para determinar a localização de cada zona de manejo, também foi desenvolvido um sistema de captura de coordenadas geográficas a partir da imagem do campo segmentada.
  • AELLISON CASSIMIRO TEIXEIRA DOS SANTOS
  • TSNSCHED: Automated Schedule Generation for Time Sensitive Networking
  • Date: Jan 30, 2020
  • Time: 10:00
  • Show Summary
  • Time Sensitive Networking (TSN) is a set of standards enabling high performance de- terministic communication using time scheduling. Due to the size of industrial networks, configuring TSN networks is challenging to be done manually. We present TSNsched, a tool for automatic generation of schedules for TSN. TSNsched takes as input the logical topology of a network, expressed as flows, and outputs schedules for TSN switches by using an SMT-solver. The generated schedule guarantees the desired network performance (specified in terms of latency and jitter), if such schedules exist. TSNsched supports unicast and multicast flows, such as, in Publish/Subscribe networks; can combine existing variants of TSN scheduling problems, and reason about the best-effort and priority TSN traffic. TSNsched can be run as a standalone tool and also allows rapid prototyping with the available JAVA API. We evaluate TSNsched on a number of realistic-size network topologies. TSNsched can generate high performance schedules, with average latency less than 1000μs, and average jitter less than 20μs, for TSN networks, with up to 93 subscribers and up to 10 multicast flows.
2019
Description
  • RUBENS GODOFREDO SOARES CORREIA
  • Formulações matemáticas e algoritmo híbrido para o problema de programação de sessões técnicas de conferências
  • Date: Dec 13, 2019
  • Time: 16:00
  • Show Summary
  • Este trabalho trata do problema de programação de sessões técnicas de conferências. O objetivo é maximizar o benefício de alocar trabalhos com temas em comum em uma mesma sessão, satisfazendo restrições de recurso bem como aquelas impostas pelos organizadores. Duas formulações matemáticas baseadas em programação linear inteira são apresentadas para o problema, que por sua vez é mostrado ser NP-Difícil. Dado o limite de escalabilidade dos modelos, um algoritmo híbrido que combina uma meta-heurística baseada em busca local e um procedimento baseado em programação matemática é proposto para resolver instâncias realísticas de grande porte. Experimentos computacionais foram conduzidos em instâncias de pequeno e médio porte, nas quais a heurística desenvolvida foi capaz de encontrar a maioria dos ótimos conhecidos. O algoritmo foi comparado com soluções geradas manualmente além de ter sido utilizado como ferramenta na geração de alguns eventos ocorridos no Brasil.
  • THIAGO VIANA DE CARVALHO
  • Avaliação da Presença Espacial e Auto Presença em Realidade Virtual com Cenários 360o: Um Estudo de Caso como Jogo Caixa de Pandora
  • Date: Dec 12, 2019
  • Time: 09:00
  • Show Summary
  • A realidade virtual constitui uma técnica avançada de interface que proporciona ao usuário a sensação de que este está presente no ambiente virtual, podendo essa experiência imersiva ser expandida com o uso de outros dispositivos multissensoriais. Estas tecnologias tem se desenvolvido de uma forma acelerada nos últimos anos, expandindo-se em uma ampla gama de aplicações nas mais diversas áreas, dentre elas, o ramo de educação e treinamento, onde se destacam como ferramentas de aprendizado dentro desta área os serious games, jogos desenvolvidos com um propósito específico que vai além do entretenimento. Este trabalho objetivou avaliar se a sensação de presença proporcionada pela RV em serious games baseados em cenários 360o. Para isso, foi utilizado como estudo de caso o jogo Caixa de Pandora, um jogo educativo que objetiva a educação por meio da conscientização sobre o tema violência contra a mulher. Para tanto, foi desenvolvida uma aplicação piloto que considerou a temática, bem como um questionário. O questionário foi baseado em outros questionários consolidados voltados a presença e experiência de jogo, adequando-o ao objetivo do trabalho,. Este questionário foi utilizado para avaliar a sensação de presença dos jogadores. São contribuições do presente trabalho a proposição de um jogo que utiliza a tecnologia de cenários 360o como potencializador da sensação de presença e aproximação do jogador ao problema abordado, um questionário que expande trabalhos anteriores sobre presença em realidade virtual ao considerar também elementos de jogos, bem como diretrizes para o desenvolvimento de cenários 360o voltados para jogos.
  • THIAGO VIANA DE CARVALHO
  • Avaliação da Presença Espacial e Auto Presença em Realidade Virtual com Cenários 360o: Um Estudo de Caso como Jogo Caixa de Pandora
  • Date: Dec 12, 2019
  • Time: 09:00
  • Show Summary
  • A realidade virtual constitui uma técnica avançada de interface que proporciona ao usuário a sensação de que este está presente no ambiente virtual, podendo essa experiência imersiva ser expandida com o uso de outros dispositivos multissensoriais. Estas tecnologias tem se desenvolvido de uma forma acelerada nos últimos anos, expandindo-se em uma ampla gama de aplicações nas mais diversas áreas, dentre elas, o ramo de educação e treinamento, onde se destacam como ferramentas de aprendizado dentro desta área os serious games, jogos desenvolvidos com um propósito específico que vai além do entretenimento. Este trabalho objetivou avaliar se a sensação de presença proporcionada pela RV em serious games baseados em cenários 360o. Para isso, foi utilizado como estudo de caso o jogo Caixa de Pandora, um jogo educativo que objetiva a educação por meio da conscientização sobre o tema violência contra a mulher. Para tanto, foi desenvolvida uma aplicação piloto que considerou a temática, bem como um questionário. O questionário foi baseado em outros questionários consolidados voltados a presença e experiência de jogo, adequando-o ao objetivo do trabalho,. Este questionário foi utilizado para avaliar a sensação de presença dos jogadores. São contribuições do presente trabalho a proposição de um jogo que utiliza a tecnologia de cenários 360o como potencializador da sensação de presença e aproximação do jogador ao problema abordado, um questionário que expande trabalhos anteriores sobre presença em realidade virtual ao considerar também elementos de jogos, bem como diretrizes para o desenvolvimento de cenários 360o voltados para jogos.
  • RAPHAEL MEDEIROS ALVES
  • Minimizando os custos energéticos de alocação de aulas a salas: o caso de uma instituição federal de ensino
  • Date: Nov 12, 2019
  • Time: 14:00
  • Show Summary
  • Este trabalho trata do problema de alocação de aulas a salas (PAAS) no contexto de uma instituição federal de ensino de grande porte. Na prática, esse problema deve ser resolvido no início de cada período letivo. Atualmente, o PAAS da instituição em questão é resolvido manualmente, o que não é apenas uma tarefa árdua, mas também muito demorada, diversas vezes levando a soluções ineficientes. Ao analisar a solução manual com a perspectiva do custo energético de cada aula em uma sala, é possível notar que há perdas financeiras. Por exemplo, não é interessante alocar turmas com poucos alunos em salas com grandes capacidades, que por sua vez tendem a ter custos energéticos mais altos. Além disso, uma solução inadequada pode gerar uma falsa percepção de escassez de salas, acarretando, assim, de forma imprecisa, que novas salas devem ser construídas para acomodar adequadamente todas as turmas. O objetivo deste estudo é minimizar o custo energético associado ao uso dos locais de aula, neste caso salas de aula e laboratórios de informática, atendendo aos requisitos especificados pela instituição. Para resolver diferentes versões do problema, foram propostos cenários de formulações matemáticas baseados em programação linear inteira. Os modelos desenvolvidos foram testados em instâncias reais de dois campi envolvendo até 3046 aulas e 97 locais. Todos os cenários de formulações propostos foram capazes de alcançar uma redução significativa de custos quando comparadas com a solução manual, com até 30% de economia de energia. Dentre essas formulações, a minimização na quantidade de locais também foi um dos propósitos deste estudo, onde foi obtida uma redução de 97 para 55 locais de aula com a instância mais recente do caso estudado.
  • IURY ROGÉRIO SALES DE ARAUJO
  • Busca de Serviços Baseada em Perfis Sociais de Objetos em Redes SIoT
  • Date: Aug 30, 2019
  • Time: 17:00
  • Show Summary
  • O crescimento acelerado do numero de dispositivos conectados a Internet provocou um grande impacto na infraestrutura da Internet das Coisas (IoT), gerando desafios para o gerenciamento de servicos e de objetos, tais como: escalabilidade, heterogeneidade e volume de dados transferidos. Um novo paradigma, chamado de Social Internet of Things (SIoT), foi proposto para solucionar os desafios enfrentados pela IoT, introduzindo o conceito de redes sociais para organizar e gerenciar objetos e servicos, proporcionando assim melhorias nas funcionalidades da rede. Por ser um novo paradigma, a SIoT apresenta desafios para adaptacao das funcionalidades do middleware IoT, como a busca de servicos, a um novo contexto social. Outro desafio e integrar o potencial oferecido pelas redes sociais as funcionalidades do middleware, como a abstracao dos objetos por meio das suas caracteristicas e informacoes, as quais podem ser representadas atraves de perfis sociais. Tais perfis oferecem a possibilidade de criar e utilizar relacionamentos entre objetos para auxiliar no gerenciamento dos servicos, tais como a busca. Este trabalho propoe um metodo de busca baseado nas caracteristicas e informacoes dos objetos contidas em seus perfis sociais para auxiliar no gerenciamento de servicos em redes IoT. Testes realizados mostraram a eficacia do metodo de busca proposto ao encontrar objetos que atendam as requisicoes de forma mais satisfatoria quando comparadas aos da literatura.
  • LEANDRO PAIVA ANDRADE
  • NeuroReality: Um sistema para inserção, análise e gerenciamento de dados de eletroencefalografia em ambientes virtuais
  • Date: Aug 30, 2019
  • Time: 16:30
  • Show Summary
  • A realidade virtual é uma tecnologia que possibilita a ação integrada entre computadores e cérebro humano. A viabilidade de reproduzir situações reais de forma controlada e a possibilidade de simular e visualizar ações impossíveis de serem percebidas no mundo real fazem com que este tipo de tecnologia encontre aplicações em diversas áreas, como na saúde, educação e entretenimento. No campo da neurociência, a realidade virtual, combinada à interfaces cérebro-computador, tem se tornado uma importante ferramenta para o estudo e entendimento da atividade cerebral, além de contribuir grandemente para a reabilitação de funções cerebrais debilitadas. Neste sentido, o objetivo deste trabalho foi a criação de um sistema denominado “NeuroReality”, o qual possui um componente para o ambiente Unity e uma interface simples de gerenciamento, onde pesquisadores ou interessados na área de neurociência podem inserir, visualizar e manipular dados de eletroencefalograma em um ambiente virtual de teste. Para o desenvolvimento do componente, utilizou-se a linguagem de programação C#, o ambiente de desenvolvimento Visual Studio 2017, o motor de jogo Unity e uma versão empacotada da Rede Periférica de Realidade Virtual (do inglês, Virtual Reality Peripheral Network, VRPN), denominada Unity Virtual Peripheral Network (UVRPN). Em relação ao desenvolvimento da interface, utilizou-se a linguagem de programação Java, o ambiente de desenvolvimento NetBeans e a versão em Java da biblioteca VRPN. O produto obtido é um sistema que disponibiliza ao usuário todas as suas funcionalidades em uma só interface, simples e intuitiva, onde é possível acessar os dados de eletroencefalografia e, simultaneamente, realizar ações em objetos contidos no ambiente virtual. O sistema também possui a capacidade de capturar e salvar os dados de EEG em função do tempo, em forma de tabelas, e registrar o ambiente virtual ao qual o componente está associado, em forma de vídeo, para possíveis futuras análises.
  • MATEUS FERREIRA DOS SANTOS
  • DICOMFlow Social: Modelo Arquitetural de uma Rede Social Profissional para Telerradiologia
  • Date: Aug 30, 2019
  • Time: 16:00
  • Show Summary
  • Mesmos com os avancos das tecnologias da informacao e comunicacao nos ultimos anos, ainda constatamos problemas com o compartilhamento de imagens e exames radiologicos entre as instituicoes de saude, pacientes com os medicos, entre os medicos etc. O objetivo deste projeto e apresentar um modelo arquitetural de uma Rede Social Profissional de Telerradiologia, o DICOMFlow Social na qual os pacientes, profissionais e entidades de saude possam compartilhar e distribuir exames de imagens medicas de maneira rapida e segura. Com isso, criaremos mais um espaco para a pratica da telerradiologia, pois nos moldes atuais, ainda nao e uma tarefa trivial de ser feita. O DICOMFlow Social segue dois grandes conceitos: a Infraestrutura de Informacao (II) que e uma infraestrutura preexistente (base instalada) que oferece compartilhamento de informacoes, colaboracao entre as pessoas, recursos tecnologicos situados em contextos geograficos distintos etc.; e os conceitos e mecanismos de comunicacao da Computacao Social para fazer a interacao social entre os membros. O DICOMFlow Social e formado pela base instalada DICOMFlow que e um modelo de arquitetura assincrona, descentralizada e assimetrica para a transferencia das imagens medicas, construido sobre a infraestrutura de e-mail e PACS/DICOM. Tambem, o DICOMFlow Social e composto pela infraestrutura de Notificacao, responsavel por avisar aos membros da rede sobre algum evento criado, usando bibliotecas de terceiros, mas a rede tambem tera a sua propria infraestrutra de notificacao; e o de Pagamento on-line (e.g., MOIP, PagSeguro), que sera totalmente terceirizada. Sera responsavel pela transacao financeira entre os membros da rede. E por fim, a rede tera os recursos ja conhecidos de outras redes sociais (e.g., Facebook, LinkedIn) como criar lista de contatos, curtir, compartilhar, comentar alguma postagem, pesquisar alguma informacao entre outras atividades.
  • ANDERSON RUFINO DOS SANTOS SILVA
  • Uma abordagem baseada em otimização para geração de licks de guitarra
  • Date: Aug 30, 2019
  • Time: 15:00
  • Show Summary
  • O presente trabalho descreve o funcionamento de uma abordagem computacional que, mediante o uso de metodos exatos e heuristicos, realiza a construcao de fragmentos melodicos, os quais sao representados, mais especificamente, atraves de licks de guitarra. Este tipo de aplicacao integra-se no campo da Composicao Algoritmica, que e a criacao de musica com o auxilio de algoritmos. Para tal feito, um banco de fragmentos melodicos menores intitulados sublicks e utilizado. Estes fragmentos equivalem a porcao mais elementar de um lick de guitarra, que sao as notas musicais. Diante disso, um conjunto de regras sao estabelecidas para pontuar transicoes entre os sublicks, e assim, podemos determinar uma matriz de custo para auxilar na concatenacao dos mesmos, resultando em um lick completo. Tal concatenacao e realizada por um modelo matematico, que ainda leva em conta determinadas entradas, como por exemplo, quantidade de notas musicais e tecnicas de guitarra a serem utilizadas na construcao do lick. Adicionalmente, um modelo probabilistico baseado em Cadeias de Markov fez-se necessario na construcao de um tipo diferente de lick, chamado de lick turnaround, devido as suas caracteristicas peculiares.
  • JULIO ZINGA SUZUKI LOPES
  • Uma Abordagem de Processamento de Consultas para Plataformas de Middleware Distribuído e Particionado no Contexto de Cidades Inteligentes
  • Date: Aug 30, 2019
  • Time: 14:30
  • Show Summary
  • Hoje, mais da metade da populacao mundial vive em cidades, enquanto a expectativa e que este quantitativo alcance cinco bilhoes de pessoas em 2030. O aumento da densidade populacional nos centros urbanos exige a adequacao de servicos e infraestrutura. Esta explosao populacional dos grandes centros representara os maiores desafios, como por exemplo no tocante a poluicao do ar, mobilidade urbana, problemas de saude, energia e gestao de lixo. Solucoes para estes desafios requerem a integracao de varias Tecnologias da Informacao e Comunicacao (TICs). As cidades que exploram estas solucoes, com a utilizacao de TIC's para auxiliar no enfrentamento de seus problemas, tem sido chamadas de Cidades Inteligentes. Todavia, as primeiras solucoes criadas apresentaram limitacoes, pois em geral eram baseadas em sistemas independentes, com tecnologias diferentes e sem a preocupacao com interoperabilidade e escalabilida. Neste contexto, plataformas de middleware tem sido utilizadas como infraestrutura para auxiliar o desenvolvimento de aplicacoes, sistemas e servicos de cidades inteligentes. Dentre os principais desafios destas plataformas, a integracao de dados e bastante representativa, pois permite fornecer aos usuarios informacoes consolidadas de diferentes provedores com transparencia de localizacao e de formato de representacao. Nesta direcao, este trabalho propoe uma abordagem de processamento de consultas para plataformas de middleware distribuido e particionado, cujas informacoes estao armazenadas em diferentes provedores de dados heterogeneos e geograficamente distribuidos. Um estudo de caso com significativo volume de dados semirreais de transporte publico foi desenvolvido para validar e avaliar a abordagem proposta. Neste estudo de caso foram organizados 5 cenarios envolvendo ate 10 provedores, com 10.000 entidades ao todo. Em cada cenario, foi avaliada a vazao no processamento de consultas. Na comparacao com um provedor de dados largamente utilizado em projetos europeus para cidades inteligentes, a abordagem proposta alcancou um ganho na vazao de ate 586%.
  • ARTHUR DE MEDEIROS BATISTA
  • MODELAGEM CONCEITUAL DE CONHECIMENTO USANDO LÓGICA DE DESCRIÇÃO: UM ESTUDO DE CASO NO DOMÍNIO DA NEFROLOGIA
  • Date: Aug 30, 2019
  • Time: 14:00
  • Show Summary
  • A modelagem conceitual de conhecimento para composicao de ontologias consiste basicamente da captura de aspectos fisicos (conceitos) e sociais (relacoes) de dominio, e envolve certa complexidade devido a propria natureza complexa do conhecimento humano. O suporte a decisao clinica baseado em conhecimento tem se mostrado uma area de interesse de pesquisa em crescimento. Diversos trabalhos mostram o uso de ontologias no processo de tomada de decisao e de auxilio ao diagnostico medico em diversas especialidades. Para garantir que a complexidade e a corretude do conhecimento seja preservada em modelos conceituais usados para representar conhecimento, e realizar raciocinio sobre ele, sao utilizados diferentes formalismos, e a logica de descricao e um dos formalismos dos que tem se destacado devido ao seu poder de expressividade e sua semantica bem definida. No Brasil, a saude publica enfrenta desafios, e um deles e atender de forma adequada os pacientes que precisam dos servicos que vao desde a atencao basica ate a atencao especializada, tratando pacientes de baixa complexidade com cuidados basicos e encaminhando os mais complexos a atencao especializada. Nesse contexto, e importante que medicos de atencao basica sejam capazes de fazer diagnosticos adequados e, seguindo os protocolos de encaminhamento relacionados, tratar ou encaminhar os pacientes a atencao especializada em saude, quando necessario. Apresentamos, neste trabalho, o processo de modelagem conceitual de uma diretriz clinica para o tratamento e encaminhamento de pacientes com doenca renal cronica (DRC) usando logica de descricao. A modelagem do dominio foi feita em duas etapas: a elicitacao dos termos relevantes do dominio e a construcao do modelo conceitual, a partir do mapeamento desses termos para conceitos e papeis na abordagem da logica de descricao. A elicitacao dos termos foi feita usando uma metodologia baseada no lexico ampliado da linguagem (LAL) a partir da diretriz clinica especifica. A modelagem conceitual, por sua vez, foi feita a partir do mapeamento dos termos da diretriz clinica para conceitos e papeis na abordagem da logica de descricao. A partir do modelo conceitual, foi implementada uma ontologia usando a linguagem OWL, mais especificamente sua extensao que permite incluir axiomas escritos em logica de descricao, a OWL-DL. Consultas foram feitas a ontologia e as respostas obtidas sao comparadas com respostas dadas por outra ontologia nao modelada usando o mesmo formalismo. Os resultados mostraram que a logica de descricao, utilizada na etapa de modelagem, permite a construcao do modelo do dominio de acordo com as especificidades e com o nivel de detalhamento exigido. Quando esse modelo e implementado em linguagem de programacao de ontologias como OWL-DL, que incorpora a semantica da logica de descricao, o resultado e um aumento no nivel de expressividade da ontologia e consequentemente da acuracia das respostas dadas por ela as consultas realizadas.
  • GIOVAN CARLO GERMOGLIO
  • Estudo de caso do alinhamento de gateways na Infraestrutura de Informação da Internet
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Aug 30, 2019
  • Time: 14:00
  • Show Summary
  • Uma infraestrutura encontra-se dentro de outras estruturas, tecnologias ou arranjos sociais, onde sao compartilhadas, abertas, heterogeneas e que evolui ao passar do tempo. Uma vez que seu escopo de atuacao e migrado de um ambiente local para um espaco global, ha a possibilidade de surgimento de tensoes. Da mesma forma, o crescimento das Infraestruturas de Informacao (II) faz com que os projetistas devam lidar com os efeitos limitativos das escolhas feitas no inicio do projeto. Essas limitacoes sao conhecidas como dependencia de caminho ou como salientes reversos. Apesar de ser inevitavel que surjam as limitacoes durante toda evolucao, o uso dos gateways na II torna-se um elemento chave como solucao, permitindo que se mantenha a capacidade de interoperabilidade tecnologica e social entre os diversos sistemas envolvidos. Estudos foram desenvolvidos buscando padroes evolutivos das II, no entanto percebe-se uma lacuna no entendimento das caracteristicas dos gateways que contribuem para evolucao dinamica e complexa da IIs, a exemplo da internet. O objetivo do trabalho e, usando da teoria de projeto para complexidade dinamica (TPCD) em II, analisar o alinhamento entre as propostas de gateway, atraves de estudos de caso de gateways para internet, a um conjunto de caracteristicas das II, resultando em um melhor entendimento dessas solucoes. Por fim, o principal resultado da pesquisa indica que as solucoes de gateways para internet, por adotarem uma abordagem top-down em seu desenvolvimento, tornam-se especificas ao que foram propostas, negligenciando caracteristicas que surgem durante a evolucao da II.
  • LEYDSON BARBOSA SILVA
  • Um Ambiente de Simulação de Múltiplos Drones para Avaliação de Estratégias usando Cossimulação
  • Date: Aug 30, 2019
  • Time: 14:00
  • Show Summary
  • Aplicacoes com multiplos Drones estao se tornando mais presente nas industrias, usadas em aplicacoes de defesa e nas comerciais, onde as RPAs executam suas tarefas de forma autonoma. Garantir, entretanto, que aplicacoes de multiplos Drones autonomos sejam seguros, isto e, sejam capazes de executar suas tarefas e alcancar seus objetivos, e um desafio, ja que decisoes precisam ser tomadas com uma visao bastante limitada do mundo em um ambiente hostil. A simulacao pode fornercer informacoes importantes sobre o desempenho das estrategias das missoes. Por exemplo, simulacoes podem prover informacoes sobre quais estrategias poderiam fornecer garantias para a seguranca do equipamento, tendo em vista o alto investimento necessario para criacao de um sistema com multiplos Drones. Nesse sentido, propomos um ambiente de cossimulacao de multiplos Drones para a analise de missoes, a fim de avaliar estrategias de voo diferentes. Para tornar o ambiente o mais realista possivel, introduzimos ameacas externas tais como, ventos, setores com restricoes de voo e colisoes de aeronaves. Para validar o ambiente proposto utilizamos um estudo de caso de um sistema de vigilancia aerea, onde comparamos dois tipos de estrategias de voo diferentes. O sistema capacitou a analise entre as estrategias de voo, em termos de colisoes entre Drones, consumo de energia e no desempenho das missoes. Os resultados obtidos demonstram a eficacia da ferramenta na analise das estrategias, possibilitando a criacao e avaliacao de estrategias mais efetivas.
  • LUCAS BARBOSA OLIVEIRA
  • Modelagem de Tráfego em Ambientes Hospitalares Inteligentes Utilizando uma Abordagem SDN
  • Date: Aug 30, 2019
  • Time: 13:00
  • Show Summary
  • Recentemente, tem-se ocorrido uma grande evolucao dos sistemas destinados a saude conectada. Diante disto, diversos desafios estao emergindo tais como a sincronizacao e seguranca de informacoes, o estabelecimento de interoperabilidade entre dispositivos medicos hospitalares, o uso dos meios de comunicacao para transmissao das informacoes provindas dos dispositivos medicos, entre outros. Analisando este cenario, observa-se que uma grande quantidade de dispositivos medicos conectados e sistemas de TI destinados a saude estao sendo desenvolvidos e integrados para o compartilhamento de dados. Tais dispositivos e sistemas compartilham a mesma rede, podendo ser acoplados a sistemas de monitoramento e analise de dados clinicos. Em decorrencia deste compartilhamento, trafegos prioritarios de dispositivos podem ser prejudicados por congestionamentos de rede. Assim sendo, o sistema TRANSMIT (TRaffic shApiNg in SMart hospITals) propoe uma solucao que auxilie na melhoria do atendimento a pacientes em hospitais inteligentes, baseada na adocao do paradigma SDN (Software Defined Networking) e objetivando o gerenciamento de uma rede hospitalar atraves da priorizacao de trafego para dispositivos prioritarios. Esta solucao busca a observancia dos parametros de qualidade exigidos por cada servico em um ambiente de hospital inteligente. Por fim, sao apresentados os resultados coletados dos cenarios testes, onde e perceptivel a priorizacao e melhor administracao dos recursos de rede em cenario de alto trafego dados na rede. Desta maneira, justificando a implantacao do paradigma SDN em ambientes clinicos integrados.
  • JORCYANE ARAÚJO LIMA
  • UMA ABORDAGEM PARA SELEÇÃO E ALOCAÇÃO DE PESSOAS BASEADA EM PERFIS TÉCNICOS E DE PERSONALIDADES PARA PROJETOS DE SOFTWARE
  • Date: Aug 30, 2019
  • Time: 09:00
  • Show Summary
  • As atividades dos projetos de desenvolvimento de software sao agrupadas em diferentes papeis funcionais, cada qual executado por um tipo de profissional da engenharia de software, que realiza diferentes atividades. Sendo assim, para cada um destes papeis sao necessarias diversas habilidades tecnicas e de personalidades especificas. Caso estes requisitos nao sejam observados durante a selecao de membros para a equipe e alocacao aos papeis, colocara o projeto de desenvolvimento de software em serio risco de fracasso, pois as pessoas selecionadas poderao nao desempenhar bem as suas atribuicoes. Porem, o processo de selecao das pessoas e a alocacao destas a papeis para a formacao da equipe e um processo complexo para ser realizado pelo gerente de projetos com base apenas em sua experiencia, pois, mesmo com um numero relativamente pequeno de pessoas e papeis, uma grande quantidade de combinacoes pode ser identificada. Assim, analisar cada opcao e inviavel e boas opcoes podem nao ser consideradas. A fim de fornecer suporte na tomada de decisao, explorando tecnicas de Engenharia de Software Baseada em Buscas, do ingles Search Based Software Engineering (SBSE), este trabalho propoe uma abordagem multiobjetiva para selecao e alocacao de pessoas tecnicamente qualificadas e psicologicamente adequadas para cada papel funcional do projeto de desenvolvimento de software. Para avaliacao da proposta, alem de uma revisao sistematica comparando a literatura existente relacionada com o tema da abordagem proposta, o trabalho apresenta resultados de tres metaheuristicas distintas capazes de lidar com os multiplos objetivos a serem otimizados. Estes algoritmos sao aplicados a dados reais coletados em um estudo de caso que revelam a eficiencia e aplicabilidade potencial da abordagem proposta.
  • JOSÉ EVERALDO DE ANDRADE JUNIOR
  • Monitoramento e Disseminação Cooperativa de Eventos Emergenciais Apoiado por Agrupamentos de Veículos
  • Date: Aug 29, 2019
  • Time: 16:00
  • Show Summary
  • Eventos urbanos emergenciais ocorrem de forma aleatoria e precisam ser tratados por entidades competentes para manter o bom funcionamento das cidades. Os principais desafios para um tratamento eficiente recaem justamente na aleatoriedade no tempo ou no espaco, e na rapidez e acuracia da comunicacao da ocorrencia do evento a uma entidade responsavel, sendo este ultimo desafio agravado pelo fato desta comunicacao depender de intervencao humana. A onipresenca de veiculos em ambientes urbanos, sua capacidade de comunicacao e monitoramento, possibilitam o uso de VANETs como meio de auxilio para disseminacao e tratamento destes eventos. Assim, este trabalho propoe MINUET, um sistema de monitoramento e disseminacao de eventos urbanos, que atua em uma rede veicular nao estruturada. Ele e baseado em uma estrategia cooperativa, onde veiculos coordenam dinamicamente o monitoramento e a disseminacao de multiplos eventos em tempo real atraves de agrupamentos. Resultados no NS3 mostram o desempenho do MINUET na deteccao, monitoramento e disseminacao em tempo real de eventos em zonas urbanas.
  • JESSICA MACIEL DE CASTRO
  • Utilizando Refinamento de Políticas para Auxiliar no Gerenciamento de Dispositivos Iot em Hospitais Inteligentes
  • Date: Aug 28, 2019
  • Time: 16:00
  • Show Summary
  • A implementacao da Internet das Coisas em ambientes diversos ja e uma realidade. Um desses ambientes e o Hospital Inteligente onde diversos tipos de dispositivos comecam a ser utilizados para proporcionar uma melhor experiencia para os seus usuarios, pacientes e funcionarios, utilizando da IoT para melhorar o atendimento aos pacientes e agilizar os processos internos dos hospitais. Entretanto, um obstaculo na utilizacao de sistemas IoT e a dificuldade encontrada por seus usuarios de customizar o comportamento dos dispositivos conforme suas necessidades mudem. Caso os usuarios nao atualizem o sistema, ele pode ficar defasado, ocasionando problemas criticos em hospitais. Por este motivo, este trabalho apresenta uma solucao para facilitar o gerenciamento de dispositivos IoT em hospitais inteligentes utilizando refinamento de politicas, permitindo assim que usuarios criem e gerenciem suas politicas em linguagens de programacao de alto nivel. A solucao foi implementada e testada, alcancando resultados favoraveis para um cenario hospitalar.
  • JOSÉ LAUCIANO FERREIRA DE ALMEIDA
  • Diretrizes para o Design de Jogos Sérios Educativos com Foco na Satisfação do Jogador
  • Date: Aug 23, 2019
  • Time: 14:00
  • Show Summary
  • A satisfacao e geralmente abordada na avaliacao de jogos e objetiva conhecer os elementos que agradaram e motivaram o jogador. Alguns modelos foram propostos para realizar esta tarefa, como os modelos GameFlow e EGameflow, este ultimo especificamente voltado para avaliar a satisfacao em jogos educacionais. Observa-se, portanto que a avaliacao da satisfacao e uma medicao a posteriori. O presente trabalho aborda o desenvolvimento de jogos serios voltados para propositos educacionais que considerem a satisfacao na sua modelagem. Neste contexto, relaciona os modelos GameFlow e EGameflow com elementos de design de jogos para propor um conjunto de diretrizes voltadas para o design de jogos serios educativos com foco na na satisfacao do jogador. As diretrizes foram aplicadas no redesign do jogo GeoplanoPIX, posteriormente avaliado com alunos do ensino basico, e mostraram potencial na obtencao da satisfacao dos jogadores.
  • JOSÉ LAUCIANO FERREIRA DE ALMEIDA
  • Diretrizes para o Design de Jogos Sérios Educativos com Foco na Satisfação do Jogador
  • Date: Aug 23, 2019
  • Time: 14:00
  • Show Summary
  • A satisfacao e geralmente abordada na avaliacao de jogos e objetiva conhecer os elementos que agradaram e motivaram o jogador. Alguns modelos foram propostos para realizar esta tarefa, como os modelos GameFlow e EGameflow, este ultimo especificamente voltado para avaliar a satisfacao em jogos educacionais. Observa-se, portanto que a avaliacao da satisfacao e uma medicao a posteriori. O presente trabalho aborda o desenvolvimento de jogos serios voltados para propositos educacionais que considerem a satisfacao na sua modelagem. Neste contexto, relaciona os modelos GameFlow e EGameflow com elementos de design de jogos para propor um conjunto de diretrizes voltadas para o design de jogos serios educativos com foco na na satisfacao do jogador. As diretrizes foram aplicadas no redesign do jogo GeoplanoPIX, posteriormente avaliado com alunos do ensino basico, e mostraram potencial na obtencao da satisfacao dos jogadores.
  • SILAS YUDI KONNO DE OLIVEIRA SANTOS
  • BlindHelper App: aplicativo móvel para acesso por pessoas com deficiência visual a sistemas multimídia com mecanismos de Realidade Aumentada
  • Date: Aug 16, 2019
  • Time: 10:00
  • Show Summary
  • Os sistemas multimidia sao compostos, em sua grande maioria, por recursos visuais, como por exemplo: videos, imagens, graficos, textos e animacoes. Dentre os sistemas multimidia, existem os sistemas de visualizacao avancada cuja interface com o usuario, para interacao, manipulacao do sistema e recebimento de informacoes, usa predominantemente componentes e recursos visuais gerados computacionalmente. Sendo assim, a Pessoa com Deficiencia Visual (PDV) e prejudicada por ter impedimento ou dificuldade de interagir com esses sistemas e acessar suas informacoes. Um exemplo de sistema de visualizacao avancada e o “Obras 4D”, um sistema interativo para visualizacao de dados referentes as obras publicas sob tutela do Tribunal de Contas do Estado da Paraiba. Seu objetivo e facilitar o acesso as informacoes de obras, utilizando suas localizacoes geograficas como via de acesso inicial e oferecendo a visualizacao de suas informacoes atraves de mecanismos de Realidade Aumentada (do ingles: augmented reality – AR). Neste contexto, propomos o BlindHelper App, um aplicativo para dispositivos moveis capaz de oferecer as PDVs o acesso as informacoes contidas no sistema “Obras 4D” utilizando tecnologias presentes nos seus dispositivos moveis. Como resultado deste trabalho, o aplicativo BlindHelper App foi construido com forma de interacao do sistema baseado em movimentos da sua mao, captados pelo acelerometro contido no dispositivo movel, e recebimento de informacoes por meio de audiodescricao dos elementos multimidia contidas na aplicacao original.
  • VICTOR HUGO AZEVÊDO DA SILVA
  • Intersection Management for Optimizing Autonomous Car Traffic
  • Date: Aug 9, 2019
  • Time: 16:00
  • Show Summary
  • Intersections have become, due to the rapid growth of the population of the cities, a place prone to automobile accidents, being also the main cause of traffic congestion. This work presents a virtual system capable of managing and optimizing the traffic of a region in an environment of autonomous cars. This approach introduces restrictions that guarantee the safety of autonomous vehicles, so that they can take advantage of the advantages offered by this new technology, without losing the level of confidence. It was proposed to remove all traffic lights and signposts present at the intersections, giving the system the responsibility to manage traffic. The results using the SUMO simulator demonstrate that the system was able to optimize the traffic of vehicles in the different regions used as a case study.
  • JEFFERSON SILVA DE SOUZA
  • Uma abordagem baseada no caos para identificação de velocidade e possíveis falhas em motores DC sem escova por meio de sinal de acelerômetros
  • Date: Aug 9, 2019
  • Time: 09:00
  • Show Summary
  • Este trabalho apresenta uma tecnica denominada Analise de Sinais baseada no Caos utilizando Densidade de Maxima (SAC-DM) para motores DC sem escovas usando o coeficiente de correlacao obtido a partir da densidade maxima do sinal de corrente. Esta tecnica demonstra o potencial para caracterizar motores com uma abordagem simples. A abordagem proposta e comparada com a tradicional Transformacao Rapida-Fourier e a analise classica do caos, com base no coeficiente de correlacao obtido a partir do comprimento a meia altura da funcao de correlacao. As experiencias demonstram resultados semelhantes, mas mais simples e mais rapidos do que as duas abordagens comparadas.
  • MAX ANDRÉ DE AZEVEDO SILVA
  • Método de Avaliação de Jogos Educacionais Através de Heurísticas (AHJED)
  • Date: Jul 31, 2019
  • Time: 16:00
  • Show Summary
  • O processo de criacao de jogos educacionais digitais requer atencao para os aspectos tecnicos e pedagogicos. Tais aspectos podem ser o fator decisivo entre o sucesso ou insucesso do jogo. Buscando garantir uma maior qualidade desses aspectos, e interessante utilizar a avaliacao de jogos educacionais. Um dos metodos fortemente utilizados para esse tipo de avaliacao, e o metodo baseado em heuristica. Esse metodo tem se mostrado interessante por obter baixo custo e flexibilidade. Existem propostas de heuristicas para avaliacao de jogos educacionais, porem essas propostas demonstram alguns pontos de possiveis melhorias. Dessa forma, esse trabalho apresenta um modelo de avaliacao heuristica para jogos digitais educacionais, elaborado atraves da combinacao de modelos propostos na literatura, onde esse tem como objetivo avaliar os aspectos tecnicos e pedagogicos dos jogos digitais educacionais. Para isso, primeiramente foi realizado um mapeamento sistematico sobre avaliacao de jogos digitais educacionais, posteriormente foi realizada uma comparacao entre os trabalhos encontrados na literatura, com o objetivo de identificar os metodos e tecnicas mais presentes. Logo apos foi realizado um experimento com uma tecnica de avaliacao heuristica, posteriormente foi proposto um novo conjunto de heuristica esse conjunto foi concebido atraves da combinacao de conjuntos existentes na literatura. E, por fim, foram realizadas validacoes do conjunto proposto neste trabalho.
  • EMERSON BRASIL GOMES
  • Avaliação Experimental da Qualidade de Enlace de Redes de Sensores sem Fio Industriais em Instalações ao Ar Livre
  • Date: Jul 22, 2019
  • Time: 10:00
  • Show Summary
  • As Redes de Sensores Sem Fio (RSSF) tem como objetivo principal coletar informacoes sensoriais em uma determinada area, a partir de dispositivos sensores (nos) que tem a capacidade de adquirir, processar e comunicar dados. As RSSF sao aplicaveis nos mais variados dominios, incluindo a automacao industrial, onde podem ser utilizadas no monitoramento e controle de plantas industriais. Neste campo de aplicacao especifico existem as RSSF Industriais (RSSFI), que buscam atender a requisitos especificos dos sistemas industriais, tais como comunicacao com alta confiabilidade e baixa latencia, que podem ser afetados pelas carateristicas inerentes a comunicacao sem fio. Os sinais eletromagneticos podem ser atenuados, obstruidos ou propagados por multiplos caminhos, gracas a equipamentos e materiais metalicos presentes em abundancia em ambientes industriais. Este trabalho busca estudar experimentalmente as RSSFI instaladas em ambientes industrias ao ar livre. A primeira parte do trabalho consiste na caracterizacao de duas plantas industriais (uma predominantemente estatica e outra predominantemente dinamica) em relacao a qualidade do enlace de radio em multiplos canais. Outro objetivo do atual trabalho e validar, por meio de experimento em uma terceira planta industrial ao ar livre, um estimador de qualidade de enlace (Link Quality Estimator, LQE) e tambem um dispositivo (no sensor LQE), que estima a qualidade de enlaces em tempo real, ambos propostos por Gomes, em 2017. Para garantir uma boa qualidade de servico nas RSSFI, os resultados obtidos corroboram a importancia do uso de protocolos adaptativos que selecionem os canais apropriados para cada enlace, em virtude das variacoes espaciais e temporais, que afetam a qualidade dos canais.
  • WILLIBY DA SILVA FEREIRA
  • Mapeamento Ontológico com Aplicação no Domínio Biomédico
  • Date: Jun 10, 2019
  • Time: 10:00
  • Show Summary
  • Introducao: A area da saude produz diariamente um grande volume de dados que deve ser armazenado de maneira eficiente. Para que as informacoes produzidas sejam disponibilizadas e preciso organiza-las. Nesse sentido, as tecnologias voltadas para coleta, armazenamento e manipulacao de dados vem evoluindo por meio de tecnicas, metodos e ferramentas computacionais automatizadas. Uma das formas mais utilizadas e conhecida como ontologia, a qual permite a representacao de um conjunto de conceitos e retrata a semantica das informacoes. Contudo, o uso completo de ontologias em sistemas computacionais ainda e restrito. Assim, considerando essa restricao e sabendo que os bancos de dados relacionais alem de fornecer escalabilidade para consultas e raciocinio sobre o conhecimento fornecido pela ontologia, fornecem beneficios como robustez, desempenho, maturidade, disponibilidade e confiabilidade, uma alternativa que tem surgido e o mapeamento ontologico. Isto e, desenvolver mecanismos no banco de dados relacionais que executem funcoes proximas a de ontologias e ainda resguardem os dados. Nesse breve contexto, observou-se a necessidade de desenvolver uma abordagem para mapear uma ontologia do dominio biomedico para um banco de dados relacional de modo que o mesmo auxiliasse o processo decisorio no diagnostico da doenca renal cronica. Objetivos: O objetivo geral desta proposta e apresentar uma abordagem para mapeamento de ontologia no dominio biomedico para banco de dados relacionais com suporte a decisao clinica e enfase no processo de diagnostico da DRC. Metodos: Para desenvolver esse estudo foram definidas etapas metodologicas que envolvem a construcao do conhecimento, a modelagem dos dados, a execucao do mapeamento e a validacao da tecnica desenvolvida. Inicialmente foi realizado o levantamento bibliografico para refinar o conhecimento necessario e compreender o objeto em estudo. Em seguida foram elaboradas as regras de mapeamento e executado as etapas da modelagem de dados, resultando no mapeamento ontologico. Resultados: A principal contribuicao apresentada e o DB-Ontology, um banco de dados relacional eficiente para suporte a decisao clinica no processo de diagnostico da DRC. Essa abordagem permite a persistencia de dados no banco e preserva a semantica da ontologia de dominio biomedico. O DB-Ontology e resultado do mapeamento ontologico proposto. Conclusao: Com a execucao das etapas definidas na metodologia, foi possivel mapear as principais classes da OntoDecideDRC para o DB-Ontology. Alem disso, foi possivel compreender a realidade na Unidade de Saude da Familia (USF), de modo que, tal realidade fosse adaptada a hierarquia da ontologia e consequentemente refletisse no banco de dados relacional que foi desenvolvido. Embora a literatura seja carente de estudos de mapeamento ontologico com uso de stored procedures, foi possivel desenvolver uma abordagem eficiente e capaz de dar suporte a decisao clinica, bem como, adapta-la a outros dominios com um grau maior de esforco.
  • HICARO FELIPE BRASILEIRO DE MACEDO SILVA
  • Um modelo de adaptação para Serious Games Educacionais baseado na avaliação de habilidades do jogador
  • Date: Apr 26, 2019
  • Time: 09:00
  • Show Summary
  • A Teoria do Espaco de Conhecimento Baseado em Competencia (do ingles Competence- based Knowledge Space Theory, CbKST) possibilita a avaliacao das habilidades do jogador atraves da observacao de sua performance em Serious Games Educacionais (SGE). Dadas as informacoes sobre as habilidades de jogador, um SGE pode se adaptar as capacidades de cada pessoa. Embora seu uso seja pertinente no processo de adaptacao, a concepcao do CbKST tem como escopo a avaliacao de habilidades cognitivas do individuo. Esse aspecto e limitante pois desconsidera fatores educacionais como habilidades afetivas ou ate psicomotoras do jogador. Ademais, modelos de adaptacao para SGE tem seu foco na escolha e apresentacao de fases tendo em vista a adequacao as habilidades do individuo. Nesse sentido, seus criterios nao explicitam heuristicas que buscam a otimizar a experiencia do jogador, tais como ajuste de dificuldade e progressao do jogo. Dessa forma, o presente trabalho tem como objetivo a proposta de um modelo de adaptacao para SGE capaz de avaliar as habilidades cognitivas, afetivas e psicomotoras e a partir delas realizar o sequenciamento de fases do jogo, tendo em mente a manutencao da dificuldade do jogo . O modelo proposto utiliza a Taxonomia de Bloom juntamente com a hierarquia de Dave do dominio psicomotor como fundamentacao para a modelagem de habilidades e propoe um metodo proprio para avaliacao das habilidades do jogador. Para validacao do modelo foi feita a sua aplicacao no Caixa de Pandora, um SGE que lida com aspectos cognitivos e afetivos atraves do tema violencia domestica contra a mulher.
  • JOSIMAR TAVARES DE ASSUMPÇÃO FILHO
  • A Chaos-Based DDoS Attack Detection Technique Using Maximum Density
  • Date: Feb 28, 2019
  • Time: 15:00
  • Show Summary
  • Distributed Denial of Service (DDoS) attacks are one of the biggest problems affecting the stability of the Internet, and an early detection of the attack is still an important factor for mitigation measures. In this work, we present an algorithm that analyzes and detects DDoS attacks in the network data flow. He uses the technique Density of Maxima, based on the Chaos Theory. The experiments were carried out using data containing computer traffic created with JMeter tool and real data from the 1998 World Cup, the data sets of CAIDA 2007 and DARPA 2009. All experiments demonstrated the accuracy of the technique in identifying the time at which the attacks occurred, as well as its ability to be used together with a DDoS detection algorithm.
  • ARIANE VENTURA DE SOUSA FALCÃO
  • FUZDETECT: SISTEMA DE DETECÇÃO E CLASSIFICAÇÃO DE ATAQUES DE NEGAÇÃO DE SERVIÇO
  • Date: Feb 25, 2019
  • Time: 11:00
  • Show Summary
  • Com o aumento da quantidade de dispositivos conectados a Internet, a rapidez, assim como, o dinamismo na troca de informacoes foi promovido, junto com uma maior interatividade entre as partes da comunicacao. Embora tal aumento tenha trazido convergencia imediata na troca de informacoes, um dos grandes efeitos colaterais acarretados por essa nova visao do modelo da Internet, conhecido como Internet das Coisas, e a facilidade na perpetracao do acesso destes dispositivos, uma vez que, os mesmos, em grande maioria, nao apresentam aparatos de seguranca essenciais em sua implementacao. Ocasionando assim, em um cres- cimento discrepante na magnitude de ataques ja existentes, como os Ataques de Negacao de Servico Distribuidos. Ataques de Negacao de Servico variam de acordo com a sua natureza, entretanto, estes possuem em comum o objetivo de impedir o alvo de atender novas solici- tacoes e similaridade com o trafego legitimo. Diante destes desafios, este trabalho propoe o FuzDetect. O FuzDetect nao so alerta quando um ataque ocorre, mas tambem o classifica. O FuzDetect se inicia por meio da coleta de dados em uma Rede Definida por Software, de forma leve, sem a necessidade da inspecao de pacotes tradicionais. Em seguida, tais meta- dados serao repassados para uma base de dados, a fim de torna-los persistentes. Na etapa final, um sistema de classificacao, implementado com logica fuzzy, ira analisar os ultimos metadados de fluxos coletados e entao os classificara em subtipos de ataque ou em trafego legitimo. Tal sistema e capaz de se adaptar ao trafego da rede de forma dinamica, com o apoio da Otimizacao por Enxame de Particulas. Os resultados gerados foram extraidos a partir de testes em redes com topologias e configuracoes de trafego diferentes, os mesmos tambem foram gerados com e sem o uso da otimizacao adaptativa via Otimizacao por En- xame de Particulas, demonstrando assim, a eficiencia da proposta, em que, nos casos em que a otimizacao foi usada, os trafegos, posteriormente classificados, apresentaram a saida aproximada correta, em todos os casos.
  • DENYS ALEXANDRE BARBOZA DA SILVA
  • DICOMFLOWACCESS: CONTROLE DE ACESSO PARA COMPARTILHAMENTO DE IMAGENS MÉDICAS EM AMBIENTE ABERTO E DISTRIBUÍDO
  • Date: Jan 31, 2019
  • Time: 14:00
  • Show Summary
  • A necessidade da formacao de associacoes entre entidades das mais diversas areas de atuacao para compartilhamento de informacoes torna-se cada vez mais comum. Essas associacoes podem nao possuir longa duracao, normalmente sao estabelecidas para uma atividade pontual, e requerem facil configuracao. Assim tambem acontece na telerradiologia, vertente da telemedicina que utiliza a tecnologia da informacao para emissao de diagnostico a distancia atraves do compartilhamento de imagens medicas. As solucoes atuais para pratica da telerradiologia estao bem consolidadas em um ambiente de rede local ou que esteja sobre um mesmo dominio de seguranca. Porem, para a pratica de telerradiologia em um ambiente global essas solucoes ja estabelecidas passam por uma serie de limitacoes e necessitam de evolucao. O controle de acesso para o compartilhamento de informacoes em ambiente aberto e distribuido e uma dessas evolucoes. Para uma comunicacao no contexto global e inevitavel utilizar a infraestrutura da Internet, uma infraestrutura aberta, amplamente distribuida, descentralizada e insegura. Os mecanismos atuais de controle de acesso mostraram-se limitados para atuarem em uma infraestrutura da informacao com o dinamismo e a complexidade da Internet. Desta forma, o objetivo deste trabalho foi elaborar o DicomFlowAccess (DFA), um modelo de controle de acesso assincrono, que atua em ambiente aberto e distribuido, e que faz uso de certificados digitais e comunicacao criptografada para apoiar o compartilhamento de imagens medicas entre entidades de saude que queiram associar-se para a realizacao de atividades, como a solicitacao e emissao de laudo a distancia, armazenamento remoto ou processamento de imagens medicas. O DicomFlow, que e um gateway projetado para auxiliar o compartilhamento de imagens medicas de forma assincrona e descentralizada foi a infraestrutura escolhida para implementar o DFA. Todavia, existem limitacoes que diminuem a capacidade de escalabilidade da solucao, como a base de dados ser centralizada. O DFA ira substituir a forma de como o DicomFlow implementa o controle de acesso durante compartilhamento de imagens medicas.
  • EDUARDO FARIAS BRINDS-LEY FOX
  • DETECTANDO ATAQUES SYN-FLOODING EM REDES DEFINIDAS POR SOFTWARE
  • Date: Jan 31, 2019
  • Time: 10:00
  • Show Summary
  • Com a quantidade de informacoes disponiveis na Internet, curiosos podem facilmente reali- zar um ataque DoS apenas seguindo um tutorial disponivel, sem precisar ter muito conheci- mento computacional para esta acao. O Syn-flooding e um ataque simples de ser realizado, porem tem consequencias desastrosas, podendo impossibilitar o acesso a um site ou ou- tros recursos em uma rede. Em Redes Definidas por Software(SDN), este tipo de ataque pode parar uma rede por completo, a partir da negacao do servico do proprio controlador. Este trabalho propoe uma deteccao de ataques Syn-flooding, em uma rede SDN, atraves da medicao da variacao da quantidade de fluxos em um intervalo de tempo pre-estabelecido, auxiliando ao administador de rede a realizar acoes corretivas e preventidas a partir da de- teccao do ataque. Para a realizacao da proposta, foi desenvolvida uma ferramenta chamada FindFlows que exibe uma lista de todos os hosts ativos em uma rede SDN, informando a quantidade de fluxos de cada host em intervalos de tempo diferentes, a variacao dos fluxos nesses intervalos e, por fim, se houve ou nao ataque Syn-flooding.
  • JOANACELE BANDEIRA DE MELO
  • Low Cost System for Capturing Aerial Images and Detecting Anomalies in Real-Time Plantations
  • Advisor : ALISSON VASCONCELOS DE BRITO
  • Date: Jan 31, 2019
  • Time: 10:00
  • Show Summary
  • This work presents a system with low cost for capturing air images and deweaving anomalies in real time. A fully autonomous fixed-ayd (Aereo Nao Manned Vehicle) UAV was developed for overflight in the plants. As validacaof the system, two case studies are presented. The two take place in sugarcane plantations near the coast of Paraiba. Being the first in an ingenuity that produces still cachaca and the second in a plantation in a controlled environment. The IVDN (Normalized Diferenca Vegetacao Index) is used as a support in the detection of anomalies. In addition to the vigor of the planting, elements such as hydrius insuficience and exposed soil were identified by the system. It has been found that it is possible to detect regions of interest during the flight, and in addition one can have a forecast on plant productivity based on IVDN.
  • ANA PATRÍCIA DE SOUSA
  • FRAMEWORK PARA SUPORTE À EVOLUÇÃO DE ONTOLOGIAS BIOMÉDICAS
  • Date: Jan 31, 2019
  • Time: 08:00
  • Show Summary
  • As Ontologias Biomedicas crescem continuamente e por isso necessitam ser refinadas ao longo do seu ciclo de vida. Nas Ontologias Biomedicas, pequenas alteracoes podem causar efeitos inesperados em grandes partes da Ontologia, isso pode ser explicado pela sua alta complexidade e pelo fato de serem, em geral, maiores que as Ontologias de outros dominios. O processo de refinamento para que as Ontologias sejam adaptadas as mudancas ocorridas em suas fontes de conhecimento se chama evolucao de Ontologias. Nesse contexto, no presente trabalho foi construido um framework conceitual para auxiliar desenvolvedores de Ontologias Biomedicas durante seu processo de evolucao. Seu objetivo principal e oferecer sugestoes validadas de atividades e ferramentas para apoiar a evolucao de Ontologias Biomedicas. O framework definido esta dividido em 5 fases compreensivas e bem definidas denominadas Planejamento da Evolucao, Implementacao de Mudancas, Deteccao de Mudancas, Tratamento de Inconsistencias e Auditoria de Mudancas. O framework foi validado por meio de um estudo de caso onde o mesmo foi aplicado a tres versoes de uma Ontologia sobre a Doenca Renal Cronica (DRC) submetida a evolucao em tres perspectivas baseadas em tres motivos de evolucao: a mudanca do foco da Ontologia, mudancas para refletir alteracoes em suas diretrizes de dominio e mudancas relativas a terminologia de referencia da Ontologia. A consistencia da Ontologia utilizada no estudo de caso foi verificada por meio da aplicacao de consultas SPARQL baseadas em Questoes de Competencia pre-definidas pelo especialista do dominio da Ontologia. O framework desenvolvido possui como principal beneficio o provimento de recursos para apoiar todo o processo de evolucao, desde a representacao da mudanca ate a verificacao da conformidade da Ontologia evoluida com o plano de evolucao. Com base nos resultados dos experimentos realizados pode-se concluir que o framework permitiu manter organizado e compreensivo o processo evolutivo da Ontologia utilizada. A organizacao e compreensao fornecida pelo framework sao importantes pois facilitam a recuperacao de informacoes caso haja a necessidade de refazer alguma mudanca. Os relatorios fornecidos como saida das atividades que compoem os subprocessos do framework, alem de subsidiar a realizacao das atividades as quais sao dados como entradas, podem ser utilizados como ferramentas de predicao de mudancas, por meio das quais as mudancas recorrentes podem ser identificadas, o que pode ajudar na definicao previa de estrategias de aplicacao de mudancas bem como de correcao de erros identificados durante a validacao da Ontologia.
  • MARIA TATIANE DE SOUZA BRITO
  • UM PLUGIN DO TIPO REPORT PARA A IDENTIFICAÇÃO DO RISCO DE EVASÃO NA EDUCAÇÃO SUPERIOR À DISTÂNCIA QUE USA TÉCNICAS DE VISUALIZAÇÃO DE DADOS
  • Date: Jan 17, 2019
  • Time: 10:00
  • Show Summary
  • Este trabalho pertence ao campo de pesquisa educacional conhecido como Learning Analytics e tem como objetivo propiciar um sistema que apresente alunos em situacao de risco de evasao no Ambiente Virtual de Aprendizagem (AVA) Moodle. O sistema utiliza indicadores sociais, cognitivos e comportamentais, criados com base em dados do AVA, e os exibe por meio de uma ferramenta de visualizacao de dados. Os AVAs geram relatorios e logs sobre as atividades dos alunos, todavia eles geralmente sao de dificil compreensao para tutores, professores e gestores educacionais. Assim, nao permitem a identificacao de problemas de evasao de forma mais objetiva. Diante disso, acredita-se que a utilizacao de uma solucao que colete dados de indicadores referentes aos acessos, as interacoes e as notas dos alunos num AVA, e os apresente por meio de infograficos, pode ajudar professores, tutores e gestores a identificar alunos que possam estar em vias de abandonarem um curso a distancia. Concebeu-se e se implementou um plugin do tipo report (relatorio) para o AVA Moodle contendo funcionalidades de filtros, envio de notificacoes e graficos interativos gerados pela ferramenta Google Charts. Para avaliar o plugin foram feitas analises qualitativas atraves da realizacao de um grupo focal com professores, tutores e gestores de um curso a distancia. Concluiu-se que o plugin proporciona uma melhoria na percepcao desses profissionais sobre alunos que estao em risco de evasao. Considerou-se que o desenvolvimento de ferramentas de Learning Analytics necessita priorizar dados estrategicos de alunos, tais como dados de acessos, de interacoes e suas notas em disciplinas, pois estes podem auxiliar profissionais na identificacao do risco de evasao de alunos.
  • RENATO RICARDO DE ABREU
  • Um ambiente para teste e diagnóstico de drone usando Cossimulação
  • Date: Jan 16, 2019
  • Time: 10:00
  • Show Summary
  • Veículos aéreos não tripulados (VANT), também conhecidos como drones, são muito importantes para realizar voos sem a necessidade de um piloto no veículo, por isso são programados para executar missões de voos. Entretanto, eles necessitam ser confiáveis para executá-las. Então, com a realização de diagnósticos do estado do VANT, é possível prever falhas durante ou antes da execução do voo.O objetivo deste trabalho é apresentar um ambiente de teste, para analisar e avaliar drones durante o voo em ambiente fechado. Para este propósito, o framework Ptolemy II foi estendido para comunicação com drones reais usando o HLA (High Level Architecture). O ambiente de teste apresentado é extensível para outras rotinas, e pronto pra integração com outras ferramentas de simulação e análise. Para testar o ambiente foram realizados dois experimentos de detecção de falhas, com um total de 20 voos realizados para cada um deles. Destes 20 voos, 80% foram utilizados para treinar um algoritmo de árvore de decisão, e os outros 20% voos para testar o algoritmo em que uma das hélices possuía anomalia. A taxa de acerto ou detecção de falha foi de 70% para o primeiro experimento e de 90% para o segundo experimento.
2018
Description
  • HÁLAMO GIULIAN REIS DE ANDRADE
  • Uma abordagem para geração de imagens baseada no uso de GPU e redes neurais artificiais
  • Date: Dec 14, 2018
  • Time: 16:30
  • Show Summary
  • Dependendo do tipo e da complexidade de um projeto de sistema, algumas tarefas podem demandar muitos recursos computacionais. Por exemplo, no processo de verificação funcional de um projeto de visão computacional, comumente é necessário um esforço considerável. Muitas vezes, mesmo com todos os custos envolvidos, a confiabilidade do projeto não pode ser negligenciada. Mas, para tentar balancear essas forças algumas estratégias podem ser aplicadas, como o uso de conjuntos de imagens para realizar a verificação estrategicamente. Assim, o presente trabalho propõe uma metodologia para geração de imagens, a fim de ampliar um conjunto de imagens inicial. A proposta a ser apresentada foi projetada de forma genérica o suficiente para trabalhar com vários tipos de imagens e também permitir criar um conjunto de imagens a partir de imagens iniciais. A geração de imagens consiste basicamente em duas formas: geração por deformação e geração por rede neural. Como prova de conceito, foram realizados experimentos com a geração de imagens de dígitos manuscritos. Para executar este processo de forma eficiente, foi projetado com CUDA e bibliotecas otimizadas para GPU com módulos específicos do TensorFlow. Ao final, a partir dos resultados obtidos é possível verificar se o processo é viável e mensurar o quanto a GPU otimizou o desempenho em comparação com uma versão não paralela.
  • RANIERE FERNANDES DE MEDEIROS
  • Um Estudo sobre a Eficiência dos compiladores da Linguagem GO com o Auxílio de Algoritmos Genéticos
  • Date: Dec 12, 2018
  • Time: 16:00
  • Show Summary
  • A linguagem Go e uma das linguagens mais novas da atualidade com um crescente aumento de popularidade na industria de software. Ela e definida por uma especificacao e implementada por dois compiladores com propostas diferentes para assegurar que a especificacao esteja correta e completa. O compilador gc foca na compilacao rapida e poucas otimizacoes enquanto que o gccgo foca na utilizacao das otimizacoes do GCC sem se preocupar com o tempo gasto na compilacao. Este trabalho propoe um estudo com objetivo de construir um algoritmo genetico que auxilie na identificacao de situacoes em que o gccgo possa ser mais performatico que o Go Compiler. Resultados mostram que o Go Compiler e em media 24,7 vezes mais performatico no tempo de execucao e com tamanho de executavel em media de 33,86 vezes maior que o executavel gerado no gccgo utilizando um subconjunto de opcoes de otimizacao.
  • JOÃO MARTINS DE OLIVEIRA NETO
  • VideoLib: Um middleware escalável para o desenvolvimento de aplicações multimídia de tempo real
  • Date: Aug 30, 2018
  • Time: 16:00
  • Show Summary
  • Nos ultimos anos, tem-se observado um aumento na oferta e demanda de aplicacoes baseadas na disseminacao de video pela internet. Com a popularizacao dessas tecnologias, outras areas do conhecimento comecaram a utilizar suas funcionalidades, surgindo assim ambientes colaborativos que utilizam o video como meio principal na troca de informacao. De videoconferencias ate transmissoes educacionais voltadas para a telemedicina, as etapas de configuracao e implantacao dessas aplicacoes costumam tomar muito tempo, alem de comumente limitarem o numero de participantes em uma mesma sessao. Este trabalho propoe uma arquitetura escalavel e um middleware que a utiliza que permitem o rapido desenvolvimento e implantacao de aplicacoes de compartilhamento de video em tempo real. Ele possui etapas de implantacao mais simples que solucoes tradicionais e suporta um numero grande de usuarios produzindo e consumindo videos simultaneamente.
  • JONATHAN LINCOLN GANDHI ANDRADE PIRES BRILHANTE
  • Uma Abordagem para Construção de Microsserviços Reativos Baseada em Filas Assíncronas
  • Date: Aug 30, 2018
  • Time: 14:30
  • Show Summary
  • Atualmente, vivemos a consolidacao da globalizacao, na qual a grande maioria das corporacoes atua com servicos fornecidos atraves da internet. Nestes, nao apenas o acesso, mas tambem o provisionamento de recursos fisicos, e feito de forma distribuida (na nuvem, por exemplo). Ainda que lentamente, a atividade de implementacao e as estrategias de implantacao comecam a acompanhar tais tendencias. Para alcancar um provisionamento dinamico e escalavel em grandes aplicacoes, emerge uma nova abordagem chamada de Microsservicos (MS). No entanto, as arquiteturas de MS estao em seu inicio, sendo ainda mais um conceito do que um padrao de design completamente maduro. Um dos topicos mais dificeis nesta abordagem esta em como migrar ou desenvolver adequadamente um unico microsservico em termos de escopo, eficiencia e confiabilidade. Nesse sentido, este trabalho propoe um novo modelo de arquitetura baseado em padroes de alto nivel da programacao reativa para estruturar internamente um microsservico. Este novo modelo de microsservico e coordenado por filas assincronas, o que permite preservar a compatibilidade com a maioria dos componentes monoliticos e fornecer um processo de encapsulamento para permitir a sua continuidade. Um estudo comparativo entre a abordagem padrao e a arquitetura proposta foi realizado a fim de mensurar os impactos da estrategia proposta em aspectos chave do servico, como resiliencia, elasticidade e desempenho.
  • HERSON HERACLES BARRETO E DAMASCENO
  • DICOMAddress: modelo distribuído de endereçamento de imagens para uma infraestrutura de informação telerradiológica.
  • Date: Aug 29, 2018
  • Time: 10:00
  • Show Summary
  • E sabido que a utilizacao da telerradiologia esta cada vez mais presente em hospitais e clinicas e que estudos sao localizados entre eles via URLs. E importante salientar que estes estudos precisam estar disponiveis por varios anos (decadas) e tais URLs devem permitir o acesso a eles no futuro, mesmo que a localizacao efetiva dos estudos tenha sido mudada. Este trabalho propoe um modelo de enderecamento de estudos (exames) de imagens medicas para uma infraestrutura de informacao telerradiologica. Utiliza o protocolo Named Data Networking (NDN), que tem como premissa basica a nomeacao de objetos para sua descoberta e recuperacao, ou seja, o enderecamento deixa de ser baseado em localizacao e passa a ser apoiado no nome dado a cada objeto. O objetivo deste trabalho e propor o DICOMAddress, uma camada que faz o elo entre o DICOMFlow e a implementacao do NDN, o NDN Forwarder Daemon, para a localizacao de objetos trafegados sem modificar o fluxo de trabalho. Ele pretende ser incorporado ao protocolo de distribuicao de estudos medicos DICOMFlow, que e assincrono, distribuido e utiliza URLs para a localizacao de estudos. Este modelo nao pretende mudar a forma de transferencia de imagens, e sim tem o objetivo de nomear estes exames para que possa gerar uma URL valida para a transferencia destes. Para a validacao do modelo, foi criado um prototipo onde foram efetuados experimentos em ambiente simulado a fim da validacao do modelo proposto. Concluiu-se que o modelo proposto atende as necessidades do DICOMFlow e obteve exito ao retornar a URL com a localizacao das imagens requisitadas.
  • CARLOS ALBERTO DE SOUZA
  • UMA METODOLOGIA PARA CONSTRUÇÃO DE REDES BAYESIANAS COM BASE EM ONTOLOGIAS DE DOMÍNIO NA ÁREA DA SAÚDE PARA SUPORTE À DECISÃO CLÍNICA
  • Date: Aug 27, 2018
  • Time: 16:00
  • Show Summary
  • Por meio da uniao de duas abordagens da Inteligencia Artificial, Representacao do Conhecimento por meio de ontologias, e o tratamento de informacoes incompletas por meio do uso de Redes Bayesianas (RBs), este trabalho possui como objetivo criar uma metodologia para a construcao de RBs com base em ontologias de dominio da area da saude, com o intuito de fornecer suporte a decisao clinica. Para avaliar a metodologia criada, esta foi aplicada a uma ontologia do dominio da Nefrologia, mais especificamente sobre a Doenca Renal Cronica (DRC), a partir da qual foi construida uma RB. Para a obtencao das probabilidades da rede gerada foram utilizados casos clinicos reais de uma base de dados de pacientes do Hospital Universitario Lauro Wanderley no Estado da Paraiba (HU). Para tal, foram utilizadas tecnicas como: especificacao direta de probabilidade, probabilidade marginal e probabilidade condicional. Desta forma foi feita a construcao da tabela de probabilidade dos nos da RB. Diante dos resultados obtidos com a avaliacao experimental, onde foi aplicada da metodologia definida neste trabalho, foi possivel observar a criacao de novos conhecimentos a partir de conhecimentos preexistentes. A rede gerada possibilitou ainda a extracao de conhecimento probabilistico de uma ontologia pelo uso da RB, possibilitando a obtencao de conhecimentos nao fornecidos pela ontologia devido a informacoes inexistentes e/ou incertas.
  • JURACY REGIS DE LUCENA NETO
  • DICOMStudio: Plataforma Multidomínio para a Telerradiologia
  • Date: Aug 27, 2018
  • Time: 14:30
  • Show Summary
  • A telerradiologia permite a recuperacao de exames de imagens medicas em uma localidade e transmiti-los a distancia para fins de diagnostico. Entretanto, as formas de integracao do workflow da telerradiologia possuem limitacoes tecnologicas e sociais, dificultando a formacao de uma plataforma de comunicacao comum entre entidades e medicos. O objetivo deste trabalho e propor o DICOMStudio, uma plataforma multidominio, aberta, assincrona e flexivel para a telerradiologia. Para isso, projetou-se um modelo arquitetural com base no DICOMFlow (uma infraestrutura assincrona, assimetrica e descentralizada para a pratica da telerradiologia) e construiu-se um aplicativo para transmissao de laudos pelos medicos e controle das informacoes pela clinica. Desta forma, estao sendo realizados testes, em carater preliminar, para avaliar a viabilidade tecnica e operacional da plataforma. As simulacoes ocorrem com o auxilio de um medico radiologista e uma clinica real. A plataforma DICOMStudio proporciona a integracao do workflow radiologico, integrando medicos radiologistas e clinicas, contornando uma serie de limitacoes tecnicas e sociais.
  • RENAN SOARES DE ANDRADE
  • AnyLanguage-To-Libras: Avaliação de um Serviço de Tradução Automática de Várias Línguas Orais para Língua Brasileira de Sinais
  • Advisor : TIAGO MARITAN UGULINO DE ARAUJO
  • Date: Aug 27, 2018
  • Time: 10:00
  • Show Summary
  • Pessoas surdas comunicam-se naturalmente atraves de linguas gestuais, denominadas linguas de sinais (LS). Em virtude disso, eles possuem dificuldades para compreender informacoes na lingua oral de seu pais, seja escrita ou falada. Como consequencia disso, o acesso a informacoes em linguas estrangeiras e uma tarefa ainda mais complicada. Entre as abordagens para solucao do problema, uma das mais promissoras consiste no uso de tradutores automaticos de conteudos escritos ou falados para linguas de sinais, atraves de um avatar 3D. No entanto, grande parte dessas traducoes automaticas sao focadas em traduzir uma lingua oral de entrada em uma lingua de sinais especifica. Para expandir o numero de linguas orais em que os surdos brasileiros podem ter acesso ao conteudo, o presente trabalho investiga o uso de mecanismos de traducao previa text-to-text e text-to-gloss para oferta de um servico para traducao automatica de conteudos digitais (texto, audio ou video, por exemplo) em varias linguas orais para Lingua Brasileira de Sinais (LIBRAS). Para validar a solucao proposta, um prototipo, utilizando a Suite VLibras, foi construido. Um conjunto de testes computacionais e com usuarios foi realizado para verificar se a solucao proposta possibilita uma compreensao adequada ao conteudo em linguas estrangeiras
  • CARLOS MAGNO DE OLIVEIRA ARAUJO
  • UM MODELO DE OTIMIZAÇÃO PARA O PROBLEMA DE ALOCAÇÃO DE ROTA E ESPECTRO EM REDES ÓPTICAS ELÁSTICAS
  • Date: Jul 30, 2018
  • Time: 14:30
  • Show Summary
  • As redes opticas elasticas surgiram como uma alternativa as tradicionais redes opticas WDM, em que o espectro optico e organizado em comprimentos de onda estaticos. Tecnologias recentes permitiram uma nova maneira de usar o espectro optico, dividindo-o em faixas subportadoras de baixa taxa de transmissao que admitem sobreposicao por ortogonalidade (OFDM). Essa nova abordagem levou a necessidade de algoritmos capazes de lidar com a exibilidade das redes opticas elasticas. O problema RSA, provado ser NP-dificil, visa a utilizac~ao e ciente do espectro optico no atendimento de demandas de trafego nesse tipo de rede. Este trabalho propoe um novo modelo de programacao linear inteira baseada em fluxos com multiplas comodidades e um algoritmo heuristico para uma versao do problema RSA. Resultados mostram que ambas as abordagens apresentaram bom desempenho quando comparadas a principal abordagem na literatura pata o problema tratado.
  • MAYRTON DIAS DE QUEIROZ
  • SmartSubway: Um Sistema Colaborativo para Apoiar o Estudo da Eficiência Energética em Trens Urbanos no Contexto de Cidades Inteligentes
  • Date: Jul 30, 2018
  • Time: 08:00
  • Show Summary
  • Com o aumento populacional torna-se cada vez mais necessario o desenvolvimento de solucoes que reduzam os impactos gerados pelo aumento no consumo de recursos naturais. A adocao dos transportes eletricos, como trens urbanos, e uma alternativa para a diminuicao de gases poluentes na atmosfera e a reducao na ocupacao do espaco urbano. No entanto, com a utilizacao de trens eletricos surge o problema do gasto energetico, que precisa de solucoes sustentaveis. Esse trabalho tem como objetivo criar um metodo generico para apoiar especialistas de forma colaborativa, na busca de um perfil de velocidade (do ingles, speed profile) que reduza gastos energeticos. Esta abordagem e baseada nos Algoritmos Geneticos da Inteligencia Artificial, onde os especialistas podem inserir informacoes sobre o dominio, colaborando entre si, e de forma que se possa obter vantagens reais com o uso dessa conhecida e comprovadamente eficiente meta heuristica usada para problemas de otimizacao. A fim de obter uma prova de conceito, foi desenvolvido um sistema colaborativo, denominado SmartSubway. Para validacao do sistema e considerado um estudo de caso onde sao capturados dados referentes ao trajeto de um trem, e analises sao realizadas por meio de experimentos com diferentes configuracoes dos algoritmos geneticos. Como resultados o sistemas indica os perfis de velocidade com menores gastos energeticos. Trazendo assim beneficios ambientais, economicos e de conforto em mobilidade urbana, no contexto de solucoes para Cidades Inteligentes.
  • AUGUSTO DE HOLANDA BARRETO MARTINS TAVARES
  • Controle Preditivo Não-Linear Baseado em Modelo Aplicado a Formações de Robôs Móveis com Seleção Dinâmica de Líder
  • Date: Jul 26, 2018
  • Time: 10:00
  • Show Summary
  • Esta pesquisa apresenta uma arquitetura de controle distribuído para controle de formações de robôs, aplicando uma versão modificada do algoritmo de controle do NMPC com uma função custo genérica, que permite a incorporação da camada comportamental ao controlador, mantendo ou melhorando a precisão do algoritmo. Também propõe uma estrutura que permite um processo de seleção de líder dinâmico para a formação de robôs. São apresentados de maneira breve os conceitos teóricos que fundamentam o texto e o estado da arte, contendo as referências que foram utilizadas como base para o trabalho. As modificações do NMPC e a estrutura proposta são elaboradas e são mostrados os resultados tanto em ambiente simulado quanto experimental, validando a efetividade dos conceitos desenvolvidos.
  • SARAH PONTES MADRUGA
  • Projeto de Sistema de Controle Embarcado para Controle de Voo de Quadricópteros
  • Date: Jul 24, 2018
  • Time: 10:00
  • Show Summary
  • Neste trabalho, foi desenvolvido um projeto de sistema embarcado para uma controladora de voo aplicada a quadricópteros. Com componentes acessíveis e de baixo custo, arquitetura e software abertos, ele torna possível a implementação e teste de diversos algoritmos de controle pelo usuário, diferenciando-se das alternativas hoje existentes no mercado. Para tal, há um sensoriamento para a captura e registro da odometria do drone, os comandos são passados para os motores via Modulação por Largura de Pulso, e o processamento é feito em uma Raspberry Pi 3.
  • GEORGENES DE ARAÚJO LIMA
  • Uma Abordagem para Seleção Automática de Bugs em Projetos de Software Baseados em Componentes
  • Date: Jul 11, 2018
  • Time: 09:00
  • Show Summary
  • Vive-se uma epoca em que a tecnologia esta presente em quase todos os processos de trabalho e a demanda por recursos tecnologicos e cada vez mais frequente, com mais mudancas nos sistemas de software, mais requisicoes de manutencao, e, consequentemente, uma maior quantidade de bugs para correcao. Como a correcao de bugs e um dos fatores que impacta na melhoria da qualidade de software, mas representa um alto dispendio de recursos em um projeto de software, a atividade de correcao de bugs representa tambem um obstaculo critico para a manutencao e o desenvolvimento de sistemas. Tendo em vista que a quantidade de bugs pode ser maior que os recursos necessarios para corrigi-los e atualmente as empresas trabalham com entregas antecipadas chamadas de releases que permitem a entrega de partes do software, entao, nas tarefas de correcoes de bugs, os gerentes de projetos podem enfrentar o desafio de selecionar manualmente os bugs a serem corrigidos na proxima versao do produto de software, em geral com base nos criterios de prioridade e severidade indicados nos relatorios de bugs, bem como prazo ou custo. Para tal, os gerentes de projetos adotam ferramentas, denominadas Sistemas de Rastreamento de Bugs, do ingles Bug Tracking Systems (BTS), que estabelecem canais de comunicacao entre fornecedores e clientes. Para sistemas grandes e complexos, nos quais e comum a existencia de um numero consideravel de relatorios de bugs, uma abordagem de selecao de bugs por julgamento ad-hoc de especialistas nao e eficiente e eficaz, representando uma estrategia demorada, intensiva de mao-de-obra e propensa a erros. Neste contexto, explorando tecnicas de Engenharia de Software Baseada em Buscas, do ingles Search Based Software Engineering (SBSE), este trabalho propoe uma abordagem automatizada para a selecao de bugs interdependentes em projetos de software baseados em componentes, adotando um modelo multi-cliente para selecionar os bugs mais relevantes do ponto de vista tanto do produtor de software como de seus clientes, mas com custo total limitado pelo orcamento disponivel no projeto do software. Para avaliacao da proposta, foram realizados dois estudos de casos, onde a estrategia de busca baseada em algoritmo genetico e comparada com as estrategias baseadas em algoritmo exaustivo e algoritmo randomico, e, de forma mais realista, tambem comparada com a selecao baseada no conhecimento e experiencia de analistas de sistemas. Os resultados expressivos que foram obtidos nos estudos de casos expressam a viabilidade, praticidade e efetividade da abordagem proposta.
  • JANALIVIA DO NASCIMENTO CARNEIRO
  • Aplicação de Learning Analytics para Modelagem do Aluno de acordo com a Taxonomia Revisada de Bloom
  • Date: Jun 21, 2018
  • Time: 10:00
  • Show Summary
  • Os Ambientes Virtuais de Aprendizagem (AVAs) sao recursos educacionais resultantes do desenvolvimento tecnologico, sendo uma alternativa para maximizar a capacidade da educacao virtual online. No entanto, a grande maioria dos ambientes de aprendizagem que estao disponiveis para os alunos sao passivos. Tais ambientes sao utilizados principalmente para transmitir documentos multimidia (videos, audios, textos, imagens, etc.) e fornecer formas de avaliar os alunos atraves de questionarios e envios de atividade. Um exemplo de tais sistemas e o Ambiente de Aprendizagem Dinamico Orientado a Objetos Modulares (Moodle). Uma possivel maneira de abordar esse problema e atraves do uso de Sistemas Tutores Inteligentes (STIs). Tais sistemas sao capazes de oferecer suporte adaptativo aos alunos, fornecendo orientacao individual semelhante a um verdadeiro tutor em um modelo de ensino individual. Os STIs viabilizam a oferta de material de instrucao personalizado e suporte adaptativo na educacao, de acordo com as necessidades de cada perfil de aluno, nivel de conhecimento, habilidades cognitivas e competencias nas mais diversas areas de estudo. Neste contexto, este trabalho objetiva investigar as abordagens atuais sobre um dos componentes basicos dos STIs, o Modelo do Aluno. A pesquisa sobre modelagem de alunos e uma questao centralmente importante no projeto de STIs, porque os modelos estudantis desempenham um papel crucial nos STIs. Tais modelos fornecem informacoes uteis sobre o que os alunos entendem, o que permite que os sistemas sejam altamente individualizados. Ao final, este trabalho apresenta a especificacao funcional de um novo modelo do estudante que incorpora dois dos modelos atuais, a fim de aumentar a adaptabilidade de um sistema de aprendizagem online concebido sobre o ambiente Moodle. O modelo proposto utiliza a modelagem dimensional de Learning Analytics para uma classificacao cognitiva do perfil do aluno, de acordo com a Taxonomia de Bloom Revisada.
  • HERCILIO DE MEDEIROS SOUSA
  • Avaliação de Interfaces de Ambientes Virtuais de Aprendizagem: Relacionando Heurísticas de Usabilidade e Padrões de Projeto
  • Advisor : ALISSON VASCONCELOS DE BRITO
  • Date: Jun 21, 2018
  • Time: 09:00
  • Show Summary
  • Os avancos na area de Interacao Humano Computador (IHC), fizeram a tecnologia cada vez mais difundida na sociedade. O surgimento de diversos padroes e normas, de novas tecnicas de avaliacao de interfaces, alem de ferramentas e aplicacoes tem permitido um processo ensino-aprendizagem mais dinamico e interativo atraves do uso de Ambientes Virtuais de Aprendizagem (AVA), porem a diversidade de AVA’s disponiveis, muitas vezes nos impoe a reflexao de qual ambiente possui a melhor qualidade quanto a usabilidade do mesmo. Nesta perspectiva, nossa pesquisa busca interrelacionar as Padroes de Projeto de Welie com as Heuristicas de Usabilidade de Jakob Nielsen, visando comprovar a qualidade das interacoes nos AVA’s Moodle, Canvas e Edmodo. Como resultado, propomos algumas estrategias para correlacionar a avaliacao de interfaces, atraves de heuristicas de usabilidade de Jakob Nielsen, com os padroes de projeto propostos por Welie, para testar a qualidade da usabilidade das interfaces dos AVA’s estudados, validando assim a presente pesquisa atraves de analises estatisticas, corroborando para a verificacao de ate que ponto os AVA’s seguem os Padroes de Projeto e as Heuristicas de Usabilidade.
  • JULIO DANIEL DE CARVALHO MAIA
  • Quantum Scenery: Um Novo Software de Química Quântica Semiempírico Para Sistemas de Memória Distribuída
  • Date: May 29, 2018
  • Time: 09:00
  • Show Summary
  • Modelos moleculares quanticos eficientes computacionalmente sao de extrema importancia no tratamento de biomoleculas e sistemas quimicos complexos. Os esforcos na otimizacao de modelos com mais aproximacoes no calculo foram deixados de lado, visto que os mes- mos possuem uma complexidade computacional inferior. Porem, a utilizacao de modelos quanticos para a previsao de reacoes quimicas muito longas e de processos biologicos obriga a utilizacao de modelos aproximados durante o calculo das propriedades desses sistemas. Nesse trabalho, foi proposto um novo software de quimica quantica computacional semiempirico num paradigma de memoria distribuida SPMD para o calculo de propriedades quanticas, utilizando a biblioteca de algebra linear ScaLAPACK. Resultados preliminares mostram que o software proposto e capaz de reproduzir a energia total semiempirica dos sistemas quanticos de forma acurada. Alem da energia, tambem foi proposto um modulo de otimizacao da geometria dos sistemas moleculares a partir do vetor gradiente da energia, que e capaz de prever geometrias que representam minimos de energia para sistemas menores.
  • RAMON CELESTINO RAMOS MARQUES
  • Novo Algoritmo de Segmentação e Realce de Imagens de Impressões Digitais
  • Date: May 25, 2018
  • Time: 10:00
  • Show Summary
  • A Biometria oferece um mecanismo de autenticacao confiavel utilizando tracos (fisicos ou comportamentais) que permitem identificar usuarios baseados em suas caracteristicas naturais. Servicos biometricos de classificacao e verificacao de usuarios sao considerados, a principio, mais seguros que sistemas baseados em politicas de senha por exigirem a apresentacao de uma caracteristica fisica unica e, portanto, a presenca do usuario ao menos no momento da autenticacao. O reconhecimento por impressao digital e uma das abordagens biometricas mais utilizadas, visto que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, atualmente, o reconhecimento por impressoes digitais ainda e um problema em aberto, uma vez que erros de falsa aceitacao e falsa rejeicao ainda sao encontrados nos algoritmos de comparacao de impressoes digitais. A presente pesquisa tem como objetivo a criacao de metodos para facilitar o processo de extracao de caracteristicas de impressoes digitais, melhorando a qualidade da imagem de entrada atraves da utilizacao de tecnicas inovadoras de segmentacao e realce, buscando reduzir as taxas de erro e alcancar resultados competitivos com algoritmos do estado-da-arte. As maiores contribuicoes deste trabalho foram a criacao dos seguintes metodos: segmentacao da regiao de interesse das imagens de impressao digital, alcancando taxas de erro inferiores aos melhores algoritmos de segmentacao do mundo em 10 de 12 bases de dados avaliadas, obtendo um ganho medio de 5,6% sobre o melhor algoritmo de segmentacao da atualidade; criacao do metodo de extracao de caracteristicas completo, baseado em trabalhos da literatura, realizando, contudo, correcoes e inovacoes em pontos chave para a obtencao de melhores resultados. O metodo de extracao de caracteristicas foi avaliado atraves da submissao do algoritmo para a competicao de verificacao de impressoes digitais (Fingerprint Verification Competition - FVC), obtendo resultados promissores, sendo classificado como o segundo melhor algoritmo entre grupos de pesquisa e o unico algoritmo de origem brasileira. Alem disso, ao ser realizada a comparacao com o algoritmo de realce base desse trabalho, o metodo desenvolvido nesta pesquisa obteve ganhos de 21%. Com o intuito de reduzir ainda mais as taxas de erro e tornar o algoritmo mais competitivo no cenario internacional, almeja-se utilizar conceitos de redes neurais convolucionais em trabalhos futuros.
  • RAMON CELESTINO RAMOS MARQUES
  • Novo Algoritmo de Segmentação e Realce de Imagens de Impressões Digitais
  • Date: May 25, 2018
  • Time: 10:00
  • Show Summary
  • A Biometria oferece um mecanismo de autenticacao confiavel utilizando tracos (fisicos ou comportamentais) que permitem identificar usuarios baseados em suas caracteristicas naturais. Servicos biometricos de classificacao e verificacao de usuarios sao considerados, a principio, mais seguros que sistemas baseados em politicas de senha por exigirem a apresentacao de uma caracteristica fisica unica e, portanto, a presenca do usuario ao menos no momento da autenticacao. O reconhecimento por impressao digital e uma das abordagens biometricas mais utilizadas, visto que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, atualmente, o reconhecimento por impressoes digitais ainda e um problema em aberto, uma vez que erros de falsa aceitacao e falsa rejeicao ainda sao encontrados nos algoritmos de comparacao de impressoes digitais. A presente pesquisa tem como objetivo a criacao de metodos para facilitar o processo de extracao de caracteristicas de impressoes digitais, melhorando a qualidade da imagem de entrada atraves da utilizacao de tecnicas inovadoras de segmentacao e realce, buscando reduzir as taxas de erro e alcancar resultados competitivos com algoritmos do estado-da-arte. As maiores contribuicoes deste trabalho foram a criacao dos seguintes metodos: segmentacao da regiao de interesse das imagens de impressao digital, alcancando taxas de erro inferiores aos melhores algoritmos de segmentacao do mundo em 10 de 12 bases de dados avaliadas, obtendo um ganho medio de 5,6% sobre o melhor algoritmo de segmentacao da atualidade; criacao do metodo de extracao de caracteristicas completo, baseado em trabalhos da literatura, realizando, contudo, correcoes e inovacoes em pontos chave para a obtencao de melhores resultados. O metodo de extracao de caracteristicas foi avaliado atraves da submissao do algoritmo para a competicao de verificacao de impressoes digitais (Fingerprint Verification Competition - FVC), obtendo resultados promissores, sendo classificado como o segundo melhor algoritmo entre grupos de pesquisa e o unico algoritmo de origem brasileira. Alem disso, ao ser realizada a comparacao com o algoritmo de realce base desse trabalho, o metodo desenvolvido nesta pesquisa obteve ganhos de 21%. Com o intuito de reduzir ainda mais as taxas de erro e tornar o algoritmo mais competitivo no cenario internacional, almeja-se utilizar conceitos de redes neurais convolucionais em trabalhos futuros.
  • DANIEL CARDOSO DE MORAIS
  • Um ambiente de verificação funcional distribuído para o desenvolvimento de sistemas embarcados
  • Date: Feb 19, 2018
  • Time: 10:00
  • Show Summary
  • A sincronizacao de componentes distribuidos e heterogeneos em um ambiente de verificacao funcional pode nao ser uma tarefa simples. Alem disso, a verificacao de implementacoes paralelas acrescenta ainda mais complexidade devido a grande quantidade de dados a serem verificados. Este trabalho tem como objetivo apresentar um ambiente de verificacao distribuida que permita a integracao e verificacao de componentes distribuidos e heterogeneos. Para isso, foi utilizado um framework de intercomunicacao, com base no padrao de Arquitetura de Alto Nivel (IEEE 1516). Assim, este trabalho tambem demonstra como a arquitetura proposta abstrai detalhes de comunicacao e sincronizacao para tornar o processo de verificacao funcional em componentes distribuidos o mais direto possivel. Como demonstracao da solucao desenvolvida, um experimento e apresentados para a verificacao funcional do algoritmo integral da imagem em um Hardware in the Loop, alem da verificacao simultanea de sua versao em uma CPU.
  • TULIO ALBUQUERQUE PASCOAL
  • Atacando e Defendendo Redes Definidas por Software
  • Date: Feb 15, 2018
  • Time: 09:00
  • Show Summary
  • Redes definidas por Software (SDN - Software Defined Networks) facilitam o gerenciamento de redes de computadores a partir da separacao do plano de dados, que realiza o encaminhamento de pacotes utilizando switches SDN, e do plano de controle, que define regras (definidas por um controlador central) de como os pacotes devem ser encaminhados e tratados na rede. Contudo, devido a limitacao do numero de regras de encaminhamento que um switch pode armazenar em sua memoria TCAM (Ternary Content-Addressable Memory), redes SDN vem sendo sujeita a ataques de Saturacao (Saturation Attack) e Exaustao da Tabela TCAM (TCAM exhaustion attacks). Nesses ataques os atacantes sao capazes de negar o servico da rede forcando o switch alvo a instalar um grande numero de regras a partir da criacao de grande trafego de pacotes unicos. Esse trabalho mostra que esse pressuposto nao e necessariamente verdadeiro e que redes SDN sao vulneraveis a um novo ataque, chamado Slow-TCAM (Slow TCAM Exhaustion Attack) em que defesas atuais contra ataques de Saturacao e Exaustao da Tabela TCAM nao sao capazes de mitiga-lo por conta de seu trafego relativamente baixo e sua similaridade com trafego legitimo. Nesse trabalho tambem e proposta uma defesa inedita chamada SIFT, baseada em estrategias seletivas, demonstrando sua eficacia contra o ataque Slow-TCAM, obtendo uma disponibilidade acima de 92% para clientes legitimos (no pior caso) quando a rede esta sob ataque com um baixo consumo de memoria e CPU.
2017
Description
  • ALAN BONIFACIO DE PONTES
  • Uso de Predição de Defeitos Aplicada ao Processo de Identificação e Recomendação para Priorização de Bugs
  • Date: Nov 28, 2017
  • Time: 16:00
  • Show Summary
  • A utilizacao de tecnicas computacionais vem aumentando consideravelmente, proporcionando assim um desenvolvimento progressivo da ciencia e da pesquisa cientifica em todas as areas de conhecimento. Os sistemas computacionais auxiliam significativamente neste processo e a qualidade destes sistemas torna-se um fator essencial, pois os softwares estao cada vez mais complexos. Igualmente, para alcancar a qualidade deseja, a etapa de testes de software faz-se necessaria e e primordial que seja executada de forma mais otimizada quanto possivel, pois ja e consenso que esta etapa demanda tempo e dinheiro. Com isso, as tecnicas de predicao de defeitos tem se tornado uma grande aliada em descobrir defeitos de software. Neste trabalho nos apoiamos nas diversas tecnicas de predicao de defeitos disponiveis, bem como nas metricas computacionais encontradas, e a partir da matriz de confusao podemos indicar os modelos mais promissores para predizer os defeitos de software e tambem auxiliar na indicacao das possiveis recomendacoes de priorizacao de bugs. No trabalho e verificada a validacao dos modelos, que sao criados a partir das versoes mais antigas do sistema estudado, aplicando tais modelos nas versoes mais recentes. Ou seja, as versoes mais iniciais do sistema deverao indicar possiveis erros nas versoes futuras do mesmo sistema estudado. Alem disso, tambem e possivel a indicacao automatizada da prioridade do bug encontrado. O principal objetivo e servir de apoio ao time para que este possa priorizar a elaboracao e a execucao dos roteiros de testes nas proximas versoes, bem como indicar, com base em dados historicos, a prioridade do erro encontrado.
  • MATHEUS CORDEIRO DE MELO
  • Novo Método de Classificação Automática de Achados em Mamografias FFDM e SFM utilizando Rede Neural
  • Date: Nov 16, 2017
  • Time: 14:00
  • Show Summary
  • O cancer de mama e o tipo de cancer com maior incidencia entre as mulheres. A mamografia e o exame mais indicado para a deteccao precoce deste cancer, possibilitando a deteccao de lesoes muito pequenas e a visualizacao de ate 90% das anormalidades (massas, calcificacoes, distorcoes de arquitetura). O diagnostico do cancer de mama, atraves do exame de mamografia, consiste em um processo propenso a erros devido, principalmente, as interpretacoes equivocadas dos medicos, consequencia da real dificuldade do procedimento. Sistemas Baseados em Diagnostico por Computador (do ingles Computer-Aided Diagnosis – CAD) podem ser desenvolvidos com o objetivo de ser uma segunda opiniao na identificacao e diagnostico da doenca utilizando imagens mamograficas. Imagens mamograficas podem ser obtidas atraves da mamografia convencional (do ingles Screen-film Mammography - SFM) e da totalmente digital (do ingles Full Fiel Digital Mammography - FFDM), a qual apresenta uma melhor resolucao e esta substituindo gradualmente a SFM. Este trabalho desenvolveu um novo metodo de classificacao automatica de achados mamograficos em benignos ou malignos. Primeiramente, foram selecionados dois bancos, o Digital Database for Screening Mammography (DDSM) que disponibiliza imagens coletadas da SFM e o INbreast que possui imagens obtidas pela FFDM. A seguir, foram selecionadas aleatoriamente imagens com massas mamograficas do DDSM e INbreast. Na etapa de pre-processamento, desenvolveu-se uma nova tecnica de identificacao e eliminacao de ruido baseada na Teoria de Informacao. Apos o pre-processamento, importantes descritores foram extraidos atraves da matriz de Co-ocorrencia de Niveis de Cinza e do metodo Analise de Textura Fractal Baseada em Segmentacao. Por fim, a base de caracteristicas serviu de entrada para o algoritmo classificador rede neural perceptron multicamadas. Considerando o DDSM, o metodo atingiu 93,13% de acuracia, 94,17% de especificidade e 91,23% de sensibilidade. Com o INbreast, atingiu-se 88,37% de acuracia, 83,79% de especificidade e 91,84% de sensibilidade. Os resultados obtidos neste trabalho mostraram-se competitivos com a literatura da area.
  • CLOVIS GARCIA MARCONDES
  • Extração da Frequência Respiratória Utilizando Filtros de Gabor e Transformada Discreta de Fourier em Sistema Baseado em Acelerômetros
  • Date: Sep 29, 2017
  • Time: 14:00
  • Show Summary
  • O monitoramento dos sinais vitais representa um grande avanco no aspecto de prevencao e diagnostico de enfermidades, permitindo que a atencao de profissionais de saude possa ser alertada e acoes mais rapidas possam ocorrer. Para um acompanhamento continuo em situacoes cotidianas, alem do aspecto de conforto na utilizacao, dispositivos ou tecnologias nao-invasivas se fazem necessarios. A frequencia respiratoria e um dos sinais vitais que ainda nao dispoe de opcoes comerciais com tais caracteristicas e, portanto, este trabalho teve por objetivo propor um sistema de aquisicao de dados respiratorios, nao invasivo, baseados em acelerometros tri-axiais que, diferente de trabalhos similares, permita a utilizacao por periodos prolongados, com interferencia minima nas acoes cotidianas do usuario. A construcao de um sistema embarcado baseado em ARDUINO foi considerado como vantagem pela simplificacao do processo de prototipacao, reduzindo os custos e acelerando o desenvolvimento. A aquisicao de sinais se da pela utilizacao de um acelerometro frontal no torax, responsavel pela medicao da movimentacao do tronco, aliado a um outro acelerometro nas suas costas, com o objetivo de medir os efeitos de movimentacao ou mudancas posturais, e pretende preencher uma lacuna presente em trabalhos similares desenvolvidos nos ultimos anos, muito sensiveis a mudancas posturais e movimentacoes. Foram considerados dois metodos de processamento digital de sinal para a extracao da frequencia respiratoria a partir dos dados dos eixos dos acelerometros, sendo o primeiro baseado no Dominio do Tempo, atraves da utilizacao de filtros de Gabor 1D, devido a sua natureza periodica, alem de representar um potencial avanco, ja que geralmente filtros de Gabor sao utilizados predominantemente em processamento de imagens. O segundo, no Dominio da Frequencia, utilizando-se da Transformada Discreta de Fourier, foi introduzido como alternativa de solucao durante a fase experimental, devido aos bons resultados apresentados em testes complementares comparativos realizados. Para validacao da solucao em um contexto de uso cotidiano, a avaliacao experimental considerou a realizacao de testes em diferentes posturas, tendo apresentado bons resultados em ambos os metodos em situacoes de movimentacoes posturais, mas ainda carecendo de melhorias para utilizacao durante a movimentacao do usuario, a serem exploradas em trabalhos futuros.
  • DANILO ALEXANDRE BARBOSA DE ARAUJO
  • DicomFlow: gateway assíncrono e descentralizado para formação de uma infraestrutura de informação para distribuição de imagens médicas
  • Date: Aug 31, 2017
  • Time: 16:00
  • Show Summary
  • A digitalizacao de imagens medicas, o modelo PACS/DICOM e os avancos das tecnologias de informacao e comunicacao proporcionam as condicoes para formar uma infraestrutura para distribuicao de imagens medicas em larga escala. Entretanto, mesmo considerando a grande base instalada PACS/DICOM, nao se observa a formacao de uma infraestrutura de informacao para troca de imagens medicas entre entidades de saude, pois a inercia da base instalada dificulta sua evolucao. Uma infraestrutura de informacao oferece um espaco de compartilhamento de informacoes e colaboracao que permite a associacao espontanea de pessoas, organizacoes e componentes tecnologicos situados em contextos geograficos distintos para desenvolvimento de alguma atividade. O objetivo desse trabalho foi elaborar o DicomFlow, um gateway assincrono, assimetrico e descentralizado, construido sobre a base instalada PACS/DICOM e infraestrutura de e-mail da Internet visando promover a formacao de uma infraestrutura de informacao para a distribuicao de imagens medicas, favorecendo a pratica de trabalho radiologica. Para tanto, especificou-se um protocolo de comunicacao com suporte a servicos de gerencia de exames de imagens DICOM baseado em troca de mensagens assincronas e transmissao de imagens medicas e construiu-se um modelo arquitetural em duas camadas para esse fim. Experimentos em ambiente simulado e ambiente real foram realizados para avaliar a infraestrutura quanto a sua viabilidade tecnica e operacional. Concluiu-se que o DicomFlow possibilita a troca de imagens entre profissionais e organizacoes de saude quaisquer, desde que pertencam a base instalada, fomentando a formacao de uma infraestrutura de informacao para distribuicao de imagens medicas.
  • ALEXSANDRO MARCELINO FERNANDES
  • YPOSTÍRIXI: MODELO DE APOIO BASEADO EM RPG AVENTURA SOLO PARA O DESENVOLVIMENTO DE OBJETOS DE APRENDIZAGEM
  • Date: Aug 31, 2017
  • Time: 14:00
  • Show Summary
  • Com o avanco das tecnologias digitais no meio educacional, os objetos de aprendizagem (OA) se tornaram um elemento importante no processo de ensino aprendizagem. O OA e compreendido como sendo qualquer recurso digital ou nao que possa apoiar a aprendizagem. Considerando a educacao a distancia (EaD), essa tecnologia assume um papel ainda mais relevante, uma vez que se utiliza dos recursos tecnologicos para transmitir o conhecimento. Esse trabalho tem como objetivo propor um modelo de apoio baseado em RPG Aventura Solo para o desenvolvimento de objetos de aprendizagem utilizando o sistema e a mecanica do Role Playing Game, visando prover um componente auxiliador no processo de ensino e aprendizagem, simplificando o processo de elaboracao e construcao dos Objetos de Aprendizagem pelos professores. O modelo proposto foi criado de acordo com as teorias de ensino e aprendizagem de Skinner (1972), juntamente com Levy (1993) no que se refere ao resgate das informacoes proveniente dos estimulos com a associacao de: imagens, sons, palavras-chaves, assim como Hayashi (2003) e Siqueira (2011), com relacao a capacidade de assimilacao de conteudos e a capacidade de decisao. A validacao do modelo proposto sinalizou, a partir da analise dos dados obtidos, que o modelo proposto teve uma aceitacao positiva pelos professores participantes revelando-se como um modelo de apoio relevante no auxilio ao processo de ensino e aprendizagem.
  • DOUGLAS ANDRADE DE MENESES
  • Otimização do algoritmo Non Local Means mediante agrupamento por similaridade no domínio da frequência
  • Date: Aug 31, 2017
  • Time: 14:00
  • Show Summary
  • O algoritmo Non Local Means (NLM) e amplamente utilizado para remocao de alta qualidade de ruido de imagens. Ainda assim, sua complexidade computacional torna-se um obstaculo para a maioria das aplicacoes. Neste trabalho propoe-se uma nova abordagem que visa reduzir o tempo de processamento, sem recorrer a janelas de busca, preservando assim os calculos nao locais que caracterizam o NLM. O metodo proposto usa o algoritmo de agrupamento K-means para agrupar pixels com vizinhancas semelhantes no dominio da Transformada Cosseno Discreta (DCT). Para evitar transacoes severas nas bordas dos agrupamentos, um pixel pode ser atribuido a diferentes clusters. Apos esse passo inicial, o algoritmo NLM executa uma pesquisa baseada em cluster. Os resultados experimentais testificam uma reducao em torno de 19 vezes no tempo computacional e, em alguns casos, melhorias nos valores do Erro Quadratico Medio (MSE), quando comparados ao algoritmo original.
  • MAELSO BRUNO PACHECO NUNES PEREIRA
  • Aceleração de Autômatos Celulares no Contexto de Biologia através de Computação Paralela em GPUs com OpenCL
  • Date: Aug 31, 2017
  • Time: 14:00
  • Show Summary
  • Automatos Celulares (AC) tem suas origens no trabalho de Von Neumann e, desde entao, tornou-se um tema de pesquisa importante com uma ampla gama de aplicacoes, que vao desde modelagem de sequencia de DNA ate a dinamica ecologica. Um aspecto que pode ser interessante durante uma simulacao de AC e a evolucao no numero de individuos de cada especie ao longo do tempo. Esta analise pode fornecer informacoes importantes sobre o dominio de certas especies em um sistema dinamico, ou identificar aspectos que possam favorecer uma ou mais especies em detrimento de outras. As simulacoes de AC podem ser tarefas computacionalmente muito custosas. Dependendo do tamanho do dominio de simulacao, do numero de dimensoes ou do numero de individuos, essas simulacoes podem levar varias horas para serem concluidas. A avaliacao do numero de individuos em cada ciclo de simulacao e uma tarefa igualmente custosa. Varias tecnicas de aceleracao foram desenvolvidas para melhorar o desempenho das simulacoes de AC, e algumas delas levam em consideracao a evolucao no numero de individuos ao longo da simulacao. Neste trabalho, e proposto um simulador de AC eficiente, capaz de avaliar de forma eficiente a evolucao no numero de individuos de cada especie. O alto desempenho e obtido atraves do uso do paralelismo macico de GPUs.
  • TIAGO EMILIO DE SOUSA ARAUJO
  • Avaliando o Desempenho dos Sistemas de Detecção de Intrusão Snort e Suricata em Ataques de Negação de Serviço
  • Date: Aug 31, 2017
  • Time: 08:00
  • Show Summary
  • Os Sistemas de Deteccao de Intrusao sao ferramentas de software baseadas em assinaturas que provem mecanismos para a deteccao e analise de intrusoes em redes. Deteccao de Intrusao e o processo de monitoramento de eventos que ocorrem em uma rede e a analise destes para detectar sinais de intrusao, definidos como tentativas de comprometer a confidencialidade, integridade e disponibilidade da rede. Utilizando um cenario experimental e coletas de trafego em uma Instituicao de Ensino Superior no Brasil, avaliamos o desempenho dos Sistemas de Deteccao de Intrusao Snort e Suricata para a deteccao de ataques de Negacao de Servicos Distribuidos (Slowloris, LOIC-UDP e LOIC-HTTP). Nosso estudo descobriu que o Suricata nao gera um numero adequado de alertas para chamar a atencao do gerente de rede sobre o ataque Slowloris, enquanto Snort o faz. Para os ataques LOIC-UDP e LOIC-HTTP, os referidos sistemas efetuam a deteccao dos ataques de forma eficiente. Foi tambem analisado o consumo de CPU e memoria da maquina-alvo onde operaram os IDS durante os ataques, verificando-se o mostram o esgotamento dos recursos de memoria durante determinados ataques. Finalmente, a analise de trafego off-line revela que a Instituicao de Ensino Superior durante o periodo analisado, estava sob ataques DDoS.
  • VINICIUS ANTONIO CAMPOS FAGUNDES
  • Avaliação de Estratégias de Visualização em Dados Climáticos: Uma Análise através da Perspectiva do Usuário
  • Date: Aug 29, 2017
  • Time: 10:00
  • Show Summary
  • Dados climaticos assim como suas previsoes estao cada vez mais presentes em nosso cotidiano. E muito comum, por exemplo, ver previsoes meteorologicas em telejornais ou ainda alertas a determinadas localidades sobre um possivel desastre natural prestes a ocorrer, como inundacoes, furacoes, entre outros. Para a analise e disseminacao destas informacoes sao utilizadas tecnicas de visualizacao sobre estes dados climaticos para que sejam apresentados ao publico de maneira compreensivel. Porem, nem sempre tal informacao climatica esta apresentada de forma clara, dificultando o seu entendimento. Este trabalho de proposta de dissertacao apresenta um estudo sobre as formas de representacao mais utilizadas destas tecnicas de visualizacao, buscando identificar quais sao as principais tecnicas e como utiliza-las nos mais diversos tipos de dados climaticos. Assim, foi realizado um mapeamento sistematico na area a fim de identifica-las, bem como suas formas de representacao, seja em 2D, 3D ou ate interativa. Por fim, uma avaliacao de uso com usuarios voluntarios e proposta, buscando identificar o quao bem este tipo de informacao e compreendida quando disseminando a informacao sobre algum dado climatico em especifico.
  • RAUL FELIPE DE MORAIS FERNANDES
  • Imersão na Visualização Científica: utilizando um ambiente virtual imersivo para interação com dados climáticos
  • Date: Aug 29, 2017
  • Time: 08:00
  • Show Summary
  • Os metodos de representacao de dados cumprem funcao importante em qualquer area de estudo, uma vez que compreender as informacoes em um contexto de pesquisa e essencial para qualquer avanco cientifico. Neste sentido, a area de Visualizacao Cientifica ganha destaque ao propor meios eficientes de aprimorar a percepcao do observador sobre um conjunto de dados. No campo da meteorologia, por exemplo, os conjuntos de dados sao informacoes visuais complexas sobre diversos eventos climaticos distintos analisados em inumeras pesquisas. A variedade de fenomenos climaticos complexos, que necessitam de representacoes visuais intuitivas para transmitir as impressoes corretas, acabam trazendo alguns desafios para a Visualizacao Cientifica nesta area. Desta forma, e preciso investigar alternativas que possam aprimorar as formas de visualizacao dentro desse contexto. A Realidade Virtual (RV) tem sido cada vez mais utilizada como ferramenta alternativa para representacoes nao-convencionais na medida que se torna mais acessivel. O conceito de Ambientes Virtuais (AV's) imersivos tem sido aplicado para melhorar a experiencia de usuarios em contexto de ensino e aprendizagem por proporcionar maior nivel de concentracao e liberdade para exploracao das informacoes apresentadas. De acordo com esses fatos, este trabalho apresenta um estudo sobre a utilizacao da Visualizacao Cientifica de Dados Climaticos em Ambientes Virtuals imersivos, a fim de identificar como a Realidade Virtual pode trazer beneficios para o entendimento representacoes dos dados complexos. Para isso, foi desenvolvida uma aplicacao para visualizacao imersiva de informacoes climaticas, seguida por uma avaliacao com especialistas relacionada ao uso desses conceitos no contexto da meteorologia.
  • ALANDEY SEVERO LEITE DA SILVA
  • Framework para análise das tensões da base instalada no estabelecimento de uma infraestrutura de informação.
  • Date: Aug 28, 2017
  • Time: 14:00
  • Show Summary
  • O objetivo principal desse trabalho e criar um framework para analisar as tensoes da base instalada e como essas influenciam no estabelecimento de uma Infraestrutura de Informacao (II). Dentre alguns dos exemplos de II estao a Internet, o comercio eletronico, o Intercambio Eletronico de Dados, as infraestruturas de redes sem fio (wireless), os sistemas integrados de gestao empresarial (Enterprise Resource Planning – ERP), a interacao entre pessoas, o setor de saude e as redes de colaboracao cientifica. Metodologicamente, adota-se uma posicao qualitativa e uma visao mais social e humanista do tema para chegar ao entendimento da sua influencia na adocao de uma tecnologia. Para aplicacao do framework construido, dados do estudo do Registro Eletronico de Saude (RES) no Estado da Paraiba foram analisados. Alem das fontes bibliograficas consultadas, utilizou-se da analise de conteudo para a interpretacao de entrevistas colhidas. A analise por intermedio do presente framework aponta que os RES sao complexos e permeados por tensoes nao resolvidas, limitrofes para consolidacao de uma II, exigindo praticas que nao subestimem nem negligenciem sua base instalada, seus efeitos sociotecnicos, suas tensoes e seus reversos salientes. A aplicacao do framework em outras II podera contribuir com o aperfeicoamento e consolidacao desse instrumento, tornando-o mais abrangente e eficiente em sua finalidade.
  • RAPHAEL BEZERRA XAVIER
  • Abordagem C-GRASP com adaptação automática para otimização global contínua
  • Date: Aug 24, 2017
  • Time: 14:30
  • Show Summary
  • O uso das meta-heuristicas e fortemente recomendado para resolucao de problemas de otimizacao. Geralmente sao utilizadas para resolver problemas de otimizacao discreta. As meta-heuristicas buscam suas versoes originais para conseguir solucoes aproximadas, e metodos adaptativos sao implementados para obter maior desempenho, consequentemente melhorando a forma como a meta-heuristica funciona. Greedy Randomized Adaptive Search Procedure (GRASP), Variable Neighborhood Search (VNS) e Variable Neighborhood Descent (VND) tem sido usadas para resolver problemas de otimizacao global continua, com suas adaptacoes implementadas. A meta-heuristica Continuous GRASP esta incluida na classe das que mais sofreram adaptacoes para a resolucao desses problemas. Alguns trabalhos possuem relevancia por implementarem estas adaptacoes do Continuous GRASP (C-GRASP). O Directed Continuous GRASP (DC-GRASP) e um melhoramento proposto para acelerar a convergencia do metodo C-GRASP atraves da geracao de direcoes de descida, sem calculos de derivada, utilizando uma busca local baseada no metodo Adaptive Pattern Search (APS). Uma adaptacao automatica e inserida no DC-GRASP para otimizar a definicao dos parametros em funcoes de alta dimensao, com um metodo utilizando a meta-heuristica Particle Swarm Optimization (PSO). Nas funcoes com dimensoes menores, um mecanismo de ampliacao do tamanho do passo na busca local (APS) e o uso da busca linear inexata, foram propostas para melhorar o aproveitamento das iteracoes dos metodos. Para validar o metodo implementado foram usadas as ultimas implementacoes adaptativas do Continuous GRASP encontradas na literatura recente, como tambem em versoes originais publicadas em artigos que usam a meta-heuristica. Alguns experimentos computacionais foram realizados em um benchmark de funcoes de teste com minimo global conhecido, comprovando assim a eficacia do metodo para o auxilio na convergencia.
  • RODRIGO LOUREIRO PARENTE
  • Algoritmos para análise da qualidade de imagens faciais de acordo com requisitos do padrão ISO/ICAO
  • Date: Aug 24, 2017
  • Time: 14:00
  • Show Summary
  • A face e uma das caracteristicas fisicas mais usadas para reconhecimento biometrico. A confirmacao de identidade, pela face, com documentos tradicionais e feita por um ser humano, tarefa que demanda tempo, recursos humanos e impede a agilidade de cenarios criticos como aeroportos etc. Nesse contexto, a International Civil Aviation Organization (ICAO), ou Organizacao Internacional de Aviacao Civil, iniciou um projeto para validacao automatica de identidade pessoal atraves de passaporte eletronico. Entretanto, a precisao do reconhecimento biografico em fotografia digital da face depende diretamente da qualidade da amostra facial coletada. Assim, a Organizacao Internacional de Padronizacao (ISO) desenvolveu um padrao internacional de qualidade para imagem facial a ser usado em passaportes eletronicos. Este trabalho visa apresentar algoritmos para avaliacao da qualidade de imagens faciais de acordo com os quatro requisitos do padrao ISO/ICAO descritos a seguir. A verificacao do nivel de embacamento e feita explorando a informacao das altas frequencias, calculando a variancia dos pixels apos filtragem passa-altas de Sobel. O algoritmo proposto obteve taxa de erro de 6,2%. O requisito de analise da presenca de cabelo em frente aos olhos e avaliado atraves de deteccao de bordas verticais na regiao ocular para detectar fios de cabelo na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 11,9%. O requisito que analisa a presenca de chapeu e averiguado atraves de segmentacao de pele na regiao da testa. Finalmente, o requisito da analise olhos encobertos por armacao de oculos e averiguado atraves da deteccao de bordas horizontais e deteccao de linhas na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 7,2%. O metodo para deteccao do encobrimento dos olhos por armacao de oculos busca detectar segmentos de reta horizontais, causados pela armacao, na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 11,6%.
  • ARUAN GALVES NASCIMENTO AMARAL
  • Uma Abordagem Baseada em Riscos de Software para Seleção de Requisitos
  • Date: Aug 22, 2017
  • Time: 14:00
  • Show Summary
  • Em abordagens de desenvolvimento incremental, existe um grande interesse em entregar releases do sistema dentro do cronograma, sem estourar o orcamento, e, ao mesmo tempo, que agregue o maximo de satisfacao possivel aos interessados no projeto. Assim, o processo de selecao de requisitos e um fator-chave para identificar um subconjunto bom ou ate mesmo otimo de requisitos candidatos que atendam estas condicoes. Tecnicas tradicionais que envolvem um processo manual de selecao e priorizacao de requisitos encontram limitacoes ao lidar com um grande conjunto de requisitos. Nesta direcao, o Problema do Proximo Release, do ingles Next Release Problem (NRP), apresenta uma modelagem computacional para este processo decisorio, evoluindo desde uma abordagem simples com um unico objetivo a ser alcancado dado um orcamento-limite, partindo para abordagens com multiplos objetivos que flexibilizam a tomada de decisao, sem restringir limites pre-fixados para as metas a serem alcancadas no release. Apesar desta evolucao, a maior parte das contribuicoes para o Problema do Proximo Release nao tratam riscos de software, que e um fator-chave que pode impactar profundamente o custo do projeto e a satisfacao dos stakeholders. Deste modo, este trabalho propoe uma abordagem baseada em riscos para um problema do proximo release multi-objetivo, em que os riscos sao incorporados nas avaliacoes de custo e satisfacao do sistema a ser entregue. De modo a validar a proposta, alem de uma revisao sistematica comparando a literatura existente relacionada com o tema da abordagem proposta, o trabalho apresenta resultados de tres metaheuristicas distintas capazes de lidar com multiplos objetivos a serem otimizados. Estes algoritmos sao aplicados a duas bases de dados semi-reais que revelam a eficiencia e aplicabilidade potencial da abordagem proposta.
  • JOAO HENRIQUE GONCALVES CORREA
  • SHADE: UMA ESTRATÉGIA SELETIVA PARA MITIGAR ATAQUES DDOS NA CAMADA DE APLICAÇÃO EM REDES DEFINIDAS POR SOFTWARE
  • Date: Jul 27, 2017
  • Time: 08:30
  • Show Summary
  • O processo de evolucao dos computadores chegou a tal ponto que informacoes, antes dis- tantes, se encontram a um clique do usuario. Com o desenvolvimento da tecnologia, houve tambem a evolucao de mecanismos que atentam contra a seguranca da informacao, inclusive quanto a disponibilidade de uma determinada informacao. Os ataques de negacao de servico (DoS) ou sua forma distribuida (DDoS) estao entre os que mais impactam nos negocios, afetando a disponibilidade do servico. Ataques de negacao de servico na camada de aplicacao exploram caracteristicas existentes nos protocolos da referida camada (HTTP e SIP). Um grande desafio na mitigacao deste tipo de ataque e o fato que as requisicoes de atacantes tem igual validade a de clientes legitimos. Este trabalho propoe o uso de tecnicas de identificacao de assinaturas para a manutencao de listas brancas dinamicas, a fim de mitigar ataques de negacao de servico na camada de aplicacao. Essas assinaturas permitem a identificacao mais precisa de um usuario dentro de um fluxo de rede por meio da monitoracao de parametros, como sistema operacional, navegador, IP utilizados. A efetividade da tecnica foi demonstrada por meio de experimentos realizados na rede, em que sem o uso da tecnica, uma Aplicacao web so conseguiu atender 17% dos clientes durante um ataque Get- Flooding, enquanto que com a utilizacao da lista branca dinamica a disponibilidade subiu para mais de 99%.
  • JOSÉ DE SOUSA BARROS
  • Uma Ferramenta para Avaliar Estratégias de Voos de VANTs usando Cossimulação
  • Date: Apr 26, 2017
  • Time: 10:00
  • Show Summary
  • Sistemas que utilizam Veiculos Aereos Nao-Tripulados (VANT) sao exemplos tipicos de sistemas ciber-fisicos. Projetar tais sistemas nao e uma tarefa trivial porque traz consigo o desafio de lidar com a incerteza, que e algo inerente a este tipo de sistema. Por isso, e necessario que o projeto seja feito com ferramentas apropriadas que possam viabilizar a execucao desses sistemas com um certo nivel de confianca para seus usuarios. Deste modo, a proposta deste trabalho e unir dois simuladores, atraves do HLA, com o objetivo de simular e avaliar estrategias de voos mais proximas do ambiente de voo real. Para isso, foi construido um simulador onde e possivel realizar diversos planos de voo com a finalidade de analisar diferentes estrategias em um ambiente provido de incertezas. O simulador foi desenvolvido na ferramenta Ptolemy e integrado, atraves do HLA, com o simulador SITL/ArduPilot. Com a utilizacao da abordagem defendida neste trabalho e possivel obter resultados mais proximos da realidade, assim estrategias mais eficientes de voo podem ser desenvolvidas e avaliadas.
  • Eduardo de Santana Medeiros Alexandre
  • Utilização de Markdown para elaboração de TCCs: experimento da ferramenta limarka
  • Date: Mar 24, 2017
  • Time: 14:00
  • Show Summary
  • O tema deste trabalho é a utilização de uma linguagem de marcação leve (Markdown) para elaboração de trabalhos de conclusão de curso em conformidade com as Normas da ABNT. Nele relata-se o desenvolvimento da ferramenta Limarka, que possibilitar escrita de TCC através de uma linguagem de marcação leve, e um experimento com dez alunos elaborando propostas de TCCs nela. A metodologia empregada foi experimento com entre- vistas semiestruturadas e análise qualitativa. Os objetivos da pesquisa são: implementar uma ferramenta que possibilite a escrita de TCCs em conformidade com as Normas da ABNT e avaliar sua utilização. Os principais resultados da pesquisa tiveram duas fontes: 1) Conhecimentos resultante do desenvolvimento da aplicação. São eles: Um TCC não deve ser produzido por ferramentas que utilizem o formato DocBook como intermediário; A comunidade abnTeX oferta uma ótima alternativa em Latex para produzir TCCs nacio- nais em conformidade com as Normas da ABNT; A utilização de um template baseado no modelo de TCC do abnTeX e a geração de códigos Latex a partir de Markdown possibilita a geração de trabalhos em conformidade com as Normas da ABNT. 2) Conhecimentos pro- venientes da análise do experimento. São eles: Para configuração do template, a utilização de um formulário PDF, em vez de código YAML, torna o processo de configuração mais fácil; A solução com escrita em Markdown apresentam equivalência de expressividade ao Latex, pois permite a inserção de seus códigos; Existe indícios de que os usuários acharão mais fácil aprender e utilizar Markdown do que Latex. A principal conclusão do trabalho indica que é possível utilizar uma linguagem de marcação leve (Markdown) para escrita de TCCs nacionais em conformidade com as Normas da ABNT. E sua utilização deve ser incentiva pois é expressivamente equivalente a Latex, porém é mais simples e fácil de ser utilizado.
  • DANIEL MIRANDA DE BRITO
  • Uma nova abordagem para a identificação de ilhas genômicas em bactérias com base no método de agrupamento mean shift
  • Date: Feb 24, 2017
  • Time: 08:00
  • Show Summary
  • Ilhas genomicas (IGs) sao regioes do genoma de bacterias adquiridas atraves do fenomeno da transferencia horizontal. Frequentemente, essas regioes proporcionam importantes adaptacoes as bacterias, como resistencia a antibioticos e patogenicidade, cujos efeitos podem ser danosos aos humanos. Por essa razao, diversas metodologias foram propostas para a sua predicao, porem nenhuma capaz de identificar o repertorio completo de ilhas presentes em uma determinada sequencia bacteriana. Portanto, torna-se oportuno o desenvolvimento de novos metodos que explorem diferentes aspectos dessas regioes, permitindo a identificacao das regioes ainda nao conhecidas. Nesse trabalho, propoe-se um novo metodo para a identificacao de IGs, construido com base no metodo de agrupamento mean shift, como calculo automatico da bandwidth, indispensavel para o seu funcionamento. Resultados dos testes com ilhas genomicas sinteticas mostram que o metodo e capaz de identificar essas regioes com taxas de acerto maiores que 99%. Testes realizados com genomas de bacterias com IGs conhecidas revelaram o potencial do metodo para a sua identificacao e tambem de ilhas ainda nao descobertas. O estudo detalhado do conteudo das novas ilhas e apontou a presenca de elementos tipicos de IGs, confirmando a eficacia do metodo na predicao dessas regioes.
  • EDUARDO DE SOUZA GAMA
  • Problema de atribuição de rota, comprimento de onda e bandas em redes ópticas metropolitanas MB-OFDM
  • Date: Feb 23, 2017
  • Time: 08:30
  • Show Summary
  • As redes opticas metropolitanas, que compoem o backbone de grande parte das redes de transporte ao redor do mundo, precisao estar em constante evolucao para suportar o forte crescimento do volume de dados da Era da comunicacao digital. O sinal WDM MBOFDM introduzido pela rede MORFEUS surge como candidata para fluir a demanda do trafego em uma proxima era. Contudo, existe uma serie de desafios na distribuicao do operacional dos recursos para que esse tipo de rede consiga operar de forma satisfatoria. Com este objetivo, e de fundamental importancia que a rede optica MORFEUS adote um algoritmo RWBA eficiente, responsaveis pela escolha adequada de recursos na rede para provisionar novas conexoes de forma a maximizar a probabilidade de atendimento das futuras conexoes. Dada uma requisicao de conexao, o algoritmo RWBA deve atribuir uma rota, um comprimento de onda e um conjunto de bandas capazes de atende-la. Cada no da rede e composto por componentes de extracao e insercao de banda MB-OFDM, chamados, respectivamente, de MEB (MORFEUS Extraction Block) e MIB (MORFEUS Insertion Block). Com isso um sinal WDM MB-OFDM pode ter banda(s) extraida e/ou inserida num no MORFEUS, ou ser direcionado para a fibra de saida sem alteracao. Com o intuito de otimizar o uso dos componentes MIB/MEB’s, bem como o numero total de comprimentos de onda na rede, este dissertacao propoe o uso de aspectos do projeto de topologia virtual em redes opticas no problema RWBA.
  • MARCILIO OLINTO DE OLIVEIRA LEMOS
  • Defesas Seletivas para Mitigar Ataques de Negação de Serviço às Aplicações de VoIP
  • Date: Feb 20, 2017
  • Time: 10:00
  • Show Summary
  • Assim como outros servicos baseados em redes IP, aplicacoes VoIP estao vulneraveis aos perigosos ataques distribuidos de negacao de servico (DDoS). Comumente, esses ataques eram efetuados enviando inumeras requisicoes a um servidor SIP (SIP flooding), de modo a sobrecarrega-lo. Embora bastante prejudiciais, tais ataques podem ser facilmente identificados por defesas que detectam mudancas abruptas no volume de trafego da rede. Ataques mais recentes, classificados como Low-Rate, conseguem sobrepujar essas defesas, atacando aplicacoes e gerando trafego bastante similar ao de clientes normais, tornando tais defesas ineficazes. Em uma nova forma de DDoS denominada Negacao de Servico de Telefonia (TDoS - Telephony Denial of Service), atacantes vem fazendo uso de chamadas maliciosas para impedir que clientes legitimos consigam receber ou realizar chamadas. Um exemplo de TDoS Low-Rate e o Coordinated Call Attack, onde atacantes simplesmente realizam chamadas entre si para esgotar os recursos do servidor VoIP alvo. Uma defesa seletiva eficiente contra ataques Low Rate que exploram o protocolo HTTP e a ferramenta SeVen. O presente trabalho demonstra que estrategias seletivas tambem podem ser usadas com sucesso para mitigar ataques TDoS, em particular, o Coordinated Call Attack. As contribuicoes deste trabalho sao de tres tipos: (1) Uma defesa seletiva adequada para aplicacoes VoIP; (2) A Formalizacao da defesa na ferramenta Maude e conducao de simulacoes usando um verificador estatistico de modelos (PVeStA); (4) Resultados experimentais mostram que sem defesa, menos de 41% dos usuarios conseguem acessar o servico VoIP alvo, enquanto que com a defesa seletiva, a disponibilidade fica em torno de 98%.
  • EDUARDO VIEIRA QUEIROGA
  • Abordagens meta-heurísticas para clusterização de dados e segmentação de imagens
  • Date: Feb 17, 2017
  • Time: 14:30
  • Show Summary
  • Muitos problemas computacionais sao considerados dificeis devido a sua natureza combinatoria. Para esses problemas, o uso de tecnicas de busca exaustiva para resolver instancias de medio e grande porte torna-se impraticavel. Quando modelados como problemas de otimizacao, alguns problemas de clusterizacao de dados e segmentacao de imagens pertencem a classe NP-Dificil e requerem um tratamento adequado por metodos heuristicos. Clusterizacao de dados e um vasto conjunto de problemas em reconhecimento de padroes e aprendizado de maquina nao-supervisionado, cujo objetivo e encontrar grupos (ou clusters) de objetos similares em uma base de dados, utilizando uma medida de similaridade preestabelecida. O problema de clusterizacao particional consiste em separar completamente os dados em conjuntos disjuntos e nao vazios. Para metodos de clusterizacao baseados em centros de cluster, minimizar a soma das distancias intracluster e um dos criterios mais utilizados. Para tratar este problema, e proposta uma abordagem baseada na meta-heuristica Continuous Greedy Randomized Adaptive Search Procedure (C-GRASP). Resultados de alta qualidade foram obtidos atraves de experimentos envolvendo o algoritmo proposto e outras meta-heuristicas da literatura. Em visao computacional, segmentacao de imagens e o processo de particionar uma imagem em regioes de interesse (conjuntos de pixels) sem que haja sobreposicao. Um dos tipos mais simples de segmentacao e a limiarizacao do histograma para imagens em nivel de cinza. O metodo de Otsu e um dos mais populares e propoe a busca pelos limiares que maximizam a variancia entre os segmentos. Para imagens com grande profundidade de cinza, tecnicas de busca exaustiva possuem alto custo computacional, uma vez que o numero de solucoes possiveis cresce exponencialmente com o aumento no numero de limiares. Dessa forma, as meta-heuristicas tem desempenhado um papel importante em encontrar limiares de boa qualidade. Neste trabalho, uma abordagem baseada em Quantum-behaved Particle Swarm Optimization (QPSO) foi investigada para limiarizacao multinivel de imagens disponiveis na literatura. Uma busca local baseada em Variable Neighborhood Descent (VND) foi proposta para acelerar a convergencia da busca pelos limiares. Alem disso, uma aplicacao especifica de segmentacao de imagens de microscopia eletronica para analise microestrutural de materiais cimenticios foi investigada, bem como a utilizacao de algoritmos em grafos para deteccao de trincas e extracao de caracteristicas de interesse.
  • ANDRÉ LUIZ FIGUEIRÊDO DE CASTRO
  • Uma Nova Abordagem para Identificação e Reconhecimento de Marcos Naturais utilizando Sensores RGB-D.
  • Date: Feb 17, 2017
  • Time: 10:00
  • Show Summary
  • Com o avanco na pesquisa de algoritmos de localizacao de robos moveis, a necessidade de identificacao e reconhecimento de pontos de referencia naturais aumentou. A deteccao de marcos naturais e uma tarefa desafiadora, porque a sua aparencia pode ser diferente em forma e design e, tambem, eles sofrem influencia da iluminacao do ambiente. Como um exemplo, um algoritmo de reconhecimento de objeto 2D tipico pode nao ser capaz de lidar com a grande variedade optica de portas e escadas em corredores grandes. Em outra direcao, as melhorias recentes em sensores 3D de baixo custo (do tipo RGB-D) permitem aos robos perceber o ambiente como uma estrutura espacial 3D. Assim, usando esta nova tecnologia, um algoritmo para identificacao e reconhecimento de marco natural baseado em imagens adquiridas a partir de uma camera RGB-D e proposto. Basicamente, durante a fase de identificacao que e um primeiro passo para trabalhar com marcos, o algoritmo explora o conhecimento estrutural basico sobre os pontos de referencia, extraindo suas bordas e criando uma nuvem de pontos de borda. No proxima, a fase de reconhecimento, as arestas sao usadas com um algoritmo de reconhecimento nao supervisionado proposto on-the-fly para demonstrar a eficacia da abordagem.
  • CARLOS EDUARDO SILVA MORAIS
  • Um Sistema Anti-colisão 3D baseado no método de Campo Potencial Artificial para um robô móvel
  • Date: Feb 16, 2017
  • Time: 10:30
  • Show Summary
  • Sistemas anti-colisao sao baseados na percepcao e estimacao da pose do robo movel (coordenadas e orientacao), em referencia ao ambiente em que ele se encontra. A deteccao de obstaculos, planejamento de caminhos e estimacao da pose sao fundamentais para assegurar a autonomia e a seguranca do robo, no intuito de reduzir o risco de colisao com objetos ou pessoas que dividem o mesmo espaco. Para isso, o uso de sensores RGB-Ds, tal como o Microsoft Kinect, vem se tornando popular nos ultimos anos, por ser sensores relativamente precisos e de baixo custo. Nesse trabalho nos propomos um novo algoritmo anti-colisao 3D baseado no metodo de Campo Potencial Artificial, que e capaz de fazer um robo movel passar em espacos estreitos, entre obstaculos, minimizando as oscilacoes, que e uma caracteristica comum desse tipo de metodo, durante seu deslocamento. Foi desenvolvido um sistema para plataforma robotica 'Turtlebot 2', o qual foi utilizado para realizar todos os experimentos.
  • EDISON LUIZ BONOTTO
  • Otimização por Nuvem de Partículas e Busca Tabu para o Problema da Diversidade Máxima
  • Date: Jan 31, 2017
  • Time: 14:30
  • Show Summary
  • O Problema da Diversidade Maxima (MDP) e um problema da area de Otimizacao Combinatoria que tem por objetivo selecionar um numero pre-estabelecido de elementos de um dado conjunto de maneira tal que a soma das diversidades entre os elementos selecionados seja a maior possivel. O MDP pertence a classe de problemas NP-dificil, isto e, nao existe algoritmo conhecido que o resolva de forma exata em tempo polinomial. Por apresentarem uma complexidade de ordem exponencial, exigem heuristicas eficientes que fornecam resultados satisfatorios em tempos aceitaveis.Entretanto, as heuristicas nao garantem a melhor solucao. A abordagem Otimizacao por Nuvem de Particulas (PSO) simula o comportamento de um bando de passaros em voo com seu movimento localmente aleatorio, mas globalmente determinado, para encontrar maximos locais. No PSO, cada particula inicia um voo aleatorio e a cada iteracao o voo e ajustado de acordo com a sua propria experiencia e da experiencia de todas as outras particulas. Ja, a meta-heuristica Busca Tabu (TS) e um procedimento adaptativo auxiliar que utiliza uma estrutura de memoria para armazenar as solucoes geradas, ou caracteristicas destas, e guiar um algoritmo de busca local na exploracao continua dentro de um espaco de busca. A partir de uma solucao inicial, move-sede uma solucao para outra vizinha, ate que se satisfaca um determinado criterio deparada. Este trabalho propoe uma nova abordagem para a resolucao do Problema da Diversidade Maxima e esta baseada nas meta-heuristicas de Otimizacao por Nuvem de Particulas e Busca Tabu. Para a geracao das particulas iniciais utilizadas pelo PSO implementaremos uma heuristica de construcao gulosa e outra aleatoria. O algoritmo foi denominado PSO_TS. Para a validacao do metodo, os resultados encontrados sao comparados com os melhores existentes na literatura.
  • VIVIANO DE SOUSA MEDEIROS
  • Sistema Embarcado para Teste de Veículos Aéreos não Tripulados em Ambientes Controlados
  • Date: Jan 27, 2017
  • Time: 14:00
  • Show Summary
  • Este trabalho propoe o desenvolvimento de um sistema embarcado compativel com a qualquer Veiculo Aereo Nao Tripulado (VANT) controlado remotamente por radio, que e capaz de realizar o controle de um VANT, possibilitando a realizacao de um voo autonomo em ambiente controlado, e monitorar e armazenar todos os dados de voo para posterior recuperacao e analise. Isto permite identificar padroes de comportamento estavel de um veiculo, identificar e quantificar ocorrencias de instabilidade e mensurar a estabilidade de voo de um VANT por meio do monitoramento e analise das suas informacoes do estado, pois permitem verificar se um veiculo apresenta comportamento compativel ou nao com esse padrao de comportamento estavel. A solucao proposta permite a replicacao de experimentos para realizar a caracterizacao de VANTs. Nas experiencias realizadas, o veiculo foi controlado utilizando os canais de radio e todos os dados de voo foram armazenados. Os disturbios foram adicionados ao veiculo durante os testes e o sistema foi capaz de detecta-los. Os resultados obtidos na presente pesquisa confirmam que e possivel identificar esse padrao de comportamento, bem como avaliar a ocorrencia de disturbios em voos que resultaram fugas a esse padrao, e diante de acidentes envolvendo VANTs, os dados armazenados do estado do veiculo podem serem usados para ajudar a elucidar as causas.
2016
Description
  • IRON ARAÚJO DE ALMEIDA JÚNIOR
  • Uma Nova Abordagem de Casamento de Impressões Digitais
  • Date: Dec 12, 2016
  • Time: 10:00
  • Show Summary
  • O reconhecimento de individuos por meio de informacoes biometricas tem sido cada vez mais adotado nas mais diversas aplicacoes. Uma das razoes para essa escolha fundamenta-se nas informacoes biometricas serem mais dificeis de adulterar, compartilhar ou extraviar do que outros metodos de identificacao. Varias caracteristicas de individuos, fisicas e comportamentais, podem ser utilizadas em um sistema biometrico, como a impressao digital, face, voz e iris. Diversos trabalhos tem explorado esses tracos produzindo mecanismos de reconhecimento cada vez mais seguros e precisos, mas nenhum e imune a falhas e ainda ha muito o que evoluir. A impressao digital tem se mostrado um traco biometrico bastante eficaz, uma vez que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, o reconhecimento por impressao digital ainda e um problema em aberto, visto que esses algoritmos ainda apresentam erros em sua execucao de falsa aceitacao e falsa rejeicao. Este trabalho apresenta uma nova abordagem de casamento de impressoes digitais que e uma etapa importante do processo de identificacao atraves desse traco biometrico. Diversas abordagens de comparacao entre as impressoes digitais sao aplicadas com o objetivo de aumentar a confiabilidade do metodo proposto. Para ajuste de parametros foram utilizados os Algoritmos Bioinspirados: Algoritmos Geneticos e Enxame de Particulas. A validacao deste metodo se fez atraves da avaliacao da Taxa de Erro Igual nos bancos de dados do projeto Fingerprint Verification Competition e do projeto BioPass-UFPB, totalizando seis bancos de dados. Resultados iniciais apresentaram taxas de acerto media acima de 95%, obtendo ganhos consideraveis com a juncao das diversas abordagens empregadas e otimizacoes chegando a taxas de acerto de ate 99,8%.
  • EDVIGES DE FATIMA CHAVES DE LIMA
  • Proposta de Estratégias de Colaboração em Pequenos Grupos para Plataformas de Aprendizagem a Distância
  • Date: Aug 31, 2016
  • Time: 16:00
  • Show Summary
  • A Educacao a Distancia (EaD) vem como uma alternativa para suprir a necessidade de estudantes que almejam uma formacao superior, mas vivem nas regioes mais distantes e nao tem condicoes de se deslocar para as capitais ou grandes centros, sejam por condicoes de tempo e/ou dinheiro. De fato, varios governos estao usando a EaD como uma forma de socializar a educacao atraves do desenvolvimento de centros comunitarios de educacao em partes remotas de seus paises. Por outro lado, numa faixa de quatro/cinco anos, a taxa relativa de estudantes egressos na modalidade de ensino a distancia (saida / entrada) esta em torno de 30%. Infelizmente, essas altas taxas de evasao e retencao mostram que o uso da EaD em paises, como o Brasil, esta longe dos resultados esperados. Esta realidade esta motivando varios esforcos para a analise e solucoes para este problema. O presente trabalho baseia-se na premissa de que as atividades de aprendizagem colaborativa, principalmente quando realizados em pequenos grupos e apoiados por elementos que promovam a colaboracao, tem efeitos positivos, aumentando a capacidade de aquisicao de conhecimento dos estudantes, reduzindo custos e promovendo alternativas para solucionar o problema de retencao em disciplinas. Assim, apos buscar o entendimento sobre teorias/metodos colaborativos, foram definidas tres estrategias que possam ajudar a solucionar essa realidade. A partir de alguns testes de validacao com participantes, foi mensurado se as estrategias aplicadas se mostraram efetivas. Os resultados apontaram que as estrategias de colaboracao poderao ser aplicadas em um recurso computacional de modo a incentivar a colaboracao entre os participantes.
  • ALANNA CAMYLLA COÊLHO MONTEIRO
  • CONJUNTO DE DIRETRIZES DE GAMIFICAÇÃO PARA O ENSINO EM AMBIENTES VIRTUAIS DE APRENDIZAGEM
  • Date: Aug 31, 2016
  • Time: 10:00
  • Show Summary
  • Gamificacao e a utilizacao de elementos de jogos em cenarios que nao sao jogos. Por ser uma tecnica recente e que tem crescido nos ultimos cinco anos, surge a necessidade de se definir um conjunto de diretrizes que apoiem o processo de ensino com o auxilio da gamificacao. Em virtude disso, esse trabalho apresenta uma pesquisa onde se propoe identificar praticas gamificadas no ensino, formando assim um guia de desenvolvimento das melhores praticas da gamificacao tendo como base seu uso em ambientes virtuais de aprendizagem. Esta pesquisa esta dividida em quatro etapas. Sendo a primeira um mapeamento sistematico para aprofundamento em Gamificacao. A segunda etapa uma pesquisa de campo para conhecer conhecer as reais necessidades dos professores que utilizam a gamificacao no ensino. A terceira etapa um mapeamento sistematico para conhecer trabalhos que tenham a proposta de guiar aplicacoes educacionais e identificar boas praticas para uso da gamificacao. Por fim, a quarta etapa avalia o guia elaborado. O resultado desta pesquisa foi a criacao de uma guia voltado para gamificacao em ambiente virtual de aprendizagem, intitulado de GamiGuiando. Contribuindo para professores/instrutores que queiram aplicar a gamificacao no seu processo de ensino.
  • DIEGO LOPES MARQUES DA SILVA
  • Um Modelo de Jogador Baseado em Estilos de Aprendizagem para Promover Feedback Adaptativo aos Jogadores
  • Date: Aug 31, 2016
  • Time: 08:00
  • Show Summary
  • Cada individuo possui um perfil diferente que influencia na forma de como ele organiza e processa informacao. Esse perfil pode ser descrito como estilo de aprendizagem onde cada pessoa aprende um determinado assunto ou conteudo de acordo com suas diferencas individuais, contribuindo assim para a construcao do processo de ensino/aprendizagem. Alem disso, tem sido utilizados e reconhecidos como sendo um fator humano importante, e que afeta diretamente o desempenho de aprendizagem de cada aluno. Esse e um dos motivos pelo qual os jogos educativos podem ser tao poderosos no que diz respeito ao processo de ensino/aprendizagem, uma vez que os alunos podem aprender brincando e consequentemente unindo a isso a adaptacao do jogo de acordo com o seu perfil potencializando a aprendizagem. Pesquisas na area da educacao sugerem o uso de jogos no processo de ensino/aprendizagem, pois podem engajar o estudante reforcando conceitos atraves da pratica, favorecendo o desenvolvimento da logica, da analise, da estrategia, e ate da memoria do jogador. Contudo, o potencial desses jogos nem sempre e aproveitado da melhor maneira, como, por exemplo, a partir da disponibilizacao de feedbacks que fornecem suporte no processo de educacao e de motivacao, alem de ser uma caracteristica importante de jogos educativos. Ademais, tem como objetivo aumentar o esforco, o desempenho e a motivacao do aluno, fornecendo a eles informacao util e imediata sobre seu desempenho. De maneira geral, este trabalho apresenta resultados de uma pesquisa que tem como finalidade descrever um modelo baseado em estilos de aprendizagem, a fim de ser utilizado em jogos educativos e, a partir dele, promover feedback adaptativo ao estilo de cada usuario. Este modelo foi implementado em um jogo educativo no estilo perguntas e respostas, denominado MyQuimica, que visa apoiar no processo de ensino/aprendizagem de quimica. Mais precisamente, o jogo procura auxiliar no aprendizado das nomenclaturas quimicas e ajudar na familiarizacao dos alunos com a tabela periodica. Os testes foram realizados com um total de 65 alunos de escolas publicas de Joao Pessoa, do 1º e 2º anos do Ensino Medio.
  • JOSÉ GOMES QUARESMA FILHO
  • Uma Abordagem SDWN para o Gereciamento do Processo de Handoff nas Redes WiFi
  • Date: Aug 31, 2016
  • Time: 07:00
  • Show Summary
  • O desempenho do handoff nas redes WiFi e fator preponderante para o uso de aplicacoes multimidias quando os usuarios estao em movimento. Normalmente o processo de handoff e iniciado pelas estacoes, que ao se desconectarem de um Access Point (AP) iniciam uma varredura nos canais existentes buscando outros APs disponiveis. Este processo acontece de forma suave, porem na ordem de segundos, o que inviabiliza o uso de aplicacoes em tempo real. Assim sendo, e necessario a criacao de mecanismos mais eficientes para gerenciar este processo provendo a Qualidade de Servico (QoS) necessaria para as aplicacoes. Este trabalho apresenta uma proposta para melhorar o desempenho do processo de handoff utilizando uma abordagem baseada em Software Defined Wireless Network (SDWN) em redes WLAN.
  • FRANCISCO DE ASSIS SIQUEIRA JUNIOR
  • Seleção de Sensores em Redes de Sensores Sem Fio Heterogêneas para Cidades Inteligentes
  • Date: Aug 30, 2016
  • Time: 09:00
  • Show Summary
  • Apesar de ser uma tecnologia ja consolidada, pesquisas em Redes de Sensores Sem Fio (RSSFs) vem passando por desafios devido a sua intrinseca relacao com os paradigmas de Cidades Inteligentes e Internet das Coisas (Internet of Things - IoT). Tradicionalmente, as RSSFs sao implantadas e utilizadas para atender a uma unica aplicacao e sao compostas por sensores com as mesmas caracteristicas fisicas. Contudo, ao se considerar ambientes inteligentes, onde varios objetos podem coletar dados, desencadear acoes e interagir entre si de forma a prover servicos sofisticados, e facil perceber a heterogeneidade dos tipos de aplicacoes que podem realizar requisicoes em tais ambientes. Alem disso, e real a possibilidade de interacao entre diferentes tipos de equipamentos, como por exemplo, sensores com diferentes caracteristicas fisicas, criando assim uma RSSF Heterogenea (RSSFH). Por este motivo, este trabalho objetiva contribuir para a gerencia de RSSFHs em ambientes de Cidades Inteligentes ao propor uma abordagem para selecao dinamica e sob-demanda de sensores, levando em consideracao as caracteristicas fisicas dos sensores e as demandas das aplicacoes requisitantes. Esta abordagem foi utilizada no framework POlicy-based Sensor SElection in Heterogeneous Wireless Sensor Network (POSSE-HWSN), o qual foi implementado para validar a proposta. Testes realizados demonstram que atraves da utilizacao de POSSE-HWSN foi possivel escolher os sensores com os recursos de hardware mais adequados para atender a cada aplicacao, melhorando assim a eficacia da selecao.
  • OZONIAS DE OLIVEIRA BRITO JÚNIOR
  • Abordagens para avaliação de software educativo e sua coerência com os modelos de qualidade de software
  • Date: Aug 26, 2016
  • Time: 14:00
  • Show Summary
  • Abordagens para avaliacao de software educativo e sua coerencia com os modelos de qualidade de software
  • FELIPE OLIVEIRA MIRANDA CUNHA
  • Uma Estratégia Baseada em Perfis para Suporte à Formação de Grupos de Aprendizagem em EAD
  • Date: Aug 25, 2016
  • Time: 14:00
  • Show Summary
  • A procura por estrategias de ensino e de aprendizagem que promovam e fortalecam a colaboracao na Educacao a Distancia tem sido tema de crescente destaque na literatura. Pesquisas tem investigado abordagens de formacao de grupos para a aprendizagem colaborativa a distancia, o que tem permitido a comunidade cientifico-academica experimentar diferentes maneiras de atribuir estudantes em grupos. Entretanto, a literatura pouco tem se dedicado a investigar as contribuicoes de tutores da Educacao a Distancia para formacao de grupos. Alem disso, definir uma abordagem de formacao de grupos de forma a garantir que a maioria das preferencias seja atendida nao e uma tarefa pedagogicamente facil, pois as caracteristicas e as necessidades de cada turma podem variar. Diante desse contexto, este trabalho objetiva definir uma abordagem baseada em perfis de grupos, especificados a partir de preferencias de tutores a distancia, para apoiar o processo de formacao de grupos de aprendizagem. Realizou-se estudo de revisao sistematica na literatura para identificar as melhores praticas em abordagens para formacao de grupos. Investigou-se o perfil e as preferencias dos tutores do curso de Licenciatura em Computacao da Universidade Federal da Paraiba. Especificou-se perfis de grupos para posterior experimento em agrupamento homogeneo por Polo, agrupamento heterogeneo e complementar por habilidades em programacao a partir da modelagem matematica e implementacao de algoritmo de agrupamento. Realizou-se, por fim, estudo de caso com grupos de estudantes para avaliar a abordagem proposta e analisar o desempenho deles em atividade colaborativa a distancia. Os resultados evidenciam que as preferencias de tutores a distancia permitiram a definicao de uma abordagem de formacao de grupos coerente ao contexto do dominio do presente estudo. O agrupamento permitiu criar grupos homogeneos, heterogeneos e complementares a partir de dados educacionais da plataforma Moodle. Foi aplicada a estrategia de restricao de tamanho sobre uma particao resultante do algoritmo K-medias, possibilitando formar grupos homogeneos de tamanhos uniformes. Verificou-se um aumento no desempenho em 65,6% dos estudantes em atividade em grupo, quando comparado ao desempenho em atividade individual.
  • ITALO RAPHAEL AMADOR RESENDE
  • Uma Proposta para Alavancagem do Sensoriamento Urbano Preliminar Usando Coletores de Dados
  • Date: Aug 23, 2016
  • Time: 16:00
  • Show Summary
  • Este estudo sugere o uso de uma abordagem mais pragmatica para a aplicacao do sensoriamento urbano, contribuindo com uma oferta inicial de bases de dados abertos no que diz respeito ao contexto de cidades inteligentes. As abordagens atualmente utilizadas para a instrumentacao das cidades normalmente se baseiam em sensores fixos e apresentam desafios referentes a energizacao, seguranca, manutencao, comunicacao dos sensores com altos custos envolvidos nos projetos, Para tanto, visando a diminuicao da complexidade e dos custos observados nos modelos atuais, propomos a utilizacao de agentes de mobilidade ja existentes (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Para tanto, visando a diminuicao da complexidade e de custos observados nos modelos atuais, propomos a utilizacao de um agente de mobilidade ja existente (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Acreditamos que esta estrategia possa ajudar a superar alguns dos obstaculos existentes e permitir um sensoriamento preliminar das cidades de forma mais acessivel. Para avaliar a viabilidade da abordagem proposta, uma serie de experimentos foi conduzida utilizando-se microestacoes meteorologicas posicionadas de forma estatica e tambem em movimento. Uma das frentes de avaliacao foi comparar a variacao das medias de grandezas fisicas obtidas atraves de leituras frequentes versus leituras mais esporadicas, coletadas por sensores estacionarios. Em seguida, os resultados obtidos foram comparadas com amostras coletadas de forma movel com a utilizacao de agentes de mobilidade equipados com sensores e atuando como coletores de dados urbanos. Os resultados apontam que a abordagem e bastante promissora e pode ser usada de forma combinada com estrategias tradicionais, como por exemplo na deteccao inicial de ilhas de calor, poluicao ou congestionamentos que podem ser, posteriormente, monitoradas com equipamentos de maior precisao.
  • ITALO RAPHAEL AMADOR RESENDE
  • Uma Proposta para Alavancagem do Sensoriamento Urbano Preliminar Usando Coletores de Dados
  • Date: Aug 23, 2016
  • Time: 16:00
  • Show Summary
  • Este estudo sugere o uso de uma abordagem mais pragmatica para a aplicacao do sensoriamento urbano, contribuindo com uma oferta inicial de bases de dados abertos no que diz respeito ao contexto de cidades inteligentes. As abordagens atualmente utilizadas para a instrumentacao das cidades normalmente se baseiam em sensores fixos e apresentam desafios referentes a energizacao, seguranca, manutencao, comunicacao dos sensores com altos custos envolvidos nos projetos, Para tanto, visando a diminuicao da complexidade e dos custos observados nos modelos atuais, propomos a utilizacao de agentes de mobilidade ja existentes (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Para tanto, visando a diminuicao da complexidade e de custos observados nos modelos atuais, propomos a utilizacao de um agente de mobilidade ja existente (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Acreditamos que esta estrategia possa ajudar a superar alguns dos obstaculos existentes e permitir um sensoriamento preliminar das cidades de forma mais acessivel. Para avaliar a viabilidade da abordagem proposta, uma serie de experimentos foi conduzida utilizando-se microestacoes meteorologicas posicionadas de forma estatica e tambem em movimento. Uma das frentes de avaliacao foi comparar a variacao das medias de grandezas fisicas obtidas atraves de leituras frequentes versus leituras mais esporadicas, coletadas por sensores estacionarios. Em seguida, os resultados obtidos foram comparadas com amostras coletadas de forma movel com a utilizacao de agentes de mobilidade equipados com sensores e atuando como coletores de dados urbanos. Os resultados apontam que a abordagem e bastante promissora e pode ser usada de forma combinada com estrategias tradicionais, como por exemplo na deteccao inicial de ilhas de calor, poluicao ou congestionamentos que podem ser, posteriormente, monitoradas com equipamentos de maior precisao.
  • ALYSSON ALVES DE LIMA
  • SELEÇÃO AUTOMATIZADA DE SERVIÇOS WEB BASEADA EM MÉTRICAS FUNCIONAIS E ESTRUTURAIS
  • Date: Aug 23, 2016
  • Time: 14:00
  • Show Summary
  • Engenharia de Software e uma disciplina que engloba todos os aspectos da producao de um sistema de software, incluindo desde os estagios iniciais da especificacao do sistema ate sua manutencao, quando o sistema ja esta sendo utilizado. Uma area de estudo bastante interessante da Engenharia de Software e o reuso de software, que impacta positivamente na reducao do tempo, dos custos e dos riscos provenientes de um processo de desenvolvimento de software. Portanto, e possivel afirmar que o reuso de software melhora, nao apenas o processo de desenvolvimento de software, mas tambem o proprio produto. Uma das principais abordagens de reuso de software e o desenvolvimento orientado a servicos, que adota o paradigma de Arquitetura Orientada a Servicos (SOA – Service Oriented Architecture). No paradigma SOA, servicos representam uma evolucao natural do desenvolvimento baseado em componentes, e, portanto, podem ser definidos como componentes de software de baixo acoplamento, reusaveis, que encapsulam funcionalidades discretas, que podem ser distribuidos e acessados remotamente de forma programatica. E importante destacar que, enquanto SOA e um paradigma arquitetural para desenvolvimento de sistemas de software, Servicos Web (Web Services) representam a tecnologia existente mais amplamente adotada para implementar SOA explorando protocolos baseados em padroes internet e em XML. Com o crescimento do mercado e utilizacao dos servicos web, a tendencia e sempre aumentar o numero de servicos disponiveis para montagem de aplicacoes em diferentes contextos, tornando impraticavel a tarefa de selecionar de forma manual os servicos requeridos para compor um sistema de software. Consequentemente, e possivel afirmar que o esforco necessario para selecionar os servicos requeridos tende a aumentar cada vez mais, gerando um problema com um grande e complexo espaco de busca, tornando necessaria a automatizacao do processo de selecao baseada em tecnicas de busca metaheuristica. Neste contexto, o trabalho proposto visa automatizar o processo de selecao de servicos web utilizando tecnicas da Engenharia de Software Baseada em Buscas, cuja estrategia de selecao e orientada por metricas funcionais e estruturais, que tem o proposito de avaliar a similaridade entre as especificacoes e as respectivas implementacoes dos servicos candidatos, bem como as suas dependencias, reduzindo assim o esforco de adaptacao e integracao de servicos web desenvolvidos por fornecedores distintos.
  • MARIA JANE DE QUEIROZ
  • UMA ONTOLOGIA PARA PRESERVAÇÃO DE PRIVACIDADE NA PUBLICAÇÃO DE DADOS DO SETOR PÚBLICO
  • Date: Jul 28, 2016
  • Time: 14:00
  • Show Summary
  • Com o objetivo de combater a corrupcao e ampliar a participacao popular nas decisoes governamentais, paises – dentre eles, o Brasil – tem aderido ao movimento Governo Aberto, disponibilizando informacoes relativas a administracao publica, em formato aberto, em sitios na Internet. Essa forma de abertura de dados motiva questionamentos com relacao ao tratamento dispensado aos dados pessoais dos cidadaos. Modelos e tecnicas de preservacao de privacidade existentes podem ser aplicados para dificultar a violacao da privacidade individual por descobertas feitas em bases de dados. No entanto, atualmente as bases de dados sao anonimizadas de forma ineficaz, como e o caso dos microdados do Censo da Educacao Superior brasileira (referente ao ano de 2013), analisados em um estudo de caso apresentado neste trabalho. Tal analise possibilitou a identificacao unica de uma docente, indicando a vulnerabilidade a qual essa base de dados esta exposta. Com os objetivos de representar metodos de anonimizacao sistematica; padronizar opcoes de publicacao; unificar semanticamente os conceitos referenciados por diferentes termos; auxiliar a aplicacao de metodos sistematicos de anonimizacao por pessoas sem expertise na area e possibilitar a interoperabilidade de configuracoes entre ferramentas diferentes, optou-se pela criacao de uma ontologia denominada Ontologia para Publicacao de Dados com Preservacao de Privacidade. Apos seu desenvolvimento, esta ontologia foi utilizada para prover sugestoes de metodos para a anonimizacao dos microdados do Censo da Educacao Superior. Tais sugestoes foram utilizadas em uma ferramenta de anonimizacao existente (chamada ARX) e os microdados foram anonimizados, comprovando a eficacia da aplicacao dos metodos sistematicos de anonimizacao sugeridos para dificultar novas descobertas a partir dos dados anonimizados.
  • KATYANNE FARIAS DE ARAUJO
  • Formulações matemáticas para o problema de sequenciamento de lotes com penalidades por atraso
  • Date: Jul 4, 2016
  • Time: 15:00
  • Show Summary
  • Esta dissertacao trata do problema de sequenciamento de lotes da producao em uma maquina com penalidades por atraso. Trata-se de um problema NP-dificil, em que cada tarefa esta associada a um tempo de processamento, uma data de liberacao, uma data de entrega, um tamanho e um nivel de prioridade. O objetivo e determinar o agrupamento de tarefas em lotes e a sequencia que minimize o total de atrasos ponderados, onde o atraso de uma tarefa e dado pelo seu tempo de termino menos o seu prazo de entrega, caso o processamento da tarefa seja finalizado apos sua data de entrega, e e igual a zero, caso contrario. Este problema pode ser referenciado como $1|batch, r_j, s_j, compt|\sum w_jT_j$. Quando todas as tarefas estao disponiveis para serem processadas no instante de tempo zero, o problema e usualmente representado por $1|batch, r_j, compt|\sum w_jT_j$. Estes sao problemas ainda pouco investigados na literatura, alem de abordar uma grande quantidade de variantes. Existem poucos trabalhos envolvendo a aplicacao de metodos exatos para a resolucao de ambos. Apenas uma formulacao matematica foi identificada na literatura para estes problemas. Dessa forma, quatro formulacoes matematicas com variaveis indexadas no tempo foram desenvolvidas para resolver os problemas mencionados anteriormente, onde uma delas e capaz de tratar de ambos os problemas. Os resultados alcancados por meio dos modelos desenvolvidos foram comparados com os resultados do modelo disponivel na literatura. Tais resultados computacionais demonstram que dois dos modelos propostos obtiveram desempenho superior tanto em termos de qualidade da solucao, em especial em relacao aos limites inferiores alcancados, quanto em numeros de nos abertos e quantidade de solucoes otimas comprovadas.
  • ANIELTON JOSE DO NASCIMENTO
  • Uso do Processo de Avaliação Mútua aliado a Conceitos de Gamificação como suporte ao Estudo Colaborativo em Ambientes de EaD
  • Date: Jun 27, 2016
  • Time: 14:00
  • Show Summary
  • Um dos problemas da educacao a distancia e a falta de comunicacao e colaboracao entre os alunos, o que e causado pricipalmente pela distancia fisica entre eles. Pesquisas em educacao mostram que a colaboracao entre alunos, onde eles se ajudam no entendimento do conteudo educacional, e uma das partes fundamentais do processo de aprendizagem. Ambientes virtuais de aprendizagem, como o Moodle, disponibilizam algums recursos como Foruns e Chats para suporte a colaboracao. Porem, tais recursos sao insuficientes para motivar tal colaboracao. Este e outros fatores tem causado um grande indice de retencao e evasao nos cursos a distancia, uma vez que os estudantes nao conseguem se adaptar as caracteristicas desta modalidade de ensino. Este trabalho utiliza conceitos de avaliacao mutua, integrados a elementos de gamificacao, como forma de motivar a colaboracao de estudantes em pequenos grupos de estudo. De fato, a literatura indica que processos colaborativos sao mais eficientes em grupos compostos por 4 ou 5 estudantes. Uma das principais contribuicoes do trabalho e o desenvolvimento de um processo de avaliacao mutua automatico, o qual pode ser integrado ao processo de avaliacao mutua feita pelos alunos, de modo que os resultados das avaliacoes sejam mais confiaveis. A validacao da proposta foi feita com turmas do curso de Graduacao em Computacao da UFPB virtual. Os resultados mostram que, alem de garantir uma maior seguranca no processo de avaliacao, tambem e possivel verificar grandes dispcrepancias neste processo, assim como gerar diferentes formas de comparacao entre o desempenho de alunos e grupos de alunos, considerando diferentes atributos propostos neste trabalho.
  • LUCAS MARQUES DA CUNHA
  • RECONHECIMENTO DE ADULTERAÇÕES EM IMAGENS DIGITAIS: UMA ABORDAGEM PASSIVA
  • Date: Jun 22, 2016
  • Time: 14:00
  • Show Summary
  • A criacao e comercializacao de softwares de edicao de imagens permitiu que pessoas leigas pudessem realizar qualquer tipo de manipulacao em imagens digitais. Em um cenario judicial em que autenticidade e integridade dos dados sao cruciais, ha necessidade de tecnicas que permitam promover tais atributos. A analise forense em imagens digitais busca atraves de metodos cientificos computacionais, como a analise do sensor do dispositivo e artefatos JPEG, reconhecer a presenca ou ausencia desses atributos. O presente trabalho apresenta uma Abordagem Passiva para o Reconhecimento de adulteracoes em imagens digitais com e sem compressao JPEG utilizando duas abordagens. A primeira abordagem baseia-se na tecnica de analise da vizinhanca-4 de um pixel que pode ser classificado como interpolado ou nao interpolado. A partir dessa analise obtem-se as informacoes sobre o padrao CFA (Color Filter Array) de modo a investigar a autenticidade e integridade de imagens com baixa ou nenhuma compressao de acordo com a classificacao incorreta dos pixels. A segunda abordagem baseiase na Analise da Inconsistencia do BAG (Block Artifact Grid) de imagens com alta compressao gerado a partir de tecnicas de adulteracao, tais como composicao e clonagem. O BAG da imagem trata-se da demarcacao dos blocos JPEG. Alem disso, foram definidas tecnicas de segmentacao para localizacao precisa da regiao adulterada. O metodo seleciona uma das abordagens a partir do valor da taxa de compressao da imagem. A analise dos resultados e feita a partir dos valores de acuracia, sensibilidade, especificidade e precisao. As taxas de acuracia variaram de 85,1% a 95,4% e com taxas de precisao entre 41,7% a 74,3%. Para as taxas de sensibilidade obteve-se valores entre 32,3% a 82,2% e para especificidade valores entre 85,9% a 99,2% para uma base de dados composta por 960 imagens interpoladas por algoritmos distintos e adulteradas por tecnicas de composicao e clonagem. Os metodos descritos na literatura apresentam um escopo limitado referente aos formatos das imagens que foram testadas e ao modo como aferem a eficiencia de suas tecnicas. A abordagem proposta neste trabalho distingue-se dessas tecnicas apresentando um escopo com maior abragencia nos quesitos mencionados, englobando imagens com e sem compressao, alem de aferir a eficiencia a partir de metricas capazes de comprovar as hipoteses levantadas ao longo da pesquisa.
  • FÁBIO CRUZ BARBOSA DE ALBUQUERQUE
  • Uma abordagem heurística para um problema de rebalanceamento estático em sistemas de compartilhamento de bicicletas.
  • Date: May 20, 2016
  • Time: 14:00
  • Show Summary
  • O problema do rebalanceamento estatico de bicicletas (static bike rebalancing problem, SBRP) e um recente problema motivado pela tarefa de reposicionar bicicletas entre estacoes em um sistema self-service de compartilhamento de bicicletas. Este problema pode ser visto como uma variante do problema do roteamento de veiculos com coleta e entrega de um unico tipo de produto, onde realizar multiplas visitas a cada estacao e permitido, i.e., a demanda da estacao pode ser fracionada. Alem disso, um veiculo pode descarregar sua carga temporariamente em uma estacao, deixando-a em excesso, ou, de maneira analoga, coletar mais bicicletas de uma estacao (ate mesmo todas elas), deixando-a em falta. Em ambos os casos sao necessarias visitas adicionais para satisfazer as demandas reais de cada estacao. Este trabalho lida com um caso particular do SBRP, em que apenas um veiculo esta disponivel e o objetivo e encontrar uma rota de custo minimo que satisfaca as demandas de todas as estacoes e nao viole os limites de carga minimo (zero) e maximo (capacidade do veiculo) durante a rota. Portanto, o numero de bicicletas a serem coletadas ou entregues em cada estacao deve ser determinado apropriadamente a respeitar tais restricoes. Trata-se de um problema NP-Dificil uma vez que contem outros problemas da mesma classe como casos particulares, logo, o uso de metodos exatos para resolve-lo e intratavel para instancias maiores. Diversos metodos foram propostos por outros autores, fornecendo valores otimos para instancias pequenas e medias, no entanto, nenhum trabalho resolveu de maneira consistente instancias com mais de 60 estacoes. O algoritmo proposto para resolver o problema e baseado na meta-heuristica iterated local search (ILS) combinada com o procedimento de busca local de descida em vizinhanca variavel com ordenacao aleatoria (variable neighborhood descent with random neighborhood ordering, RVND). O algoritmo foi testado em 980 instancias de referencia na literatura e os resultados obtidos sao bastante competitivos quando comparados com outros metodos existentes. Alem disso, o metodo foi capaz de encontrar a maioria das solucoes otimas conhecidas e tambem melhorar os resultados em um numero de instancias abertas.
  • SIDNEY PATRÉZIO REINALDO CAMPOS
  • EducaDRC: Referatório Semântico de Objetos de Aprendizagem sobre a Doença Renal Crônica Direcionado para Profissionais de Atenção Primária à Saúde
  • Date: Feb 29, 2016
  • Time: 14:00
  • Show Summary
  • A problematização resultante da falta de monitoramento dos indicadores da Doença Renal Crônica (DRC) por parte de profissionais de Atenção Primária à Saúde (APS) lançou um alerta para a necessidade de criação de ações educativas capazes de inseri-los no tratamento da DRC, motivando esta pesquisa para o desenvolvimento de um referatório semântico de objetos de aprendizagem relacionados à doença renal crônica, o EducaDRC. Um referatório é responsável por fornecer acesso a informações (metadados) que descrevem recursos disponíveis na Web e, consequentemente, aponta para os repositórios que detêm estes recursos. Direcionado para profissionais de APS, o principal objetivo do EducaDRC é facilitar e promover o acesso à informação relacionada à DRC. Considerando este aspecto, fez-se necessária a modelagem semântica deste tipo de informação a partir da representação de um subdomínio da Doença Renal Crônica em uma ontologia com a finalidade de facilitar o processo automático por máquina. Além disso, com o objetivo de facilitar e promover o acesso a recursos digitais orientados para aprendizagem, também conhecidos como objetos de aprendizagem, que têm conteúdo intelectual relacionado com a DRC e estão dispostos em diferentes repositórios da Web, esta pesquisa cria uma abordagem para gestão semântica destes recursos. A finalidade é compor, juntamente com a ontologia, uma base de conhecimento sobre DRC para ser utilizada como fonte de informação para o EducaDRC. Dessa forma, o EducaDRC se firmou como um software educacional capaz de fornecer e evidenciar conceitos, relacionados à DRC, que são indispensáveis para que o profissional de APS consiga observar os indicadores da doença em pacientes que eles assistem. Além de permitir que o profissional amplie seus conhecimentos a partir de um acervo de objetos de aprendizagem, categorizados de acordo com diferentes conceitos do domínio e descritos por metadados que expõem suas características.
  • YUGO MANGUEIRA DE ALENCAR
  • UM FRAMEWORK PARA DESENVOLVIMENTO DE OBJETOS DE APRENDIZAGEM PARA A EDUCAÇÃO A DISTÂNCIA: OAEDITOR
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Feb 29, 2016
  • Time: 14:00
  • Show Summary
  • A educação a distância vem crescendo em um ritmo acelerado nesses últimos anos, com isso as tecnologias voltadas para essa modalidade de ensino estão sempre em constate evolução, buscando melhorar a qualidade do ensino. No entanto, essa modalidade de ensino, necessita de um suporte pedagógico adequado em relação ao processo de aprendizagem. Nesse contexto, este trabalho apresenta um conjunto de novas funcionalidades para o OAEditor, um framework integrado ao AVA Moodle, que fornece suporte a professores no processo de construção de OAs adaptativos, sendo desnecessário conhecimentos elevados na área tecnológica por parte dos docentes. Os OAs produzidos pelo OAEditor são feitos em forma de hiperdocumentos educacionais estruturados como grafos conceituais, onde os nós do grafo denotam os conceitos, que serão representados por links no hiperdocumento, e as arestas denotam relacionamento entre esses conceitos. O conjunto de novas funcionalidades para OAEditor visa dar um maior suporte para o docente e discente com relação a questão feedback, critério este que não é muito explorado em ferramentas de sistemas adaptativos e que também é um ponto crítico na Educação a Distância, pois ocorre sem o uso de recursos não verbais (como por exemplo, as expressões e a entonação). Devemos saber que o professor é peça indispensável no processo de educação, diante disto, é de suma importância disponibilizar ferramentas de feedback que possibilitem o acompanhamento contínuo do desempenho do aluno, fornecendo assim conhecimentos suficientes para aprimorar seus materiais instrucionais.
  • DIEGO VÉRAS DE QUEIROZ
  • Simulação Realista de Redes de Sensores sem Fio Industriais
  • Date: Feb 29, 2016
  • Time: 10:00
  • Show Summary
  • Uma Rede de Sensores sem Fio (RSSF) pode ser caracterizada pela utilização de nós sensores em variados ambientes para as mais diversas aplicações, por exemplo, para monitoramento e controle em ambiente industrial. O uso de RSSF para implementar aplicações industriais precisa lidar com problemas típicos das redes sem fio, como alta atenuação e obstruções. Nesses ambientes, diferenças nas características dos canais podem ser observadas dado o seu perfil de multipercurso. Mudanças na topologia também podem provocar mudanças nas características dos canais ao longo do tempo, podendo causar diferença no valor médio da potência recebida. Uma alternativa para lidar com isso e com a variação da qualidade dos canais é o desenvolvimento de protocolos que utilizam múltiplos canais. Seu uso permite, por exemplo, alcançar uma melhor utilização do canal, aumentando a capacidade de transmissão da rede. No entanto, existe uma dificuldade em avaliar e comparar as diferentes abordagens devido à carência de simuladores que apresentem modelos mais precisos. Para avaliar os reais benefícios desses protocolos deve-se levar em consideração um modelo realista de propagação. Esse trabalho apresenta um modelo realista de simulação que captura os efeitos de desvanecimento em larga escala, atenuação em pequena escala, sombreamento log-normal, as características não-estacionárias do canal em longos períodos de tempo, e as características distintas dos diferentes canais do padrão IEEE 802.15.4. O modelo foi então integrado ao simulador de eventos discretos de código aberto Castalia e testado, comparando-o com o modelo estacionário padrão do próprio simulador. A partir da integração, o protocolo Tree-based Multi-Channel Protocol (TMCP) foi implementado e avaliado utilizando o modelo proposto.
  • YÚRIKA SATÔ NÓBREGA
  • Proposta de um Modelo de Objeto Digital de Aprendizagem para Aprendizagem da LIBRAS Apoiado em Ferramentas Automáticas
  • Date: Feb 29, 2016
  • Time: 10:00
  • Show Summary
  • O presente trabalho propõe um ODA (Objeto Digital de Aprendizagem) para a Língua Brasileira de Sinais (Libras) apoiados em ferramentas automáticas que utilizam um avatar 3D para sinalizar. O objetivo é facilitar e dinamizar a aprendizagem da Libras, tendo como respaldo os dispositivos legais no 10.436/02 e no 5.626/05, da necessidade visual, gestual e dinâmica próprias da língua. O trabalho se desenvolve em aspectos teóricos e conceituais da Libras e de Objeto Digitais de Aprendizagem, bem como destaca os trabalhos relacionados à proposta, e por fim, apresenta os testes, os resultados, as consdiderações e trabalhos futuros.
  • RIVALDO DO RAMOS SIMAO
  • Estudo de Resiliência em Comunicação Entre Sistemas Multi-Rôbos Utilizando HLA.
  • Date: Feb 29, 2016
  • Time: 09:00
  • Show Summary
  • A cooperacao em um um sistema mutirrobos tem se tornado um desafio a ser superado e se transformado em um dos maiores incentivos para os pesquisadores desta area, pois a comunicacao se apresenta como um dos mais importantes requisitos. O objetivo deste trabalho foi de investigar a viabilidade do uso do ambiente de simulacao distribuida chamado de HLA, no processo de comunicacao entre membros de um sistema com tres e cinco computadores, simulando um sistema multirrobos, de modo a verificar seu comportamento, quando um deles e substituido por outro com poder de processamento reduzido. Assim, uma nova abordagem de comunicacao com base no middleware HLA foi desenvolvida. Nessa nova abordagem, os robos adaptam sua taxa de transmissao com base no desempenho de outros robos. Experimentos demonstraram que os requisitos de tempo real de uma aplicacao de futebol de robos foram alcancados usando-se essa abordagem, o que aponta para uma nova possibilidade de comunicacao em tempo real entre robos. Diante do exposto, em um dos experimentos, foi feita uma comparacao direta entre o middleware RTDB e a abordagem apresentada. Constatou-se que o HLA adaptativo, em alguns cenarios, e mais eficiente entre 5% e 12% do que o RTDB.
  • ESAU ALENCAR TAVARES
  • UMA ABORDAGEM PARA SUPORTE À DECISÃO CLÍNICA BASEADA EM SEMÂNTICA NO DOMÍNIO DA NEFROLOGIA
  • Date: Feb 29, 2016
  • Time: 08:00
  • Show Summary
  • Na área da saúde, as orientações e diretrizes para a prática clínica estão sendo projetadas para melhorar a qualidade dos cuidados em saúde e diminuir o uso de intervenções desnecessárias, ineficazes ou prejudiciais. Neste ambiente, abordagens de Suporte à Decisão Clínica, utilizando como base de conhecimento a representação da informação contida nessas diretrizes, podem usufruir de um guia para fazer inferências com base nas decisões, ações e recomendações clínicas validadas, auxiliando com qualidade a prestação de cuidados em saúde. A identificação e o manejo nefrológico adequado de pacientes com Doença Renal Crônica (DRC) têm sido reconhecidos como importantes oportunidades de impedir a sua progressão e desfechos desfavoráveis, como a mortalidade. Como estas situações são geralmente de evolução progressiva, insidiosa e assintomática, existem dificuldades relacionadas ao seu diagnóstico, estadiamento e encaminhamentos, sobrecarregando o trabalho dos médicos especialistas. Diante desses fatos, este trabalho teve como objetivo propor o desenvolvimento de uma abordagem de Suporte à Decisão Clínica, baseada em semântica e raciocínio, para auxiliar os médicos especialistas da área e os que trabalham na Atenção Primária da Saúde, na tomada de decisões relacionada ao diagnóstico e estadiamento da DRC, buscando assim dar suporte ao encaminhamento apropriado para os especialistas em nefrologia. A abordagem propôs a criação e o uso de uma base de conhecimento baseada na OntoDecideDRC, uma ontologia de domínio que representou os conhecimentos relacionados aos propósitos da abordagem. Essa abordagem foi então implementada na forma de um protótipo de web service onde foram aplicados métodos de avaliação com a ajuda de uma médica especialista na área, através da utilização de questões de competência e casos clínicos. Este estudo contribui para a compreensão dos métodos relacionados ao desenvolvimento de abordagens de suporte à decisão utilizando como base de conhecimento uma ontologia na área da saúde. Ao final, essa abordagem fornece informações sobre recomendações válidas, a fim de promover a qualidade nos cuidados médicos relacionados a doença em estudo. Essas informação estão em um formato capaz de ser compartilhado, atualizado e reutilizado por outros sistema ou abordagens na área.
  • ESTEVÃO DOMINGOS SOARES DE OLIVEIRA
  • MODELO DE DIAGNÓSTICO DE DIFICULDADES DE APRENDIZAGEM ORIENTADO A CONCEITOS
  • Date: Feb 26, 2016
  • Time: 10:00
  • Show Summary
  • O uso de Ambientes Virtuais de Aprendizagem (AVA) na educação tem crescido bastante nos últimos anos, muito em virtude da expansão dos cursos na modalidade à distância. Tais espaços de suporte a aprendizagem exigem que se pense em novos métodos educativos, sobretudo no que se refere à avaliação da aprendizagem. Em virtude da grande quantidade de alunos nessa modalidade de educação atuando no AVA, um grande volume de dados é gerado. Assim, para obter-se um bom modelo de avaliação de aprendizagem faz-se necessário uma análise desses dados. O Moodle – AVA mais popular atualmente –, oferece ao professor relatórios, tabelas e gráficos que permitem visualizar os dados referentes às ações dos alunos. Tais ações representam desde o acesso a recursos e materiais didáticos, até a participação em atividades, como fóruns de discussão e resultados de participação questionários, por exemplo. Contudo, essas visualizações nativas do Moodle não levam em consideração as reais necessidades dos docentes, sobretudo em relação a um acompanhamento efetivo da aprendizagem. Diante do exposto, fica evidente a necessidade de se ter ferramentas que auxiliem neste processo. Para isso, há de ter-se um Modelo que permita, de modo ágil e flexível, o armazenamento e a utilização dos dados educacionais dos alunos para a aplicação de técnicas de Learning Analytics com foco no diagnóstico de situações de dificuldade de aprendizagem no contexto da Educação a Distância. Para avaliar esta proposta, a ferramenta ConcetpVis foi implementada a partir do modelo proposto. Em seguida, realizou-se um estudo de caso na disciplina Matemática Elementar do curso de Licenciatura em Computação da Unidade de Educação a Distância da UFPB e, por fim, apresentou-se um questionário para que um grupo de professores respondesse a partir de suas impressões.
  • THIAGO JOSÉ SILVA OLIVEIRA
  • Um Ambiente para Simulação e Testes de Comunicação entre Multi-Robôs através de Cossimulação
  • Date: Feb 26, 2016
  • Time: 09:00
  • Show Summary
  • Sistemas Multi-Robôs (SMR) consistem em múltiplos robôs interagindo, cada um executando uma estratégia de controle específica, que não é conduzida de forma centralizada. Alguns desafios surgiram da necessidade de desenvolver produtos que levem o mundo real em consideração. Fazer com que ferramentas, metodologias e equipes de diferentes áreas possam trabalhar juntas não é uma tarefa simples de ser realizada. Cossimulação representa uma técnica para validação de sistemas heterogêneos. Seu princípio fundamental é prover suporte à execução de diferentes simuladores de forma cooperativa. Um dos padrões para tal é conhecido como High Level Architecture (HLA), que é um padrão descrito no IEEE 1516 e tem sido desenvolvido para dispor uma arquitetura para modelagem e simulação distribuídos. Utilizando HLA, vários simuladores e aplicações reais podem ser simulados juntos. Sendo assim, este trabalho apresenta um projeto para simulação de Sistemas Multi-Robôs (SMR) utilizando ROS cossimulado com um simulador de redes de computadores, o OMNeT++ através do HLA. Seu principal objetivo é tornar as simulações mais próximas da realidade, onde os dados irão ser trocados através de uma rede simulada, como se tivéssemos robôs reais interagindo através de uma rede convencional. Para tal, foi desenvolvida a interface entre o ambiente ROS e o OMNeT++ com o HLA. Experimentos demonstraram que a perda de pacotes foi simulada corretamente, adicionando ao ambiente mais realismo.
  • NAILSON DOS SANTOS CUNHA
  • Um Framework para a Geração Semiautomática de Solos de Guitarra
  • Date: Feb 24, 2016
  • Time: 14:00
  • Show Summary
  • Este trabalho trata do desenvolvimento de um framework baseado em métodos computacionais e de otimização para a composição algorítmica, mais especificamente, para a geração de solos de guitarra. A abordagem proposta foi considerada semiautomática pois faz uso de pequenos fragmentos melódicos licks previamente criados a partir de modelos humanos. Os solos gerados possuem características do estilo musical Blues e são aplicados sobre um modelo de harmonia bastante conhecido denominado 12-Bar Blues. Um banco de dados de licks foi criado, do qual são realizados sorteios de instâncias menores do conjunto, diversificando os possíveis candidatos a estarem no solo a ser gerado. De posse da instância, um problema de otimização, que consiste em sequenciar de forma otimizada um subconjunto de licks, é resolvido utilizando um modelo de programação linear inteira. Implementou-se um conjunto de regras para a criação de uma matriz que define o custo de transição entre os licks. As saídas geradas são armazenadas no formato MusicXML e podem ser lidas pela maioria dos aplicativos que possuam suporte a esse tipo de arquivo e disponibilizem visualização no formato de tablaturas. Os solos criados foram avaliados por uma amostra de 173 indivíduos, classificados como músicos iniciantes, intermediários e profissionais. Uma aplicação web foi desenvolvida para agizilizar o processo de avaliação. Os resultados obtidos demonstram que os solos cujos licks foram sequenciados de forma otimizada foram estatisticamente mais bem avaliados que aqueles sequenciados aleatoriamente, indicando que a metodologia proposta foi capaz de produzir, em média, solos com percentual de aceitação favorável.
  • LUIZ CARLOS RODRIGUES CHAVES
  • Analisando a mobilidade de pesquisadores através de registros curriculares na Plataforma Lattes.
  • Date: Feb 22, 2016
  • Time: 17:00
  • Show Summary
  • A pesquisa científica possui importante papel na evolução do conhecimento humano e por isso tem sido cada vez mais incentivada como objeto de estudo. Na literatura inúmeros são os focos de análise que exploram e apontam as correlações e motivações desta evolução, mas se sabe que a pesquisa científica tem sido demonstrada como um elo bastante forte para tal desenvolvimento, pois os pesquisadores quando usados de forma estratégica podem transferir principalmente seu conhecimento para fundamentar a resolução de problemas. Além disso, trabalhos recentes vêm mostrando que a mobilidade de um pesquisador pode garantir aspectos positivos na produtividade, colaboração e internacionalização da pesquisa científica. Portanto, neste estudo resolveu-se analisar os padrões de mobilidade entre os pesquisadores atuantes ou capacitados no Brasil em instituições de ensino e pesquisa através da extração e tratamento de métricas dependentes da localidade presente em seus registros curriculares. E devido a abrangência no cenário nacional a plataforma Lattes foi adotada como principal fonte de dados sobre o histórico de deslocamento dos pesquisadores. Contudo, a análise da mobilidade só foi possível graças a metodologia de extração e tratamento dos dados deste trabalho que criou o fluxo de deslocamento de todos os doutores do Lattes usando seus registros de nascimento, formação e atuação para assim criar as métricas e visualizações utilizadas nos resultados obtidos. Com essa metodologia foi possível identificar os centros de formação de recursos humanos mais influentes para a comunidade científica nacional e a rede formada por instituições de formação e de atuação dos pesquisadores cadastrados na plataforma Lattes. Inclusive descrevendo como os deslocamentos variam ao longo do tempo. Além de identificar alguns padrões de mobilidade interessantes, como a tendência de deslocamento mínimo realizado pelos pesquisadores nos mais diversos contextos geográficos de visualização.
  • HUGO NEVES DE OLIVEIRA
  • Compressão de Sinais Biomédicos
  • Date: Feb 22, 2016
  • Time: 10:00
  • Show Summary
  • Compressores de eletrocardiogramas e eletroencefalogramas vêm sendo descritos na literatura ao longo das últimas décadas, mas há uma falta de trabalhos que apresentem soluções gerais para todos os sinais biomédicos. Visando preencher essa lacuna, este trabalho discute métodos de compressão que funcionem satisfatoriamente para todos os sinais biomédicos. Os métodos de compressão sem perdas de informação estudados se baseiam em transformadas wavelet e preditores lineares associados a diversos codificadores de entropia. As estratégias de compactação com perdas de informação apresentadas usam transformadas trigonométricas e wavelets seguidas por quantizadores vetoriais baseados em quantização com zona-morta gerados por Minimização Lagrangiana e em Quantizações por Aproximações Sucessivas. Os codificadores de entropia usados se baseiam em Predição por Casamento Parcial, Codificação por Comprimento de Sequência e Particionamento de Conjuntos em Árvores Hierárquicas. Os métodos foram testados usando os sinais do MIT/BIH Polysomnographic Database. Os compressores sem perdas de informação obtiveram razões de compressão até 4,818:1, dependendo do tipo de registro biomédico, enquanto os métodos com perdas obtiveram razões de compressão até 818,055:1. Os sinais mais suaves, como os de respiração e saturação de oxigênio, apresentaram melhores reconstruções com wavelets e Quantização por Aproximações Sucessivas, apesar dos menores desempenhos de compressão. Contrastivamente, para a mesma qualidade de reconstrução visual, transformadas trigonométricas e Minimização Lagrangiana obtiveram melhores eficácias de compressão para sinais mais variáveis -- como eletroencefalogramas e eletromiogramas.
  • JONAS FERNANDES DA SILVA
  • Uma solução de baixo custo para o processamento de imagens aéreas obtidas por Veículos Aéreos Não Tripulados
  • Date: Feb 19, 2016
  • Time: 14:00
  • Show Summary
  • Currently, unmanned aerial vehicles (UAVs) are increasingly used to aid the various tasks around the world. The popularization of this equipment associated with the advancement of technology, particularly the miniaturization of processors, extend their functionalitys. In agricultural applications, these devices allow monitoring of production by capturing aerial images, for which they are processed and identified areas of interest through specific software. This work proposes a low-cost solution capable of processing aerial images obtained by non-metric digital cameras coupled to UAVs to identify gaps in plantations and/or estimate levels of environmental degradation, it is possible its implementation in small computers and low power consumption. Embedded systems coupled in UAVs allow perform processing in real time, which contributes to a preventive diagnosis, reduces the response time and can avoid damages in the crop. The algorithm used is based on watershed, while the second algorithm uses classification techniques based on the 1-Nearest Neighbor (1-NN). The system is developed in C ++ with use of computer vision software library OpenCV. Are used the embedded systems DE2i-150 and Intel Edison, both x86 architecture, and Raspberry Pi 2 of ARM architecture. Moreover, the technique 1-NN showed higher tolerance to lighting problems, however, require more processing power compared to the algorithm based on watershed. The results show that the proposed system is an efficient and relatively low-cost solution compared to traditional means of monitoring and can be coupled in a UAV to perform the processing during the flight.
  • LEONARDO ANGELO VIRGINIO DE SOUTO
  • Uma Nova Abordagem de Mapeamento e Localização Simultâneo Planar utilizando sensores RGB-D Baseada em Subtração de Objetos
  • Date: Feb 19, 2016
  • Time: 10:00
  • Show Summary
  • Ao usar algoritmos de Mapeamento e Localização Simultâneos (do inglês Simultaneous Localization and Maping - SLAM) baseados em sensores RGBD, um robô muitas vezes leva em conta dinâmica e objetos estáticos durante a etapa de mapeamento 3D. Para resolver este problema, este trabalho tem como objetivo apresentar uma nova abordagem em RGB-D Planar SLAM, aqui chamada SLAM Baseado em Subtração de Objetos (OS-SLAM), utilizando apenas sensores RGB-D de baixo custo, como o Microsoft Kinect. Essa abordagem subtrai objetos do ambiente 3D e cria um mapa 3D limpo, projetando planos estimados sem os objetos identificados e encontrados ao longo do procedimento de mapeamento. Para validar esta abordagem, foram realizados quatro experimentos. Três deles em um ambiente real e um com um conjunto de dados abertos comparando-os com outros algoritmos do estado-da-arte. Os algoritmos foram aplicados a uma plataforma Turtlebot 2, que tem um sensor RGB-D como seu sensor principal. Os resultados demonstraram a eficiência na geração de mapas limpos e precisos utilizando o algoritmo OS-SLAM.
  • THIAGO WERLLEY BANDEIRA DA SILVA
  • Aplicação do Problema do Caixeiro Viajante (PCV) em um Planejamento de Trajetória no Setor Agrícola (PTSA) Utilizando um Veículo Aéreo Não Tripulado (VANT)
  • Date: Feb 5, 2016
  • Time: 15:00
  • Show Summary
  • Os sistemas embarcados acoplados em Veículos Aéreos Não Tripulados (VANTs) têm possibilitado um grande avanço no desenvolvimento de diversas aplicações, por exemplo, na agricultura. Através destes sistemas podemos ter um maior controle sobre as condições da região agrícola e aumentar a produtividade da plantação. Este trabalho tem por objetivoanalisar alguns métodos para localizar e otimizar a melhor trajetória de VANTs numa área agrícola. Em cada cenário que o drone processar deve-se tirar fotos das regiões com falha, para isso o drone deve reduzir sua altura proporcional a região, possibilitando fotos com boa qualidade das falhas. Um gerador de manchas possibilita analisar o desempenho da escolha da solução de diferentes cenários quanto a qualidade das imagens. Posteriormente, testes realizados com altitudes fixas e mistas possibilitam um comparativo da melhor escolha na tomada de decisão do drone usando abordagem PCV. Fez-se ainda, um comparativo dos métodos para determinar a trajetória do drone, baseados nas formulações para o Problema do Caixeiro Viajante (PCV) e Problema do Caixeiro Viajante Suficientemente Próximo (PCVSP), a partir das imagens geradas. Por fim, são realizados experimentos de desempenho entre os computadores mensurando tempo, qualidade e distância, assim é analisado uma possível escolha de embarcar no drone.
  • LETTIERY D'LAMARE PORTELA PROCOPIO
  • Matheurísticas para o Problema de Custo de Disponibilidade de Recursos com Múltiplos Modos.
  • Date: Feb 2, 2016
  • Time: 14:00
  • Show Summary
  • Este trabalho busca a utilizacao de Matheuristicas para solucionar o Problema de Custo de Disponibilidade de Recursos com Multiplos Modos, e tenta organizar as atividades de forma a minimizar o tempo total do projeto (makespan). Busca ainda a reducao do custo de utilizacao dos recursos nessas atividades, as quais podem ser executadas de varias maneiras distintas, com variacao de tempos e recursos. Para melhor comparacao dos resultados foram propostas duas abordagens: uma solucao baseada em Particle Swarm Optimization (PSO) e outra baseada em Algoritmo Genetico. Em ambas, a formulacao matematica do problema e usada para desenvolver estrategias de busca local exata.
  • LUIS FELIPHE SILVA COSTA
  • Um ambiente de monitoramento para sistemas multi-robôs com cossimulação federada e hardware-in-the-loop
  • Date: Jan 15, 2016
  • Time: 10:00
  • Show Summary
  • Este trabalho visa o desenvolvimento de um ambiente de simulação que permita a co-simulação de sistemas robóticos com a utilização da Arquitetura de Alto Nível. A Arquitetura de Alto Nível (HLA) é um padrão IEEE que permite que diversos simuladores possam compartilhar informações entre si. Dessa forma pretende-se unir os simuladores Stage e Ptolemy por meio desse padrão. Também poderá ser possível adicionar diferentes plataformas de desenvolvimento nas simulações como a Beaglebone black, Arduíno e RaspBerry pi. Com o desenvolvimento deste ambiente integrado será possível que robôs reais, simulados e diferentes dispositivos de hardware participem de uma mesma simulação. Com isso, o desenvolvedor poderá ter uma visão mais diversificada dos dispositivos, pela utilização de simuladores que tem focos distintos e ainda aumentar a realidade das simulações com a utilização de robot-in-the-loop, uma técnica de teste de sistemas que consiste na utilização de robôs reais nas simulações.
2015
Description
  • ELINE RAQUEL DE MACEDO
  • Um Simulador Baseado em RV para o Treinamento de Estudantes na Administração de Medicamentos Injetáveis
  • Date: Dec 11, 2015
  • Time: 15:00
  • Show Summary
  • Simuladores baseados em realidade virtual podem auxiliar nos processos educacionais em saúde, acrescentando a prática simulada em um ambiente seguro e realista. Um procedimento médico que é alvo de críticas, devido aos relatos de erros, é a administração de medicamentos injetáveis. Várias são as pesquisas que apontam as deficiências dos profissionais nessa técnica. Considerando que essa deficiência venha desde a formação do profissional da saúde, o objetivo principal deste trabalho é propor uma ferramenta de capacitação baseada em realidade virtual para a administração de medicamentos injetáveis. Além disso, este trabalho também apresenta a modelagem das métricas de avaliação utilizadas no módulo para avaliação do usuário pelo simulador, discutindo a importância do estabelecimento dessas métricas para serem utilizadas em simuladores de realidade virtual.
  • CLOVIS FERREIRA DOS REIS
  • Detecção de Sons Impulsivos em um Sistema de Reconhecimento de Disparos de Armas de Fogo.
  • Date: Dec 4, 2015
  • Time: 14:00
  • Show Summary
  • O crescimento da violência urbana e fato inegavel e para fazer face a crescente ameaca, as autoridades policiais necessitam de ferramentas modernas que auxiliem a tomada de decisões sobre quando empregar os parcos recursos disponiveis a repressão do crime. Dentro deste contexto este trabalho vem apresentar uma ferramenta que se dispõe a realizar a detecção e reconhecimento automático de disparos de armas de fogo. Para tanto, são apresentados os fundamentos sobre sons impulsivos, armas de fogo e caractersticas de seus disparos e são propostas as bases de um sistema modular de detecção e reconhecimento de disparos. Para desenvolvê-lo, foram analisados diferentes algoritmos de detecção de sons impulsivos com base em sua e cificiência, além de diversas técnicas de análise de sinais no domnio do tempo e no domínio das frequências, com o intuito de, num segundo momento, diferenciar sons impulsivos de qualquer natureza daqueles provocados por disparos de armas de fogo. Finalmente, são apresentadas implementações das partes mais importantes do sistema de reconhecimento de disparos de armas de fogo.
  • CLOVIS FERREIRA DOS REIS
  • Detecção de Sons Impulsivos em um Sistema de Reconhecimento de Disparos de Armas de Fogo.
  • Date: Dec 4, 2015
  • Time: 14:00
  • Show Summary
  • O crescimento da violência urbana e fato inegavel e para fazer face a crescente ameaca, as autoridades policiais necessitam de ferramentas modernas que auxiliem a tomada de decisões sobre quando empregar os parcos recursos disponiveis a repressão do crime. Dentro deste contexto este trabalho vem apresentar uma ferramenta que se dispõe a realizar a detecção e reconhecimento automático de disparos de armas de fogo. Para tanto, são apresentados os fundamentos sobre sons impulsivos, armas de fogo e caractersticas de seus disparos e são propostas as bases de um sistema modular de detecção e reconhecimento de disparos. Para desenvolvê-lo, foram analisados diferentes algoritmos de detecção de sons impulsivos com base em sua e cificiência, além de diversas técnicas de análise de sinais no domnio do tempo e no domínio das frequências, com o intuito de, num segundo momento, diferenciar sons impulsivos de qualquer natureza daqueles provocados por disparos de armas de fogo. Finalmente, são apresentadas implementações das partes mais importantes do sistema de reconhecimento de disparos de armas de fogo.
  • ARNALDO GUALBERTO DE ANDRADE E SILVA
  • Identificação e Verificação Multibiométrica por Geometria da Mão e Impressão Palmar com Otimização por Algoritmos Genéticos
  • Date: Oct 23, 2015
  • Time: 10:00
  • Show Summary
  • A Biometria oferece um mecanismo de autenticação confiável utilizando traços (físicos ou comportamentais) que permitam identificar usuários baseados em suas características naturais. Serviços biométricos de classificação e verificação de usuários, são considerados, a princípio, mais seguros que sistemas baseados em políticas de senha, por exigirem a apresentação de uma característica física única e, portanto, a presença do usuário ao menos no momento da autenticação. No entanto, tais métodos apresentam vulnerabilidades que resultam em alta taxa de verificação falsa, mesmo em sistemas mais modernos. Algoritmos genéticos (GA), por sua vez, são uma abordagem de otimização baseada no princípio da seleção natural de Charles Darwin e que vêm provando, ao longo dos anos, ser uma ferramenta útil na busca de soluções em problemas complexos. Além disso, seu uso em sistemas biométricos também vem crescendo por se mostrar uma alternativa para seleção de características. Este trabalho utiliza os algoritmos genéticos como ferramenta na otimização de parâmetros da classificação e verificação do banco palmar. A Base Multibiométrica BioPass-UFPB é apresentada e empregada para teste e validação do método proposto. Ao todo, 85 atributos geométricos extraídos de cada imagem são utilizados e análises sobre a importância desses atributos são realizadas. Os resultados mostraram que, nas duas abordagens de verificação empregadas, os algoritmos genéticos conseguiram melhoras superiores a 30% e 90% da EER em relação ao caso em que o GA não era aplicado. Na classificação, o uso de algoritmos genéticos conseguiu melhorar os resultados do classificador k-NN. Por fim, espera que os resultados deste trabalho, bem como a base BioPass-UFPB, sirvam de referência na implementação de novos sistemas de reconhecimento biométrico baseados na geometria da mão.
  • LEONARDO DE ARAUJO DOMINGUES
  • Acessibilidade em Cinemas Digitais: Uma Proposta de Geração e Distribuição de Libras e Audiodescrição
  • Date: Oct 13, 2015
  • Time: 16:00
  • Show Summary
  • Pessoas com deciência sensorial (auditiva ou visual) enfrentam diversos entraves para participar da vida em sociedade, para se comunicar com outras pessoas e ter acesso à informações. A participação dessas pessoas em alguns ambientes, como, por exemplo, nos cinemas, nos teatros, nas escolas, enquanto navegam na Internet, dentre outros, é muitas vezes limitada devido a ausência de soluções acessíveis que viabilizem sua participação e interação nesses ambientes. Geralmente, quando estão disponíveis, os recursos de acessibilidade se limitam a utilização de legendas em formato texto, ou não estão presentes no caso de usuários cegos. Porém, essas abordagens são consideradas ineficientes, uma vez que os surdos, por exemplo, têm bastante dificuldade de ler e escrever na língua oral do seu país. Portanto, para minimizar esses problemas, neste trabalho, é apresentada uma solução computacional capaz de gerar automaticamente a partir das legendas, trilhas de vídeo com janelas de Libras para usuários surdos, e a partir do roteiro do filme, gerar Audiodescrição para usuários cegos e distribuir esses conteúdos para usuários usando dispositivos de segunda tela. Experimentos com um protótipo da solução mostraram que a solução tem potencial para gerar de forma eciente conteúdos inteligíveis para esses usuários, melhorando o seu acesso a esse tipo de tecnologia.
  • DIEGO SOUSA DE AZEVEDO
  • ADAPTAÇÃO DE UM CONTROLADOR PREDITIVO DE FORMAÇÃO BASEADO EM MODELO NÃO-LINEAR PARA EMBARCAR EM ARQUITETURAS DE BAIXO CUSTO
  • Date: Oct 9, 2015
  • Time: 15:00
  • Show Summary
  • Um sistema Multi-Robôs é formado quando um grupo de robôs interage com o ambiente como um único sistema. Este sistema pode também ser formado para realizar tarefas outrora difíceis ou até impossíveis de serem realizadas por um único robô. O papel destes robôs deve ser desempenhado pelo próprio sistema de controle, que o deve suprir com a capacidade necessária para fazê-los mover corretamente. O intuito do projeto macro é obter dados comparativos entre o uso desse tipo de controlador em um Laptop e o uso desse controlador embarcado em uma placa de baixo custo. Dessa forma, o principal objetivo desse trabalho é embarcar um controlador preditivo de formação, em uma placa de baixo custo que disponibilize recursos computacionais suficientes para que o Robô seja capaz de convergir, sem perda de desempenho e utilizando horizontes próximos aos aplicados em um PC.
  • MÁRCIO ADAMEC LOPES OLIVEIRA
  • Formação de uma infraestrutura de informação para telerradiologia: uma série de estudos de caso baseados na teoria de projeto para complexidade dinâmica
  • Date: Oct 1, 2015
  • Time: 14:00
  • Show Summary
  • A evolução tecnológica tem fornecido uma variedade de ferramentas que quando integradas favorecem o surgimento de soluções de tecnologia da informação e, consequentemente, o aparecimento de novas infraestruturas, embora haja um crescimento na complexidade dessas soluções. A telerradiologia e as soluções locais para distribuição de imagens médicas são evidências dessa evolução tecnológica. Apesar disso, ainda não se observou uma infraestrutura para teleradiologia com características das denominadas infraestruturas de informação (II), a saber: capacidade de organização dinâmica, constituída por uma quantidade crescente e heterogênea de elementos técnicos e sociais, com elevados níveis de adaptação e variação de componentes, possuindo ainda controle descentralizado e episódico e que evolui de forma não limitada e sob condições diversas. Tais infraestruturas, se aplicadas a soluções locais e globais para telerradiologia, favoreceriam o aparecimento de um espaço social público para práticas radiológicas, derrubando as fronteiras entre o local e o global. O objetivo desse trabalho é buscar compreender quais obstáculos dificultam a formação de tal II. Para isso, utilizou-se a teoria de projeto para complexidade dinâmica (TPCD) em infraestrutura de informação, baseada na teoria dos sistemas adaptativos complexos (CAS), como referência principal na investigação de uma série de estudos de caso em telerradiologia. Para alcançar tal objetivo foi realizada uma pesquisa baseada em descrições empíricas de soluções para telerradiologia, buscando evidências em cada caso, resultando em um conjunto compilado de conhecimento acerca de qualidades, deficiências e obstáculos mapeados para um conjunto de regras de projeto da TPCD. O resultado dessa investigação evidencia a deficiência técnica e social em torno da capacidade de adaptação como um importante fator para dificultar a expansão da telerradiologia e, consequentemente, a formação de uma infraestrutura de informação. Finalmente, concluiu-se que, apesar da crescente quantidade de soluções para telerradiologia, não foi possível observar tal II; e que a chave para a formação desta II está em projetar visando a máxima flexibilidade sociotécnica, isto é, a capacidade de adaptação, de modo contínuo, com alto nível de independência entre os elementos constituintes e capaz de lidar com contextos sociais e técnicos diversificados.
  • MÁRCIO ADAMEC LOPES OLIVEIRA
  • Formação de uma infraestrutura de informação para telerradiologia: uma série de estudos de caso baseados na teoria de projeto para complexidade dinâmica
  • Date: Oct 1, 2015
  • Time: 14:00
  • Show Summary
  • A evolução tecnológica tem fornecido uma variedade de ferramentas que quando integradas favorecem o surgimento de soluções de tecnologia da informação e, consequentemente, o aparecimento de novas infraestruturas, embora haja um crescimento na complexidade dessas soluções. A telerradiologia e as soluções locais para distribuição de imagens médicas são evidências dessa evolução tecnológica. Apesar disso, ainda não se observou uma infraestrutura para teleradiologia com características das denominadas infraestruturas de informação (II), a saber: capacidade de organização dinâmica, constituída por uma quantidade crescente e heterogênea de elementos técnicos e sociais, com elevados níveis de adaptação e variação de componentes, possuindo ainda controle descentralizado e episódico e que evolui de forma não limitada e sob condições diversas. Tais infraestruturas, se aplicadas a soluções locais e globais para telerradiologia, favoreceriam o aparecimento de um espaço social público para práticas radiológicas, derrubando as fronteiras entre o local e o global. O objetivo desse trabalho é buscar compreender quais obstáculos dificultam a formação de tal II. Para isso, utilizou-se a teoria de projeto para complexidade dinâmica (TPCD) em infraestrutura de informação, baseada na teoria dos sistemas adaptativos complexos (CAS), como referência principal na investigação de uma série de estudos de caso em telerradiologia. Para alcançar tal objetivo foi realizada uma pesquisa baseada em descrições empíricas de soluções para telerradiologia, buscando evidências em cada caso, resultando em um conjunto compilado de conhecimento acerca de qualidades, deficiências e obstáculos mapeados para um conjunto de regras de projeto da TPCD. O resultado dessa investigação evidencia a deficiência técnica e social em torno da capacidade de adaptação como um importante fator para dificultar a expansão da telerradiologia e, consequentemente, a formação de uma infraestrutura de informação. Finalmente, concluiu-se que, apesar da crescente quantidade de soluções para telerradiologia, não foi possível observar tal II; e que a chave para a formação desta II está em projetar visando a máxima flexibilidade sociotécnica, isto é, a capacidade de adaptação, de modo contínuo, com alto nível de independência entre os elementos constituintes e capaz de lidar com contextos sociais e técnicos diversificados.
  • FRANCISCO PORFIRIO RIBEIRO NETO
  • MELHORIA NA CLASSIFICAÇÃO DE TÓPICOS EM TEXTOS CURTOS USANDO BACKGROUND KNOWLEDGE
  • Date: Aug 31, 2015
  • Time: 14:00
  • Show Summary
  • O poder da iteração entre usuários na internet aumentou consideravelmente através do surgimentos de ferramentas alinhadas com os conceitos da WEB 2.0, a exemplo dos blogs, fóruns de discussão, e redes sociais como o Facebook e Twitter. Estas aplicações são constituídas por uma troca contínua de mensagens entre os usuários, gerando com isso uma expressiva massa de dados formada por várias pequenas mensagens. Estudos mostram que informações podem ser extraídas com base em tais dados, através da classificação de textos, porém isto tem sido um desafio tremendo para pesquisadores da área, uma vez, que as mensagens dos usuários nestas aplicações são bem curtas, fazendo com que ocorra o problema de escassez de dados e ausência de similaridade entre palavras relevantes. Com base na problemática destacada, busca-se com esta dissertação, ilustrar dois métodos de classificação de textos curtos, que se demostraram eficientes usando um corpus específico, para isso, será aplicado tais estratégias em um corpus construído com base no tópico “Violência no Brasil”.
  • LEANDRO JOSE CAETANO
  • Expandindo a Área de Cobertura de um Sistema Multi-Robôs Através de uma Rede Multicamadas e um Middleware de Base de Dados em Tempo Real
  • Date: Aug 31, 2015
  • Time: 10:00
  • Show Summary
  • A comunicação entre robôs é tarefa fundamental e de grande importância na robótica. É a partir dela que eles conseguem descobrir e repassar informações sobre obstáculos encontrados no caminho, transmitir para os outros robôs informações sobre um alvo que outro robô não consiga detectar, determinar juntos sobre a melhor rota a seguir, entre outros. Uma das grandes dificuldades, no contexto em que se tem a comunicação de robôs em uma rede sem fio, está em distanciá-los. Um deles, por exemplo, pode migrar para uma outra área deixando a sua formação inicial, afim de realizar uma tarefa específica e distanciar dos limites de cobertura. Ao distanciar um robô do outro, os limites conferidos pelo meio acarretarão uma perda de sinal comprometendo a comunicação entre eles. Deste modo, conhecer a área de cobertura de uma rede sem fio onde robôs estarão conectados é um processo importante para a implantação de um sistema de comunicação entre robôs. Este trabalho propõe expansão da área de cobertura de uma rede sem fio, a ser utilizada em sistemas Multi-Robôs, usando um Middleware de Base de Dados em Tempo Real - RTDB, em redes multicamadas que utilizam os padrões IEEE 802.11 e 802.15.4, aplicado à otimização da análise da Área de Cobertura e de Interferência de Redes Sem Fio. Os resultados obtidos demonstra a robustez e confiabilidade do cenário proposto e de acordo com os experimentos realizados, comprovou-se que o uso de redes multicamadas proporciona um maior alcance na área de cobertura de uma formação de robôs.
  • JANSEN CRUZ DE SOUZA
  • Utilizando Títulos de Artigos Científicos na Construção de Redes Semânticas para Caracterizar Áreas de Pesquisa
  • Date: Aug 27, 2015
  • Time: 16:00
  • Show Summary
  • The scientific knowledge is not just the discovery of new facts and laws, but also in its publication. Aiming to understand the complex scientific production system analysis techniques have been applied in many digital repositories. The social network analysis (SNA) has been a topic of interest of several studies in recent years. Social networks can be established from the relationship between people or the relationship of information that can be analyzed to assist decision making. The purpose of this thesis is to present a technique that makes it possible to characterize areas of scientific research by building semantic networks vary in time. These networks are built building on the co-occurrence of keywords in the titles of scientific papers, used to represent the evolution of research themes addressed by means of publication over time.
  • VITOR MARCIO PAIVA DE SOUSA BAPTISTA
  • Um modelo para a previsão da entrada ou saída da coalizão pelos deputados federais
  • Advisor : ALEXANDRE NOBREGA DUARTE
  • Date: Aug 27, 2015
  • Time: 16:00
  • Show Summary
  • No Brasil, existem ferramentas para o acompanhamento do comportamento dos parlamentares em votações nominais, tais como o Basômetro do jornal O Estado de São Paulo e o Radar Parlamentar. Essas ferramentas foram usadas para análises tanto por jornalistas quanto por cientistas políticos. Apesar de serem ótimas ferramentas de análise, sua utilidade para monitoramento é limitada por exigir um acompanhamento manual, o que se torna muito trabalhoso quando consideramos o volume de dados. Somente na Câmara dos Deputados, 513 parlamentares participam em média de mais de 400 votações nominais por legislatura. É possível analisar os partidos como um todo, o que diminuiria bastante a quantidade de dados, mas em contrapartida perdemos a capacidade de detectar movimentações de indivíduos ou grupos intra-partidários como as bancadas. Para diminuir esse problema, desenvolvi neste trabalho um modelo estatístico que prevê quando um parlamentar vai entrar ou sair da coalizão governamental através de estimativas de pontos ideais usando o W-NOMINATE. Ele pode ser usado individualmente ou integrado a ferramentas como o Basômetro, oferecendo um filtro para os pesquisadores encontrarem os parlamentares que mudaram mais significativamente de comportamento. O universo de estudo é composto pelos parlamentares da Câmara dos Deputados no período da 50ª até a 54ª legislaturas, iniciando no primeiro mandato de Fernando Henrique Cardoso em 1995 até o final do primeiro mandato de Dilma Rousseff em 2015.
  • MANUELLA ASCHOFF CAVALCANTI BRANDAO LIMA
  • Uma Estratégia de Tradução Automática com Adequação Sintático-Semântica para LIBRAS
  • Date: Aug 26, 2015
  • Time: 10:00
  • Show Summary
  • Pessoas surdas se comunicam naturalmente usando linguagens viso-espaciais, denominadas línguas de sinais. No entanto, apesar das línguas de sinais (LS), em muitos países, serem reconhecidas como língua, os problemas enfrentados pelos surdos no tocante ao acesso a informação permanecem. Em consequência disso, observa-se uma grande dificuldade dos surdos exercerem a sua cidadania e terem acesso à informação através das LS, o que acaba geralmente implicando em atraso linguístico e de aquisição do conhecimento. Visando propor soluções alternativas para minimizar a marginalização dos surdos, alguns trabalhos vêm sendo desenvolvidos relacionados à tradução automática de línguas orais para línguas de sinais. No entanto, as soluções existentes apresentam muitas limitações, pois precisam garantir que o conteúdo disponibilizado aos surdos chegue com a mesma qualidade que aos ouvintes. Neste sentido, o presente trabalho tem como objetivo desenvolver uma solução para tradução automática para LIBRAS com adequação sintático-semântica. Essa solução envolve um componente de tradução automática para LIBRAS; uma linguagem formal de descrição de regras, modelada para criar regras de tradução sintático-semânticas; a definição de uma gramática explorando esses aspectos; e a integração desses elementos no serviço VLibras, um serviço de tradução automática de conteúdos digitais em Português para LIBRAS. Para avaliar a solução, alguns testes computacionais utilizando as métricas WER e BLEU e com usuários surdos e ouvintes da LIBRAS foram realizados para aferir a qualidade da saída gerada pela solução. Os resultados mostram que a abordagem proposta conseguiu melhorar os resultados da versão atual do VLibras.
  • GLAUCO DE SOUSA E SILVA
  • Sinestesia em Interfaces de Usuário: Modelando o Design da Interação através dos Sentidos Humanos
  • Date: Aug 25, 2015
  • Time: 09:00
  • Show Summary
  • Hoje em dia, um dos pontos chave para a desenvolvimento de sistemas computacionais é a solução para a interação com o usuário. Interfaces gráficas de usuário, manipulação direta, realidade virtual e interfaces de usuário tangíveis são exemplos dessa evolução. Então, a busca por novas formas de interação que permitam modelos de interação que consigam despertar a atração do usuário é uma área de constante estudo. Neste sentido, propõe-se o uso da sinestesia como uma abordagem para a interface de usuário. Sinestesia é um sentimento único resultante de respostas mútuas de diferentes tipos de sentidos humanos que podem aumentar a habilidade humana de reconhecer informações. Esta habilidade rara permite que pessoas possam ouvir cores, sentir o sabor de sons, entre outras misturas de sentidos. A partir de uma análise de trabalhos correlatos sobre a sinestesia em sistemas computacionais, foi possível estabelecer que existe uma falta de um processo para o desing de interfaces com caracterísitcas sinestésicas mais generalista e testes com usuários reais. Desta forma foi desenvolvido um processo que se adapta as características sinestésicas da interface e validado através do desenvolvimento de uma aplicação, o Genius Vibe. Os resultados mostraram que o modelo de processo se adaptou bem ao desing da interface e através de testes com usuários reais percebeu-se que a sinestesia fez com que a interface fosse mais atrativa.
  • JEFFERSON BARBOSA BELO DA SILVA
  • Uma Heurística Simplificada para Funções Custo de Planejadores da Família A*
  • Date: Aug 21, 2015
  • Time: 15:00
  • Show Summary
  • Uma das principais questões relacionados ao tema da robótica móvel é descobrir a maneira mais eficiente para realizar a navegação, de um ponto a outro no ambiente, com máxima segurança e despendendo a menor quantidade de tempo e de recursos computacionais possível. À vista disso, o presente trabalho se motiva a desenvolver uma melhoria heurística que possa ser aplicável às funções custo dos principais algoritmos baseados na família A* e que propõe utilizar, de forma mais eficiente, os recursos computacionais disponíveis, aperfeiçoando assim, os resultados obtidos através dos principais algoritmos de buscas aplicados à robótica móvel. A mesma tem o objetivo de minimizar a quantidade de colisões, a duração do trajeto, bem como o tempo de processamento através da minimização da importância da variável g(n) - responsável em armazenar informações subutilizadas do passado dos algoritmos. Para visualizar os efeitos dessa modificação, um levantamento das melhores estratégias de busca em ambiente estático e dinâmico foi realizado e, através deste, foram analisados os quatro melhores e mais atuais algoritmos destacados pela literatura técnica especializada. Algumas comparações foram efetuadas considerando ambientes estáticos e altamente dinâmico com diferentes direções de busca e parâmetros que visavam mensurar a qualidade das trajetórias geradas. Em seguida, esses foram novamente analisados com suas respectivas funções custo modificada. Os resultados da comparação demonstraram que o algoritmo R*, com direção de busca direta, é o mais eficiente para diferentes espaços e pesquisas. No entanto, a modificação em suas respectivas funções custo proporcionou uma melhora significativa nos já excelentes resultados conquistados pelos algoritmos originais. Em ambientes estáticos, esta modificação se mostrou mais eficaz para problemas grandes e complexos, os que são efetivamente utilizados por robôs reais. Em ambientes altamente dinâmicos, a mesma apresentou uma redução considerável no tempo de planejamento e no número de iterações para localizar o objetivo, bem como reduziu a utilização de memória o que, consequentemente, tornou os robôs mais ágeis e habilidosos.
  • JOSE CLAUDIO VEIRA E SILVA JUNIOR
  • Verificação de Projetos de Sistemas Embarcados Através de Cossimulação Hardware/Software
  • Date: Aug 17, 2015
  • Time: 10:00
  • Show Summary
  • Este trabalho propõe um ambiente para verificação de sistemas embarcados heterogêneos através da cossimulação distribuída. A verificação ocorre de maneira síncrona entre o software do sistema e plataforma de hardware usando a High Level Architecture (HLA) como um middleware entre o dispositivo de hardware e o modelo simulado. A novidade desta abordagem não é apenas fornecer suporte para simulações, mas também permitir a integração sincronizada com todos os dispositivos de hardware físico. Neste trabalho foi utilizado o Ptolemy como uma plataforma de simulação. A integração do HLA com Ptolemy e os modelos de hardware abre um vasto conjunto de aplicações, como o de teste de vários dispositivos ao mesmo tempo, executando os mesmos, ou diferentes aplicativos ou módulos, a execução de diferentes dispositivos embarcados para a melhoria do desempenho ou execução colaborativa. Além disso a abordagem de utilização do HLA, permite que sejam interligados ao ambiente, qualquer tipo de robô, assim como qualquer outro simulador diferente do Ptolemy. Estudo de casos são apresentado para provar o conceito, mostrando a integração bem sucedida entre o Ptolemy e o HLA e a verificação de sistemas utilizando Hardware-in-the-loop e Robot-in-the-loop.
  • TEOBALDO LEITE BULHÕES JUNIOR
  • Algoritmos Exatos para o Problema da Edição de p-Clusters
  • Date: Jul 21, 2015
  • Time: 16:00
  • Show Summary
  • Este trabalho trata do Problema de Edição de p-Clusters (p-PEC), o qual consiste em realizar um número mínimo de edições (adições ou remoções de arestas) em um grafo G de modo a transformá-lo em uma união disjunta de p cliques (ou clusters), sendo G e p dados de entrada. O p-PEC é um problema NP-Difícil que possui aplicações em áreas como biologia computacional e aprendizagem de máquina. Para resolvê-lo, foram propostas duas novas formulações matemáticas e melhorias em uma formulação proveniente da literatura, bem como novas desigualdades válidas. As três formulações consideradas foram estudadas tanto teoricamente, através da comparação entre as relaxações lineares, quanto empiricamente, através do desenvolvimento de três algoritmos exatos: dois baseados em Branch-and-Cut (BC) e um baseado em Branch-and-Price (BP). Os algoritmos foram testados em instâncias com até 211 vértices. Os resultados mostram o impacto da razão entre p e o número de vértices, da densidade do grafo e das desigualdades nos desempenhos dos algoritmos. No geral, os algoritmos BC foram superiores ao algoritmo BP. Porém, em algumas instâncias, os melhores limites duais foram obtidos pelo algoritmo BP.
  • YURI GIL DANTAS
  • Estratégias para Tratamento de Ataques de Negação de Serviço na Camada de Aplicação em Redes IP
  • Date: Jul 14, 2015
  • Time: 14:00
  • Show Summary
  • Ataques de Negação de Serviço Distribuído (Distributed Denial of Service - DDoS) estão entre os ataques mais perigosos na Internet. A abordagem desses atacantes vem mudando nos últimos anos, ou seja, os ataques DDoS mais recentes não têm sido realizados na camada de transporte e sim na camada de aplicação. A principal diferença é que, neste último, um atacante pode direcionar todo ataque para uma aplicação específica do servidor, gerando menos tráfego na rede e tornando-se mais difícil de detectar. Tais ataques exploram algumas peculiaridades nos protocolos utilizados na camada de aplicação. Este trabalho propõe uma nova defesa (SeVen) para ataques DDoS na Camada de Aplicação, baseada em Adaptive Selective Verification (ASV) um mecanismo defesa para ataques DDoS na camada de transporte. Foram utilizadas duas abordagens para validar o SeVen: 1) Simulação: Todo o mecanismo de defesa foi formalizado em Maude e simulado usando um modelo estatístico (PVeStA). 2) Experimentos na rede: Análise da eficiência de SeVen, implementado em C++, em um experimento real na rede. Em ambas abordagens, foram investigados três ataques direcionados ao Protocolo HTTP. Nesses ataques, apesar de terem perfis diferentes, SeVen obteve um elevado índice de disponibilidade.
  • DORGIVAL PEREIRA DA SILVA NETTO
  • Promovendo Modularidade em um Processo de Engenharia Requisitos para Linhas de Produto de Software
  • Date: Jul 13, 2015
  • Time: 13:00
  • Show Summary
  • Abordagens de Engenharia de Requisitos Orientadas a Objetivos capturam tanto os objetivos dos stakeholders como os requisitos do software a ser desenvolvido, de modo que este último corresponda ao que realmente os stakeholders desejam. Modelos de objetivos são capazes de capturar as similaridades e variabilidades de uma Linha de Produto de Software (LPS), mas não conseguem descrever o comportamento detalhado de suas funcionalidades. Diante dessa limitação, o processo GS2SPL (Goals and Scenarios to Software Product Lines) foi definido para obter sistematicamente, a partir de modelos de objetivos, modelos de features e especificações de cenários de casos de uso com variabilidade. Entretanto, a variabilidade da LPS e o conhecimento de configuração ficam entrelaçados nos cenários de caso de uso, o que prejudica a manutenção e reuso dos artefatos. A fim de solucionar este problema, foram propostas técnicas de especificação de cenários de casos de uso com separação de interesses transversais (ou, simplesmente, cenários aspectuais). Uma destas técnicas é o MSVCM (Modeling Scenario Variability as Crosscutting Mechanisms), que especifica a variabilidade da LPS separadamente do conhecimento de configuração e define um processo para configurar as especificações de produto. Assim, este trabalho propõe uma extensão do GS2SPL visando obter, sistematicamente, modelos de features e especificações de cenários aspectuais em MSVCM, a partir de modelos de objetivos. Esta abordagem chama-se GAS2SPL (Goals and Aspectual Scenarios to Software Product Lines) e seu processo será avaliado com o exemplo MyCourses - A Course Scheduling System. A avaliação foi realizada através de um estudo comparativo entre os artefatos do MyCourses gerados pelas abordagens GS2SPL e GAS2SPL, levando-se em consideração a modularidade (espalhamento de features e entrelaçamento de cenários) e, quão detalhado são as composições e o conhecimento de configuração (expressividade). Depois de avaliar a nossa abordagem, percebemos que há redução no espalhamento de features e entrelaçamento de cenários, e o detalhamento do conhecimento de configuração na nossa abordagem torna-o mais simples de entender do que sua representação na abordagem GS2SPL.
  • RAFAEL HENRIQUE ASSIS DE CASTRO
  • Uso de Interação Natural em Simulador de Procedimentos para Treinamento no Setor Elétrico.
  • Date: Jun 23, 2015
  • Time: 10:00
  • Show Summary
  • Simuladores de procedimentos têm sido utilizados em diversas áreas para auxiliar a execução de diversas tarefas. O uso de interfaces que facilitem a manipulação das ações, nas diversas fases da execução da tarefa, no contexto do simulador, pode ser um importante componente para facilitar o uso por partes dos profissionais. Sendo o setor elétrico composto por diversos procedimentos de alto risco, há uma grande necessidade do bom treinamento dos seus operadores. Visando auxiliar esse treinamento, o trabalho aqui descrito tem como principal objetivo, projetar e executar a integração de interação natural em simuladores de procedimentos para o setor elétrico, realizando testes de usabilidade com pessoas do setor. Como estudo de caso, foram analisados cenários já desenvolvidos no simulador ATreVEE 3D e desenvolvida uma nova versão do simulador, chamada ATreVEE IN, dessa vez usando o controle Leap Motion, um dispositivo usado para o rastreio das mãos. O ATreVEE IN é composto por ambientes virtuais, cuja interface com o usuário é realizada via comandos gestuais, utilizando uma representação virtual das mãos do usuário dentro do ambiente. Após o desenvolvimento da nova versão, os dois simuladores foram testados por usuários da área de engenharia elétrica, utilizando a aplicação de questionários de usabilidade para a coleta de resultados. Com esses resultados foi possível observar que ambas as versões tiveram desempenho satisfatório, mostrando um potencial para auxiliar o treinamento. E apesar da primeira versão do simulador ter obtido resultados melhores que a versão com interação natural, acredita-se que isso se dá, em parte, pela falta de experiência dos usuários com esse tipo de dispositivo. Usuários que já possuíam experiência com interação gestual obtiveram melhor desempenho na execução das tarefas com o ATreVEE IN.
  • OSWALDO EVARISTO DA COSTA NETO
  • Proposta de uma abordagem sistêmica para o planejamento e monitoramento de atividades em cursos de graduação à distância.
  • Date: Jun 17, 2015
  • Time: 14:00
  • Show Summary
  • Na educação à distância, professores e tutores são responsáveis pela mediação da aprendizagem do aluno, mas para que possa acontecer de maneira satisfatória, se faz necessária a utilização de tecnologias e metodologias que lhes permitam planejar e monitorar as atividades atribuídas aos alunos. O exercício da docência em cursos de graduação à distância tem sido um desafio para os professores das disciplinas curriculares principalmente com relação às atividades atribuídas aos alunos. O presente trabalho de pesquisa apresenta uma metodologia para uma abordagem sistêmica no planejamento e monitoramento de atividades em cursos de graduação à distância que associada à utilização de sistemas de apoio ao ambiente virtual de aprendizagem possibilitará aos professores atribuírem as atividades sem sobrecarregar os alunos do curso.
  • ELIZA RIBEIRO DE OLIVEIRA
  • O Uso de Dispositivos Multi-Sensoriais para Promoção do Brincar em Crianças com Paralisia Cerebral
  • Date: Jun 15, 2015
  • Time: 10:00
  • Show Summary
  • A evolução nas interfaces de usuário tem mostrado uma forte tendência na utilização de interfaces tangíveis, em especial, as interfaces tangíveis que promovem uma experiência sensorial. Nesse contexto, a utilização desse tipo de recurso pode ser interessante em diferentes contextos, onde se destacam os cenários no qual o aspecto sensorial é determinante para a interação, como a atuação das tecnologias assistivas. O objetivo deste estudo é abordar o uso de dispositivos multi-sensoriais na promoção do brincar em crianças com Paralisia Cerebral (PC). A paralisia cerebral (PC) refere-se a uma série de síndromes clínicas caracterizadas por desordens motoras e alterações posturais permanentes que podem ou não estar associadas com disfunção cognitiva e distúrbios da fala. Devido à restrita condição motora, o envolvimento em jogos e brincadeiras se torna difícil para crianças com PC. Nosso desafio é abordar o uso de tecnologias assistivas através do uso de dispositivo multi-sensorial no desenvolvimento de jogos interativos para crianças com PC. O dispositivo multi-sensorial utilizado é uma bola robótica chamada Sphero. O uso de um dispositivo robótico permite manipular a bola remotamente, o que torna este recurso útil para crianças com deficiências físicas. Este estudo será realizado na clínica-escola de terapia ocupacional da Universidade Federal da Paraíba, onde iremos oferecer uma experiência de jogos interativos em intervenções de terapia ocupacional. Serão utilizados instrumentos para a avaliação e caracterização do paciente, bem como para a reavaliação após a intervenção. Serão feitas análises dos escores obtidos em cada instrumento avaliativo, de forma a detectar possíveis ganhos após a utilização do dispositivo multi-sensorial.
  • RAMON NOBREGA DOS SANTOS
  • Uma Abordagem Temporal para Identificação Precoce de Estudantes de Graduação a Distância com Risco de Evasão Utilizando Técnicas de Mineração de Dados
  • Date: May 29, 2015
  • Time: 14:00
  • Show Summary
  • Com a utilização de técnicas de mineração de dados, mais comumente os algoritmos de Classificação, pode-se construir modelos preditivos capazes de identificar precocemente um estudante com risco de evasão. Diversos estudos utilizam dados obtidos de um Ambiente Virtual de Aprendizagem (AVA) para a construção de modelos preditivos de desempenho em uma disciplina de um curso. Porém, nenhum estudo foi realizado com o objetivo de desenvolver um modelo de predição de evasão, para um curso de graduação a distância de maior duração, que integre trabalhos que fazem a predição de desempenho a partir de um AVA, possibilitando uma predição da evasão antecipada durante o primeiro semestre. Assim, este trabalho propõe uma abordagem de identificação de evasão em um curso de graduação a distância a partir da utilização da técnica de classificação por regras de decisão para, primeiramente, identificar as disciplinas e os limites de notas que mais influenciam na evasão para que os modelos preditivos de desempenhos em um AVA possam ser mais úteis no tocante a evasão de um aluno ao longo de todo o curso de graduação. Foram realizados experimentos com quatro algoritmos de Regras de Decisão: o JRip, o OneR, o PART e o RIDDOR. A partir da utilização da abordagem temporal proposta foi possível comprovar sua vantagem, uma vez que foram obtidos melhores desempenhos preditivos ao longo dos semestres e foram descobertas importantes regras para a identificação precoce de um estudante com risco de evasão. Entre os algoritmos estudados, JRip e PART obtiveram os melhores desempenhos preditivos. A partir da metodologia proposta de partições, na qual os atributos dos modelos preditivos são aplicados de forma incremental, foi possível aferir ganhos nos desempenhos preditivos e nas qualidades das regras encontradas.
  • ANNA CAROLINA SOARES MEDEIROS
  • Processo de Desenvolvimento de Interfaces de Usuário Baseadas em Gestos
  • Date: May 26, 2015
  • Time: 15:00
  • Show Summary
  • A utilização da nossa linguagem corporal para se comunicar com sistemas computacionais é uma característica cada vez mais possível e aplicável no mundo real. Essa fato é potencializado pela evolução das soluções comerciais baseadas em reconhecimentos de gestos. Uma interface de gestos complementa ou substitui a forma de navegação de uma interface convencional, cabe ao desenvolvedor escolher a opção mais adequada para a sua aplicação. Assim quando optamos pelo uso de gestos, os gestos serão responsáveis por acionar as funções oferecidas pelos sistemas. O presente trabalho apresenta um processo de desenvolvimento de interfaces de usuário centrado na escolha de gestos. O processo proposto deve auxiliar designers de interfaces a integrarem interação natural em suas aplicações de forma mais sistemática.
  • JARBELE CASSIA DA SILVA
  • Uma análise das interações discentes em fóruns de discussão online de Ambientes Virtuais de Aprendiz
  • Date: May 8, 2015
  • Time: 08:30
  • Show Summary
  • O desenvolvimento de estudos referentes a cursos de educação à distância, ou E-Learning, têm se tornado frequentes no cenário acadêmico-científico atual, visto o número crescente de cursos ministrados nessa categoria de ensino e as possibilidades de colaboração entre os participantes interposto pelos Ambientes Virtuais de Aprendizagem (AVA). As discussões online estabelecidas tornam os alunos engajados na partilha da informação e do conhecimento, de modo a estabelecer perspectivas de interação com outros alunos. Neste sentido, esta dissertação visa investigar o potencial gerado pelo uso de técnicas de Análise de Redes Sociais (ARS) aplicado à análise das interações entre alunos de um curso à distância que estabelecem comunicação em fóruns de discussão online, a fim de conhecer padrões de interação que podem ter influência na aprendizagem do aluno. Os resultados obtidos evidenciam que através da aplicação das métricas de centralidade de grau, centralidade de intermediação e das métricas de comportamento no grupo (grau de coesão e grau de heterogeneidade) é possível perceber que a interação estabelecida nos fóruns de discussão reflete o desempenho dos alunos no curso. Salienta-se também que é possível correlacionar os dados de desempenho dos alunos, com seus índices referentes a aplicação das métricas de ARS mencionadas. Esta pesquisa buscou contribuir à área de E-Learning oferecendo estratégias de análise das interações detectadas em fóruns de discussão online em AVAs, de forma a propiciar aos professores informações de apoio ao desenvolvimento de estratégias para monitoramento e gerenciamento da aprendizagem de alunos em cursos a distância.
  • AYSLÂNYA JERONIMO WANDERLEY
  • Um modelo para avaliação de relevância científica baseado em métricas de Análise de Redes Sociais
  • Date: Mar 30, 2015
  • Time: 15:00
  • Show Summary
  • A tarefa de avaliar a relevância científica de um pesquisador nem sempre é trivial. Geralmente esse processo é baseado em índices que consideram a produção e o impacto do mesmo em sua área de pesquisa. Entretanto, a literatura aponta que tais indicadores tomados isoladamente são insuficientes uma vez que desconsideram os padrões de relação nos quais os pesquisadores se inserem. Além disso, muitos trabalhos já comprovaram que as relações de colaboração exercem forte impacto sobre a relevância de um pesquisador. Nesse contexto, entende-se que a modelagem e análise dessas relações pode ajudar a construir novos indicadores que complementem o processo de avaliação vigente. Sendo assim, o objetivo deste trabalho foi especificar um modelo estatístico que permite avaliar a relevância científica de um pesquisador, definida pela detenção de bolsa de produtividade do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), baseado em métricas aplicadas às suas redes de colaboração científica. Para tanto foram aplicadas métricas de Análise de Redes Sociais (ARS) às redes de colaboração de 1592 docentes vinculados aos Programas de Pós-Graduação na área de Ciência da Computação que posteriormente serviram como base para construção de um modelo de Regressão Logística utilizando a técnica de validação cruzada 10-fold estratificada. O modelo proposto apresentou resultados bastante animadores e demonstrou que as métricas de ARS que mais influenciam na avaliação de relevância de um pesquisador são a Centralidade de Intermediação, o Grau Ponderado, o PageRank e o Coeficiente de Agrupamento Local, tendo as duas primeiras influência positiva e as duas últimas influência negativa. Isso demonstra que pesquisadores que desempenham um papel de intermediador dentro da rede e que costumam manter relacionamentos fortes com seus colaboradores são mais propensos a serem contemplados com bolsas de produtividade, enquanto que aqueles pesquisadores que possuem uma rede mais coesa e costumam colaborar com pesquisadores que já são líderes na sua área têm menor probabilidade de serem bolsistas.
  • ANGÉLICA FELIX MEDEIROS
  • UMA PROPOSTA DE PERSONALIZAÇÃO DE CONSULTAS EM DOCUMENTOS XML BASEADA EM PREFERÊNCIAS CONDICIONAIS
  • Date: Mar 27, 2015
  • Time: 10:00
  • Show Summary
  • O trabalho apresenta uma proposta de extensão da linguagem de consulta XQuery, denominada XQuery-Pref, para suporte a preferências condicionais. Com objetivo de tornar transparente para o usuário a execução de consultas escritas na linguagem XQuery-Pref, utiliza-se um sistema denominado XQPref, que é responsável pela elicitação de preferências dinâmicas e pelo processamento destas consultas personalizadas. Restringimos o escopo deste trabalho a documentos XML, tecnologia essencial para a gestão do conhecimento e divulgação de dados pela web, que diante da sobrecarga da informação, tem despertado a preocupação em personalizar os resultados de consultas de acordo com as necessidades de cada usuário.
  • IGOR LUCENA PEIXOTO ANDREZZA
  • ANÁLISE DE TÉCNICAS DE NORMALIZAÇÃO APLICADAS AO RECONHECIMENTO FACIAL
  • Date: Feb 27, 2015
  • Time: 14:00
  • Show Summary
  • A biometria oferece um mecanismo de autenticação confiável, que identifica os usuários através de suas características físicas e comportamentais. O problema do reconhecimento facial não é trivial, pois existem muitos fatores que influenciam na detecção e no reconhecimento como, por exemplo, a iluminação, a posição da face, cabelo, barba, etc. Este trabalho se propõe a analisar os efeitos de técnicas de normalização geométrica e de iluminação sobre métodos de reconhecimento de face, visando adequar esses métodos para ambientes não controlados. Os resultados mostram que a presença do plano de fundo contribui indevidamente para aumentar as taxas de acerto no reconhecimento de face, fato que ocorre em vários trabalhos presentes na literatura. As técnicas de normalização de iluminação e normalização geométrica, quando realizada com pontos precisos dos centros dos olhos, efetivamente ajudam na tarefa de reconhecimento facial.
  • MÁRCIA VALDENICE PEREIRA DO NASCIMENTO
  • Um método de reconhecimento de indivíduos por geometria da mão
  • Date: Feb 27, 2015
  • Time: 10:00
  • Show Summary
  • Nos últimos anos, o reconhecimento de indivíduos por meio de informações biométricas tem sido cada vez mais adotado nas mais diversas aplicações, sejam elas comerciais, governamentais ou forenses. Uma das razões para essa escolha fundamenta-se nas informações biométricas serem mais difíceis de adulterar, compartilhar, ocultar ou extraviar do que outras alternativas como cartões e senhas. Várias características dos indivíduos, sejam físicas ou comportamentais, podem ser utilizadas em um sistema biométrico, como por exemplo, impressão digital, face, voz, íris, forma de andar, impressão palmar, geometria da mão, entre outras. Diversos trabalhos têm explorado esses e outros traços produzindo mecanismos de reconhecimento cada vez mais seguros e precisos, mas nenhum é imune a falhas e ainda há muito a evoluir e a aprimorar nessa área. Com base nisso, esse trabalho apresenta uma nova proposta de reconhecimento biométrico baseado em geometria da mão. Um banco de dados com 100 indivíduos e amostras de ambos os lados das mãos foi utilizado. O processo de extração de características prioriza o conforto do usuário durante a captura e produz segmentação das mãos e dedos com precisão elevada. Ao todo, 84 atributos foram extraídos de cada indivíduo e o método foi avaliado sob a perspectiva de diferentes abordagens de classificação e verificação. Nos testes de classificação, técnicas de validação cruzada e subamostragem randômica estratificada foram utilizadas. Os experimentos demonstraram resultados competitivos quando comparados a outros métodos do estado da arte em geometria da mão, apresentando 100% de acurácia em diferentes estratégias de classificação e uma taxa EER de 0,75% no processo de verificação.
  • VIRGINIA PINTO CAMPOS
  • Um Sistema de Geração Automática de Roteiros de Autodescrição
  • Date: Feb 27, 2015
  • Time: 10:00
  • Show Summary
  • Um Sistema de Geração Automática de Roteiros de Autodescrição
  • ERICK VAGNER CABRAL DE LIMA BORGES
  • SUMARIZAÇÃO AUTOMÁTICA DE CENAS FORENSES
  • Date: Feb 27, 2015
  • Time: 08:00
  • Show Summary
  • A presença crescente de dispositivos de gravação de vídeo nas mais diversas áreas vêm proporcionando um aumento no uso destas imagens principalmente para fins investigativos. Isto faz com que a utilização de métodos e ferramentas que realizem a análise e o monitoramento automático de ambientes seja cada vez mais necessária para dar suporte técnico e de conhecimento aos investigadores, possibilitando que os resultados alcançados sejam os mais eficientes e eficazes possíveis. Este trabalho descreve o desenvolvimento de métodos de visão computacional que têm como objetivo extrair aspectos relevantes de cenas – imagens individuais, ou quadros ou sequências de quadros de vídeo - e utilizar a informação obtida com o propósito de sumarização. Os métodos propostos visam detectar e analisar movimentação, detectar faces classificando-as por gênero, efetuar reconhecimento de faces, realizar o rastreamento de faces humanas e reconhecer a cor predominante no vestuário de indivíduos. O sistema desenvolvido efetua a extração de informações relevantes, o que auxilia na redução do tempo necessário à inspeção por seres humanos, na interpretação e argumentação de casos e na documentação dos casos. Ao fim do trabalho, os métodos desenvolvidos apresentaram resultados compatíveis com os da literatura.
  • EWERTON LOPES SILVA DE OLIVEIRA
  • Classificação de tópicos para textos curtos em redes sociais
  • Date: Feb 23, 2015
  • Time: 14:00
  • Show Summary
  • Nos últimos anos um grande número de pesquisas científicas fomentou o uso de informações da web como insumos para a vigilância epidemiológica e descoberta/mineração de conhecimentos relacionados a saúde pública em geral. Ao fazerem uso de conteúdo das mídias sociais, principalmente tweets, as abordagens propostas transformam o problema de identificação de conteúdo em um problema de classificação de texto, seguindo o cenário de aprendizagem supervisionada. Neste processo, algumas limitações atribuídas à representação das mensagens, atualização de modelo assim como a extração de atributos discriminativos, surgem. Partido disso, a presente pesquisa propõe investigar o impacto no desempenho de classificação de mensagens sociais curtas através da expansão contínua do conjunto de treinamento tendo como referência a medida de confiança nas predições realizadas. Paralelamente, a pesquisa também teve como objetivo avaliar alternativas para ponderação e extração de termos utilizados para a classificação, de modo a reduzir a dependência em métricas baseadas em frequência de termos. Restringindo-se à classificação binária de tweets relacionados a eventos de saúde e escritos em língua inglesa, os resultados obtidos revelaram uma melhoria de F1 de 9%, em relação a linha de base utilizada, evidenciando que a ação de expandir o classificador eleva o desempenho de classificação, também para o caso da classificação de mensagens curtas em domínio de saúde. Sobre a ponderação de termos, tem-se que a principal contribuição obtida, está na capacidade de levantar termos característicos do conjunto de dados e suas classes de interesse automaticamente, sem sofrer com limitações de frequência de termos, o que pode, por exemplo, ser capaz de ajudar a construir processos de classificação mais robustos e dinâmicos ao qual façam uso de listas de termos específicos para indexação em consultas à bancos de dados externos (background knowledge). No geral, os resultados apresentados podem beneficiar, pelo aprimoramento das hipóteses levantadas, o surgimento de aplicações mais robustas no campo da vigilância, controle e contrapartida à eventos reais de saúde (epidemiologia, campanhas de saúde, etc.), por meio da tarefa de classificação de mensagens sociais curtas.
  • MOACIR LOPES DE MENDONÇA JÚNIOR
  • Metodologia para Análise de Relevância de Publicações através de Rede de Citações
  • Date: Feb 13, 2015
  • Time: 14:00
  • Show Summary
  • A pesquisa científica é definida como um conjunto de atividades que têm por objetivo a descoberta de novos conhecimentos de interesse para a solução de problemas existentes. O conhecimento científico não se resume na descoberta de fatos e leis novas, mas também em sua publicação. Trata-se de obter e comunicar resultados através de formas de produção científica. Visando compreender o complexo sistema de produção científica inúmeras técnicas de análise vêm sendo aplicadas em repositórios digitais. Essas técnicas objetivam a identificação de produções cientificas relevantes baseadas em indicadores. Neste sentido o presente trabalho de pesquisa tem como objetivo criar uma metodologia que possibilite da melhor maneira possível identificar publicações que são relevantes a determinadas áreas de conhecimento. Para isto utilizamos três contextos, o primeiro sobre a área de análise de redes sociais, o segundo sobre os anais dos 20 anos do webmedia e por último sobre área de sistemas embarcados. Como fonte de estudo nossa ferramenta de software conseguiu diversos resultados referentes as áreas de conhecimento entre ele a evolução de publicações para os veículos de publicação mais relevantes, a classificação das comunidades pertencentes a rede, e entre outros resultados.
  • DANILO DANTAS DA NÓBREGA TAVARES
  • Um modelo de features para jogos sérios voltados à saúde: uma abordagem baseada em linha de produtos de software
  • Date: Feb 2, 2015
  • Time: 09:00
  • Show Summary
  • A indústria de jogos sérios tornou-se uma das mais expressivas no ramo do entretenimento. Porém a produção de jogos sérios em geral tem enfrentado o desafio de atender a alta demanda do mercado. Para isso, uma das soluções é transformar a produção quase artesanal dos jogos sérios para à saúde numa espécie de manufatura, onde componentes são reusados, aumentado a produtividade. Tais jogos representam situações reais em ambientes virtuais, podendo ser utilizados para treinar, monitorar, capacitar e até mesmo para manter hábitos saudáveis. Esses jogos possuem várias características (features) em comum, onde podemos fazer o reuso dessas características para gerar novos jogos. Assim, foi realizada uma revisão sistemática da literatura para criar o modelo de features para jogos sérios voltados à saúde. Posteriormente, foi realizada a análise de vários jogos disponíveis na Internet, a fim de aprimorar o modelo de features. O modelo de features resultante foi avaliado quanto a sua utilidade e usabilidade através de um experimento envolvendo alunos de um curso de graduação.
2014
Description
  • ANA PAULA NUNES GUIMARAES
  • Recomendações para Avaliação da Experiência de Usuário em Aplicativos Móveis para Surdos
  • Date: Dec 9, 2014
  • Time: 10:00
  • Show Summary
  • O uso de dispositivos móveis traz grandes benefícios de conectividade para seus usuários. Contudo, o acesso à informação através desses dispositivos representa um novo desafio de interação para os usuários que possuem algum tipo de deficiência. Atualmente, a maioria das aplicações móveis possui barreiras de acessibilidade que dificultam ou impossibilitam a utilização por diversos indivíduos com necessidades especiais. Visando garantir o acesso ao conteúdo a todos os usuários independentemente de limitações físicas e mentais, este trabalho propõe um modelo de avaliação de interfaces de usuário voltado à acessibilidade em dispositivos móveis. O modelo proposto leva em consideração a experiência de usuários sem deixar de lado as especificidades do contexto móvel e do cenário de acessibilidade. Como resultados parciais, tem-se um conjunto de percepções observadas a partir de testes realizados ao avaliar uma aplicação móvel desenvolvida para deficientes auditivos. Resultados mostram os desafios e novas perspectivas ao avaliar a acessibilidade móvel, dado que poucos métodos consideram de forma acoplada esses dois contextos.
  • SARAH SOARES DE OLIVEIRA
  • ESTRATÉGIAS PARA GRAVAÇÃO E REPRODUÇÃO DE EXPERIÊNCIA TRIDIMENSIONAL EM TELEMEDICINA
  • Date: Oct 3, 2014
  • Time: 10:00
  • Show Summary
  • A Telemedicina é um campo que vem crescendo ao longo dos últimos anos e tem como principais benefícios a colaboração, o ensino à distância, a prevenção e o tratamento de doenças. A Computação Gráfica visa estudar, entre outros aspectos, a geração, a manipulação e a análise de imagens e modelos tridimensionais através do computador. A utilização de técnicas de Computação Gráfica em conjunto com sistemas de Telemedicina pode enriquecer as transmissões de vídeos de cirurgias, facilitar o entendimento dos problemas dos pacientes, melhorar a comunicação entre os cirurgiões e toda a equipe médica e prover melhorias em relação ao ensino e à aprendizagem. A proposta deste trabalho é elaborar e desenvolver uma estratégia para gravação e posterior reprodução de conteúdo tridimensional que simula as estruturas anatômicas do corpo humano, utilizados durante uma transmissão cirúrgica em tempo real. A experiência multimídia gerada pelos múltiplos fluxos de áudio, vídeo e modelos 3D é de grande relevância para os estudantes de Medicina que acompanham a transmissão, tanto ao vivo quanto de forma não simultânea e subsequente ao procedimento cirúrgico. Diante desse cenário, surge a necessidade de uma estratégia para viabilizar a gravação da experiência 3D no contexto da ferramenta Arthron, que já possui módulos para gravação de áudio e vídeo de cirurgias transmitidas em tempo real, mas não abrangem a gravação da experiência tridimensional.Assim, um sistema multimídia poderá utilizar a estratégia proposta para gravar algum conteúdo extra transmitido ao vivo e que posteriormente necessite ser reproduzido. Com a estratégia proposta, pretende-se fazer com que uma maior quantidade de membros de equipes médicas possa ter acesso a materiais gerados através de fluxos multimídia em tempo real, promovendo uma ampla capacitação independente de distâncias geográficas.
  • PEDRO HENRIQUE TOLENTINO DE MELO NOGUEIRA
  • Algoritmos para Alocação de Rota e Comprimento de Onda com Restrições de Energia e da Camada Física em Redes Ópticas
  • Date: Jul 31, 2014
  • Time: 14:00
  • Show Summary
  • Esta dissertação propõe dois novos algoritmos de roteamento e alocação de comprimento de onda, a saber, o EA-RWA (Energy Aware Routing and Wavelength Assigment) e o IEA-RWA (Impairment Aware Routing and Wavelength Assigment). Os algoritmos terão como característica, melhorar a eficiência energética em redes ópticas transparentes dinâmicas, sendo o primeiro mais simples, pois não se preocupa com as imperfeições da camada física. O EA-RWA é comparado com um algoritmo RWA tradicional/clássico que não leva em conta, no momento de admissão de conexões, restrições da camada física e nem consumo de energia. Já o IEA-RWA é comparado com um algoritmo RWA que leva em conta restrições da camada física (IA-RWA). As simulações numéricas mostram que o IEA-RWA apresenta melhor desempenho em vários aspectos.
  • IVANILDO ALVES DE MEDEIROS
  • DL-TUTOR: UMA FERRAMENTA DE APOIO À GESTÃO DA ATIVIDADE DA TUTORIA EM SISTEMAS DE EDUCAÇÃO A DISTÂNCIA
  • Date: Jul 31, 2014
  • Time: 10:00
  • Show Summary
  • É possível observar que o atual cenário da educação a distância nas IES Brasileiras tem mostrado um aumento na procura por Cursos a Distância. O MEC divulgou que este aumento foi de cerca de quinze por cento das matriculas realizadas nos cursos de nível superior (MEC 2013). Esta situação aponta claramente para uma expansão nas redes de ensino em ofertar cursos na modalidade a distância. Para poder atender e se adequar a este novo nível de complexidade é necessário adaptar os sistemas de acadêmicos e contar com ambientes virtuais de aprendizagem – AVAs - de forma a permitir que professores e alunos possam se beneficiar das novas facilidades oferecidas por estes ambientes. Verifica-se, entretanto, que os sistemas de gestão acadêmica e gestão da aprendizagem disponíveis não atendem as reais necessidades administrativas e pedagógicas dos coordenadores e professores no âmbito da EAD. Além disso, novos papéis foram criados para atender, de forma adequada, aos alunos de EAD, como por exemplo, o papel do Tutor. O foco central deste trabalho foi pesquisar as reais dificuldades encontradas por professores e coordenadores de cursos a distância na gestão das atividades dos Tutores, estabelecer as funcionalidades em um sistema desenvolvido para consulta aos dados das atividades dos tutores em um ambiente de ensino-aprendizagem, bem como oferecer elementos para auxiliar e agilizar a prática de coordenadores e professores na gestão das atividades dos tutores nas salas virtuais de aprendizagem. Para tanto, foram levantados os requisitos funcionais, realizada avaliação da plataforma Moodle, e implementada uma aplicação WEB para atender à gestão de atividades dos tutores no Moodle. O resultado final foi uma ferramenta denominada DL-TUTOR
  • RENE PEREIRA DE GUSMAO
  • O Uso de Metaheurísticas para o Problema de Roteamento e Atribuição de Espectro em Redes Ópticas Elásticas
  • Date: Jul 31, 2014
  • Time: 10:00
  • Show Summary
  • Neste trabalho foi estudado o problema de roteamento e alocação de rota (RSA) em redes ópticas elásticas. Este é um problema similar ao problema de roteamento e alocação de comprimentos de onda, este último sendo característico em redes ópticas roteadas em comprimentos de onda. O problema RSA tem como objetivo atribuir a menor quantidade de recursos de uma rede óptica elástica de tal forma que consiga atender ao máximo número de demandas definidas na matriz de tráfego cliente. Além do estudo sobre o problema, neste trabalho foram implementadas duas metaheurísticas, sendo elas o Iterated Local Search (ILS) e o Greedy Randomized Adaptative Search Procedure (GRASP), as quais utilizam os modelos matemáticos SSA e LP-CA na fase de busca local. Para implementar os modelos matemáticos e metaheurísticas, foi utilizada a IDE IBM iLOG CPLEX. Os resultados obtidos são apresentados através de gráficos, os quais demonstraram que as metaheurísticas conseguiram ser eficientes e competitivas, apresentando soluções de boa qualidade em um tempo computacional aceitável e até menor que os resultados apresentados pelos modelos exatos. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para trabalhos futuros neste campo de estudo.
  • WESLEY WILLAME DIAS MENEZES
  • METAHEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DA VARIABILIDADE DO TEMPO DE RESPOSTA
  • Date: Jul 31, 2014
  • Time: 10:00
  • Show Summary
  • Com o advento dos avanços tecnológicos, cada vez mais se procura soluções que utilizem menos recursos, sejam mais rápidos e de baixo custo. Em virtude disso, este trabalho propôs uma abordagem metaheurística híbrida utilizando Greedy Randomized Adaptive Search Procedure (GRASP) e Iterated Local Search (ILS) aplicados ao Problema da Variabilidade do Tempo de Resposta. Este problema pode envolver desde alocação de recursos escassos, como por exemplo, máquinas industriais ou salas de reunião, passando pelo agendamento de clientes de um banco que requerem certas condições, o planejamento das propagandas de TV ou o percurso feito por caminhões de empresas transportadoras, dentre outros. Para a aplicação do procedimento, foram utilizados os movimentos de inserção de símbolos, deslocamento do mesmo, permuta de posição entre símbolos e de um movimento chamado double brigde, que é uma mistura dos movimentos de deslocamento e permutação envolvendo símbolos opostos. As estruturas de vizinhança compostas basearam-se nos movimentos descritos anteriormente, variando a quantidade de símbolos envolvidos. Desta forma, os resultados obtidos demonstram que tais procedimentos trouxeram resultados satisfatórios ao problema e condizentes quando comparados com a literatura.
  • ANDRE CALISTO SOUZA M GUEDES
  • Um Estudo sobre os Impactos dos Relacionamentos Sociais na Avaliação do Mérito Científico
  • Date: Jul 31, 2014
  • Time: 09:00
  • Show Summary
  • Técnicas de análise de redes sociais podem ser utilizadas para extrair conhecimento da rede por meio da análise das interações entre seus membros. Neste trabalho pretendemos aplicar técnicas de análise de redes sociais a redes formadas pela colaborações científicas entres pesquisadores. Pretendemos com isso avaliar se as relações de colaboração entre pesquisadores possuem alguma influência na avaliação do mérito científico. Utilizaremos como estudos de caso o processo de concessão das chamadas bolsas de produtividade em pesquisa do CNPQ na área de Ciência da Computação.
  • ANDRE CALISTO SOUZA M GUEDES
  • Um Estudo sobre os Impactos dos Relacionamentos Sociais na Avaliação do Mérito Científico
  • Date: Jul 31, 2014
  • Time: 09:00
  • Show Summary
  • Técnicas de análise de redes sociais podem ser utilizadas para extrair conhecimento da rede por meio da análise das interações entre seus membros. Neste trabalho pretendemos aplicar técnicas de análise de redes sociais a redes formadas pela colaborações científicas entres pesquisadores. Pretendemos com isso avaliar se as relações de colaboração entre pesquisadores possuem alguma influência na avaliação do mérito científico. Utilizaremos como estudos de caso o processo de concessão das chamadas bolsas de produtividade em pesquisa do CNPQ na área de Ciência da Computação.
  • HIDELBERG OLIVEIRA ALBUQUERQUE
  • GenNormas: Um Processo Genérico para Conformidade Legal na Engenharia de Requisitos
  • Date: Jul 24, 2014
  • Time: 11:00
  • Show Summary
  • O Framework Nòmos estende o Framework i* para alcançar a conformidade legal dos requisitos de sistemas de informação. A conformidade legal é uma exigência imposta por departamentos governamentais, a partir do conteúdo encontrado nas normas jurídicas. O não-cumprimento destas exigências por parte de um software pode acarretar transtornos legais e financeiros às empresas e suas soluções. Por outro lado, o fato do Nòmos ser dependente do i* pode ser uma barreira para a sua ampla adoção na indústria. Portanto, este trabalho propõe tornar o Nòmos independente de notação de modelagem de processos de negócio ou de requisitos de software, ao invés de ser aplicado exclusivamente no i*, como proposto originalmente.
  • LEANDRO FIGUEIREDO ALVES
  • Arquitetura Paralela em CUDA para Implementação do Algoritmo Non Local Means (NLM)
  • Date: Jul 18, 2014
  • Time: 14:00
  • Show Summary
  • A área de processamento de imagens digitais está evoluindo continuamente e, embora as áreas de aplicações sejam diversas, os problemas encontrados comumente convergem para os métodos capazes de melhorar a informação visual para a análise e interpretação. Uma das principais limitações correlatas com precisão de imagens é o ruído, ou perturbações na imagem. O método Non-Local Means (NLM) apresentado por Buades, Coll e Morel (2004) destaca-se como o método mais eficiente para filtragem de ruído. Apesar de possuir resultados de filtragem que se sobressaem em relação aos demais disponíveis na literatura, sua complexidade computacional é um empecilho para torná-lo prático em aplicações computacionais de uso geral, especialmente as de tempo real. Atualmente há na literatura científica diversos trabalhos visando a otimização do NLM, porém muitos sem ganhos consideráveis para facilitar o uso, o estudo e o aperfeiçoamento do método. Este trabalho apresenta novas propostas para reduzir a complexidade computacional do algoritmo alinhado com uma implementação otimizada em hardware densamente paralelo, onde se destacam as placas gráficas - ou GPU's - que possuem desempenho superior aos processadores de uso geral para dados vetoriais. Os resultados obtidos das propostas alcançaram um tempo de execução de 16.000 a 360.000 vezes mais rápido e com filtragem mais eficaz que o NLM original.
  • ANDREA FERNANDA FONTES BEZERRA
  • Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde
  • Date: May 23, 2014
  • Time: 14:00
  • Show Summary
  • -
  • ANDREA FERNANDA FONTES BEZERRA
  • Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde
  • Date: May 23, 2014
  • Time: 14:00
  • Show Summary
  • -
  • DOUGLAS DOS SANTOS FERREIRA
  • Interação Natural por Meio de Gestos para Apoio a Docentes no Processo de Ensino em Saúde
  • Date: Apr 29, 2014
  • Time: 14:00
  • Show Summary
  • No campo de interação humano-computador, métodos de Interação Natural vem ganhando destaque por proporcionarem a comunicação entre usuário e máquina de maneira fácil e intuitiva, por meio da interpretação de ações naturais das pessoas. Os dispositivos de rastreamento óptico são importantes nesse contexto, pois proporcionam o rastreamento do corpo humano, obtendo informações que podem ser usadas para prover a interação de forma natural. No âmbito de desenvolvimento de sistemas de Realidade Virtual para saúde, há a necessidade de se produzirem formas de interação que se assemelhem àquelas comumente realizadas pelas pessoas em atividades do dia-a-dia. Devido às suas características intuitivas, a Interação Natural pode exercer um papel importante nesse cenário, beneficiando o processo de comunicação humano-computador. É importante destacar que alguns comportamentos naturais podem ser de origem cultural, gerando a necessidade de se identificar as especificidades do público-alvo no que diz respeito à interação com aplicações que proveem interfaces naturais. O objetivo geral deste trabalho é propor um conjunto de técnicas de Interação Natural por meio de gestos rastreados por dispositivos ópticos em sistemas de Realidade Virtual para apoio a docentes de saúde em atividades letivas. Este trabalho inclui o desenvolvimento e validação de um módulo de Interação Natural para um framework de desenvolvimento de sistemas de Realidade Virtual para saúde.
  • EDUARDO DE LUCENA FALCAO
  • Deaf Accessibility as a Service: uma Arquitetura Escalável e Tolerante a Falhas para o Sistema de Tradução VLIBRAS
  • Date: Mar 10, 2014
  • Time: 09:00
  • Show Summary
  • xx
  • THALLES ROBSON BARBALHO
  • Um Jogo Social para TV Digital Interativa
  • Date: Feb 20, 2014
  • Time: 15:00
  • Show Summary
  • Os jogos sociais são um fenômeno amplamente difundido na Web. Eles atraem milhões de jogadores e ampliam suas fronteiras a um público cada vez mais heterogêneo. Isto se deve muito pela popularidade das redes sociais onde muitos desses jogos são acomodados. Ao mesmo tempo, existe uma convergência cada vez mais granular entre TV e Web que traz para a TV muitas das aplicações que também fazem sucesso na Web. Assim, pode-se aproveitar da audiência da Web, para alavancar o interesse pelo conteúdo televisivo. Porém, ambas as plataformas diferem-se substancialmente: cada uma delas tem padrões de interação e características próprias. Esse trabalho analisa essas diferenças e sutilezas para propor uma adaptação mais adequada entre conteúdo da Web para TV. Busca-se um entendimento do que são os jogos sociais e suas mecânicas comuns, baseadas em interações que aumentam a empatia e a reciprocidade, tornando os jogos sociais atrativos e envolventes. Pretende-se ir ao encontro das aplicações sociais para TV Interativa atualmente disponíveis, na tentativa de determinar quais padrões de interação encontrados nos jogos sociais para Web também fazem sentido para TV. O objetivo principal é estabelecer uma série de requisitos para jogos sociais adequada à realidade televisiva, especialmente ao middleware Ginga. Um protótipo foi implementado em NCL/Lua, um conjunto de linguagens que possibilita a construção de aplicativos interativos para Ginga, como prova de conceito. Entrevistas foram realizadas junto a uma amostra de usuários para avaliar o protótipo.
  • THIAGO RODRIGUES MEDEIROS
  • Análise e Implementação de Algoritmos para a Aprendizagem por Reforço
  • Date: Feb 14, 2014
  • Time: 14:00
  • Show Summary
  • O Aprendizado por Reforço é um subcampo do Aprendizado de Máquina e pode ser definido como um problema de aprendizado. Um sistema inteligente que enfrenta esse problema, entende a partir de recompensas, se as ações que está realizando no ambiente são boas ou ruins. Existem vários métodos e técnicas encontradas na literatura para resolver os problemas de aprendizado por reforço, no entanto, cada uma delas possuem suas vantagens e desvantagens. A partir disso, esse trabalho apresenta uma biblioteca de aprendizado por reforço, chamada AI-RLLibrary. A AI-RLLibrary é uma biblioteca que possui o objetivo de facilitar, organizar e promover a reusabilidade de código, para a implementação de sistemas que possuem esse problema de aprendizado. Para a sua construção, foi realizado um levantamento bibliográfico dos principais métodos que solucionam o problema de aprendizado por reforço, visando a análise estatística dos mesmos, com o objetivo de encontrar vantagens e desvantagens e a partir dos resultados obtidos, modelar e implementar a biblioteca com base no método que obteve melhor exito na análise. Nesta dissertação está descrito todo o processo deste trabalho, desde o levantamento bibliográfico a análise dos métodos e construção da biblioteca.
  • MANOEL DE ALBUQUERQUE LIRA AMARO
  • Consultas Semânticas Baseadas em Linked Data para Ambientes de Convergência Digital (TVDi e Web)
  • Date: Feb 12, 2014
  • Time: 10:00
  • Show Summary
  • O surgimento da TV Digital trouxe, além da alta definição, o potencial da interatividade e metadados relativos à programação da TV. Porém, algumas informações disponibilizadas pelas emissoras podem não ser suficientes para o usuário tomar uma decisão sobre o que vai assistir. Esse trabalho tem como objetivo propor uma abordagem de Consultas Semânticas no ambiente da TV Digital Interativa baseada nos conceitos e padrões da Web Semântica, especificando uma arquitetura de Serviço Web com o objetivo de prôver um meio de enriquecimento dos metadados vindos da emissora, expandindo as informações e adicionando relacionamentos semânticos em um grafo de dados provenientes da nuvem Linked Data. Um Serviço Web de Consulta Semântica integrado à plataforma Knowledge-TV foi desenvolvido para validar essa abordagem.
  • VINICIUS SOUZA DOS SANTOS
  • Uma Abordagem para Seleção de Equipes Tecnicamente Qualificadas para Implementação de Projetos de Software
  • Date: Feb 11, 2014
  • Time: 08:00
  • Show Summary
  • Devido às necessidades atuais e grande demanda de produtos de software com cada vez mais qualidade, várias abordagens para desenvolvimento de software foram propostas. Entre estas, Linha de Produtos de Software (LPS) surgiu como uma abordagem promissora para a melhoria da qualidade de software e redução de custos e prazos devido sua alta capacidade de reúso. Outra abordagem promissora que tem sido adotada pelas organizações, como consequência da globalização, é o Desenvolvimento Distribuído de Software (DDS), que possibilita encontrar mão de obra qualificada e custos mais atrativos em empresas espalhadas pelo mundo. Ao adotar conjuntamente as abordagens de LPS e DDS, especialistas de domínio podem ser encontrados em várias equipes terceirizadas ou mesmo equipes de subsidiárias ou filiais localizadas em qualquer parte do mundo. Todavia, mesmo utilizando-se dessas abordagens que visam melhorar a qualidade dos produtos de software criados, não se pode garantir a qualidade dos mesmos se as equipes não possuírem os conhecimentos necessários e específicos para implementação dos diversos módulos de software. Assim, surge uma questão primordial: quais equipes são tecnicamente mais qualificadas para desenvolver cada módulo identificado num projeto de software? Considerando apenas dez equipes e dez módulos de software, é possível identificar 10.000.000.000 combinações possíveis entre módulos e equipes. Claramente, esse é um processo complexo para ser realizado pelo gerente de projetos utilizando apenas sua experiência, uma vez que um grande número de combinações pode ser identificado com um número relativamente pequeno de equipes e módulos de software. Assim, qualquer decisão tomada de maneira ad-hoc pode ser complexa, ineficiente e sujeita a erros. A fim de fornecer suporte para escolha de equipes distribuídas de desenvolvimento de software, podendo inclusive o projeto estar integrado em um cenário de Linhas de Produtos de Software, este trabalho apresenta uma abordagem de apoio à decisão que identifica um conjunto de equipes qualificadas tecnicamente para o desenvolvimento de cada módulo de software, baseado em requisitos técnicos dos módulos e capacidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira tem a intenção de produzir um artefato que representa os requisitos técnicos esperados para desenvolver cada módulo de software. Com base em tais requisitos, a segunda etapa tem por objetivo representar as habilidades técnicas de todas as equipes candidatas. Em seguida, a terceira etapa visa à definição de uma política que rege a seleção de equipes. Por fim, a quarta etapa processa as informações coletadas nas fases anteriores em um algoritmo de lógica fuzzy e realiza a seleção das equipes. Como saída, para cada módulo de software é gerado uma recomendação que indica o conjunto de equipes candidatas que possuem as qualificações técnicas mais adequadas para implementar os módulos de softwares segundo a política de seleção adotada.
  • DANILO CARLOS GOUVEIA DE LUCENA
  • Classificação Supervisionada com Programação Probabilística
  • Date: Feb 10, 2014
  • Time: 14:00
  • Show Summary
  • Mecanismos de inferência probabilísticos estão na intersecção de três áreas: estatística, linguagens de programação e sistemas de probabilidade. Esses mecanismos são utilizados para criar modelos probabilísticos e auxiliam no tratamento incertezas. As linguagens de programação probabilísticas auxiliam na descrição de alto nível desses tipos de modelos. Essas linguagens facilitam o desenvolvimento abstraindo os mecanismos de inferência de mais baixo nível, favorecem o reuso de código e auxiliam na análise dos resultados. Este estudo propõe a análise dos mecanismos de inferência implementados pelas linguagens de programação probabilísticas e apresenta estudos de caso dessas linguagens aplicados em sistemas de processamento de linguagem natural.
  • LARISSA LEONCIO PINHEIRO
  • Uma Abordagem Ontológica para Recomendação de Equipes Qualificadas em Projetos de Desenvolvimento Distribuído de Linhas de Produtos de Software
  • Date: Feb 10, 2014
  • Time: 10:00
  • Show Summary
  • As iniciativas de componentização de software e de desenvolvimento de software orientado a objetos, na década de 80, despertaram o interesse de desenvolvedores para as oportunidades e vantagens da reutilização de código, gerando assim o reuso em diversas etapas do desenvolvimento, como, por exemplo, documentação, especificação e modelagem, aumentando assim a busca por melhores oportunidades de negócio, sejam para reduzir custos de desenvolvimento ou obter ganhos de produtividade. A evolução destas ideias levou a formulação do modelo de Linhas de Produtos de Software, que representa um deslocamento no foco do paradigma tradicional de desenvolvimento de software. Dentro desse novo paradigma, as organizações que antes abordavam o desenvolvimento de software projeto a projeto, devem agora concentrar os seus esforços na criação e manutenção de uma linha de produtos de software, que serve de base para a produção de uma coleção de produtos pertencentes a uma “família”. Segundo [Clemente, 2002], um projeto de implantação de uma linha de produtos de software pode ser considerado um projeto de adaptação a uma tecnologia, ou a uma nova maneira de fazer negócio. Especificamente, no caso de linhas de produtos, ambas as definições se aplicam, tornando o projeto ainda mais delicado. Como toda mudança tecnológica, esse tipo de projeto deve envolver uma avaliação da situação atual da empresa, uma articulação do estado desejado e a elaboração de um plano para atingir este estado. No caso específico de linhas de produtos de software, por se tratar de um modelo que interfere diretamente na maneira de trabalhar da empresa, fatores extratecnológicos devem ser considerados, tais como: a adaptabilidade das pessoas, o tipo de treinamento necessário e a preparação do cliente para a nova maneira de trabalhar. Com o intuito de auxiliar na recomendação de equipes qualificadas em projetos de desenvolvimento distribuído de linhas de produtos de software, esta dissertação apresenta uma abordagem ontológica de apoio à decisão de gerentes de projetos, cujo objetivo é identificar um conjunto de equipes qualificadas para implementar cada módulo de software, levando em consideração os requisitos técnicos dos módulos e as habilidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira etapa tem o objetivo de produzir um modelo de descrição que representa os requisitos técnicos esperados para implementar cada módulo de software. A segunda etapa tem o propósito de gerar um modelo de descrição que representa as habilidades técnicas das equipes candidatas a implementar os módulos de software. A terceira etapa tem o intuito de definir políticas para selecionar as equipes habilitadas a implementar os módulos de software. E, por fim, explorando uma base de dados ontológica, a quarta etapa processa as informações obtidas nas etapas anteriores e realiza a seleção das equipes habilitadas para a implementação dos módulos de software. Sendo assim, como resultado, para cada módulo de software, são geradas recomendações que indicam as equipes candidatas que possuam as habilidades técnicas mais adequadas para implementar os módulos de software.
  • SASKYA THEREZA ALVES GURGEL
  • Análise de Técnicas de Implementação Paralela para Treinamento de Redes Neurais em GPU
  • Date: Jan 31, 2014
  • Time: 14:00
  • Show Summary
  • Com a crescente expansão do volume de dados disponíveis e a latente necessidade de transformá-los em conhecimento e informação, se faz necessário o desenvolvimento de técnicas capazes de realizar a análise destes dados em tempo hábil e de uma maneira eficiente. Redes Neurais promovem uma análise de dados capaz de classifica-los, como também, predizem informações sobre estes. Entretanto, Redes Neurais propõem um modelo natural de computação paralela que requer técnicas de implementação com alto poder de processamento. O crescente desenvolvimento do hardware paralelo oferece ambientes com poder computacional cada vez mais robusto. A GPU classifica-se como hardware capaz de processar implementações paralelas de uma maneira eficiente e a um custo em constante redução. Sendo assim, apresenta-se uma técnica de implementação paralela de Redes Neurais com processamento em GPU. Este trabalho visa realizar uma análise comparativa entre diferentes técnicas de implementação encontradas na literatura e a técnica proposta neste trabalho. Resultados experimentais indicam a sobressaliência do modelo paralelo quando comparado a uma implementação sequencial com processamento em CPU.
  • WANDERSON GOMES DE SOUZA
  • Um Estudo de Casos para Auxílio à Definição de um Modelo de Portabilidade na Implementação de Algoritmos Simulados em Robôs Reais
  • Date: Jan 31, 2014
  • Time: 14:00
  • Show Summary
  • O desenvolvimento de algoritmos voltados para sistemas robóticos, em ambientes de simulação, auxilia na identificação e antecipação de muitos problemas antes mesmo de serem testados em ambientes reais. Porém, nada garante que um algoritmo avaliado em uma plataforma de simulação funcione quando migrado para robôs reais. A interferência de diversos fatores, como propriedades dos motores e sensores, bem como a falta de uma metodologia necessária para interação simulação/realidade, se caracteriza como um dos principais problemas desta transição, de modo que, existe um grande "gap" conceitual entre o desenvolvimento para ambientes reais e simulados. Este trabalho tem o objetivo de contribuir com a formalização de um modelo conceitual que evidencie o processo de transição, no qual é possível destacar as peculiaridades que carecem de uma maior atenção por parte dos desenvolvedores. Para isso, como estudo de casos, foi desenvolvido um algoritmo de anticolisão, que engloba diversas características de um sistema robótico, sendo realizada sua implementação tanto no simulador Unity3D, quanto em robôs reais desenvolvidos na plataforma Arduino. Os resultados foram obtidos e comparados através de uma análise quantitativa de gráficos originados pelo MATLAB. Todas as alterações necessárias foram classificadas e avaliadas, de forma que possamos ter uma ideia do modelo de transição inicial, o qual formalize as principais particularidades do projeto.
  • PEDRO BATISTA DE CARVALHO FILHO
  • Gerenciamento de Faltas em Grades Computacionais: Um Mapeamento Sistemático de Literatura
  • Date: Jan 31, 2014
  • Time: 13:00
  • Show Summary
  • Fundamentação: Uma grade computacional normalmente é formada por uma infra-estrutura de hardware e software heterogêneos ultrapassando limites administrativos. Essa característica aumenta a dificuldade na identificação de possíveis falhas que podem provocar uma parada inesperada da atividade submetida. Assim, um trabalho que mapeie as soluções já criadas por pesquisadores pode ajudar na identificação de lacunas e/ou saturação na área de gerenciamento de faltas. Objetivos: Este trabalho visa identificar, de forma sistemática, lacunas e áreas pouco exploradas nos trabalhos científicos focados no gerenciamento de faltas em grades computacionais com o intuito de auxiliar no melhor direcionamento de futuros esforços em pesquisas na área. Metodologia: Para este trabalho, é utilizado a metodologia de mapeamento sistemático, sendo a pesquisa composta por três fases para seleção dos estudos primários. Inicialmente foram obtidos dos engenhos de busca 8644 estudos primários, porém, após realizado o processo de triagem, restaram 257 estudos com auto grau de relevância para a área de pesquisa abordado neste mapeamento. Conclusão: Através da sumarização e classificação dos dados extraídos, identificou-se que pouco se explorou as técnicas de prevenção, previsão e remoção de falta. Dentre o grupo de estudo relacionados que abordam a tolerância a falta, identificamos uma lacuna no grupo de estudos que utilizam técnicas a nível de workflow.
  • PABLO ANDREY ARRUDA DE ARAUJO
  • Análise da mobilidade urbana através de dados da rede de telefonia móvel celular
  • Date: Jan 31, 2014
  • Time: 08:00
  • Show Summary
  • Com o crescimento econômico vivido nos últimos anos, muitas cidades brasileiras têm também se deparado com problemas como o aumento populacional, congestionamento de veículos e a violência. Ao mesmo tempo, o poder aquisitivo dos habitantes tem crescido, permitindo que muitos pudessem adquirir novos equipamentos, como os telefones celulares, tendo o Brasil ultrapassado a barreira de um telefone celular por habitante. Com esse cenário, surgiram novas áreas a serem exploradas em pesquisas. Este trabalho analisou como o uso de sistemas de simulação computacional pode ser utilizado no processo de monitoramento urbano, utilizando dados da rede de telefonia móvel celular.
  • ANGELO LEMOS VIDAL DE NEGREIROS
  • Desenvolvimento e Avaliação de Simulação Distribuída para Projeto de Sistemas Embarcados com Ptolemy
  • Date: Jan 29, 2014
  • Time: 10:00
  • Show Summary
  • Atualmente, sistemas embarcados têm apresentado grande poder computacional e consequentemente, alta complexidade. É comum encontrar diferentes aplicações sendo executadas em sistemas embarcados. O projeto de sistemas embarcados demanda métodos e ferramentas que possibilitem a simulação e a verificação de um modo eficiente e prático. Este trabalho propõe o desenvolvimento e a avaliação de uma solução para a modelagem e simulação de sistemas embarcados heterogêneos de forma distribuída, através da integração do Ptolemy II com o High Level Architecture (HLA), em que o último é um middleware para simulação de eventos discretos distribuídos. O intuito dessa solução é criar um ambiente com alto desempenho que possibilite a execução em larga escala de modelos heterogêneos. Os resultados dos experimentos demonstraram que o uso da simulação não distribuída para algumas situações pode ser inviável, como também o uso de simulação distribuída com poucas máquinas, como, uma, duas ou três máquinas. Foi demonstrado também que o speedup de fator quatro foi obtido quando o modelo com quatro mil atores foi distribuído em oito diferentes computadores.
  • CLODOALDO BRASILINO LEITE NETO
  • Gerenciamento de Faltas em Computação em Nuvem: Um Mapeamento Sistemático de Literatura
  • Date: Jan 22, 2014
  • Time: 15:00
  • Show Summary
  • Fundamentação: Com o grande crescimento da popularidade da computação em nuvem, observa-se que um desafio nessa área é; gerenciar falhas que possam ocorrer nas grandes infraestruturas implantadas para dar suporte à computação como serviço, que por serem extensas, possuem maior ocorrência de faltas, falhas e erros. Um trabalho que mapeie as soluções já criadas por pesquisadores de maneira simples e eficiente pode ajudar a visualizar oportunidades e saturações nesta área de pesquisa. Objetivos: Este trabalho visa mapear o conhecimento científico produzido sobre gerenciamento de faltas em computação em nuvem de forma a auxiliar na identificação de lacunas que possam representar novas oportunidades de pesquisa na área. Metodologia: Para este trabalho utiliza-se a metodologia de pesquisa baseada em evidências através do método de mapeamento sistemático de literatura, sendo a pesquisa construída em três etapas de seleção de estudos. Método: Conduzimos um mapeamento sistemático para coletar, filtrar e classificar trabalhos científicos na área. Foram encontrados 4535 artigos científicos nos grandes engenhos de busca que, depois de 3 etapas de filtragem, foram reduzidos a 166. Tais artigos foram classificados de acordo com a taxonomia definida neste trabalho. Resultados: Observa-se que IaaS é a área mais explorada nos estudos selecionados. As funções de gerenciamento de faltas mais exploradas são Tolerância e Remoção, e os atributos mais frequentes são Confiabilidade e Disponibilidade. A maioria dos trabalhos foram classificados, em relação ao tipo de pesquisa, como Proposta de Solução Conclusão: Este trabalho sumariza e classifica o esforço de pesquisa conduzido em Gerenciamento de Faltas em Computação em Nuvens, provendo um ponto de partida para pesquisas futuras nesta área.
2013
Description
  • MAINARA RODRIGUES NOBREGA
  • MERCI: UM SISTEMA INTERATIVO PARA CINEMA DIGITAL
  • Date: Dec 16, 2013
  • Time: 14:00
  • Show Summary
  • O cinema tem evoluído continuamente desde a sua criação. Passou a ter som, cores, efeitos visuais, especiais, tridimensionais, multissensoriais, e agora interatividade. Tais mudanças têm proporcionado ao público experiências cada vez mais realistas durante a exibição de um filme. Estas podem ser obtidas através de tecnologias implantadas no audiovisual e, algumas vezes, na própria sala de projeção para captação de movimento da plateia ou da voz de espectadores, com a finalidade de proporcionar uma interação direta do espectador com o filme exibido. Novas versões de ferramentas tecnológicas surgem constantemente para auxiliar a cinematografia, no entanto, as técnicas que as antecederam não deixam de existir, todas têm se encaixado, agregando-se em um processo de evolução e reposicionamento técnico tornando possível o uso da interatividade. Apresentamos aqui um sistema intitulado MERCI, que proporciona a interação entre espectadores e o audiovisual através do envio de mensagens de texto realizado por meio de dispositivo móvel. O MERCI também fornece o suporte técnico à montagem não linear da narrativa audiovisual e ao gerenciamento de usuários. O diretor ou o montador da obra será o responsável pela manipulação destes aspectos. Alguns trabalhos foram comparados ao MERCI, entretanto este vem a oferecer um modelo de interatividade que se utiliza de uma nova forma para planejar e desenvolver a narrativa.

  • MAINARA RODRIGUES NOBREGA
  • MERCI: UM SISTEMA INTERATIVO PARA CINEMA DIGITAL
  • Date: Dec 16, 2013
  • Time: 14:00
  • Show Summary
  • O cinema tem evoluído continuamente desde a sua criação. Passou a ter som, cores, efeitos visuais, especiais, tridimensionais, multissensoriais, e agora interatividade. Tais mudanças têm proporcionado ao público experiências cada vez mais realistas durante a exibição de um filme. Estas podem ser obtidas através de tecnologias implantadas no audiovisual e, algumas vezes, na própria sala de projeção para captação de movimento da plateia ou da voz de espectadores, com a finalidade de proporcionar uma interação direta do espectador com o filme exibido. Novas versões de ferramentas tecnológicas surgem constantemente para auxiliar a cinematografia, no entanto, as técnicas que as antecederam não deixam de existir, todas têm se encaixado, agregando-se em um processo de evolução e reposicionamento técnico tornando possível o uso da interatividade. Apresentamos aqui um sistema intitulado MERCI, que proporciona a interação entre espectadores e o audiovisual através do envio de mensagens de texto realizado por meio de dispositivo móvel. O MERCI também fornece o suporte técnico à montagem não linear da narrativa audiovisual e ao gerenciamento de usuários. O diretor ou o montador da obra será o responsável pela manipulação destes aspectos. Alguns trabalhos foram comparados ao MERCI, entretanto este vem a oferecer um modelo de interatividade que se utiliza de uma nova forma para planejar e desenvolver a narrativa.

  • NISSTON MORAES TAVARES DE MELO
  • ESTUDO E DESENVOLVIMENTO DE UMA PLATAFORMA ACESSÍVEL PELA WEB PARA ACOMPANHAMENTO DE CONTEÚDOS INSTRUCIONAIS
  • Date: Dec 2, 2013
  • Time: 09:15
  • Show Summary
  • O uso crescente de ambientes virtuais de ensino/aprendizagem –
    AVA fez com que as Instituições de Ensino buscassem se beneficiar cada vez mais
    das possibilidades que esses ambientes oferecem. A estruturação, controle e
    acompanhamento do conteúdo instrucional que é ministrado em sala de aula, ou à
    distância, são um excelente exemplo e constituem o foco deste trabalho. O trabalho
    aqui apresentado foi desenvolvido em três fases: apresentação de uma proposta de
    estruturação de material instrucional em plano de curso, de forma a explicitar os
    conteúdos trabalhados em cada disciplina, suas relações com os objetivos
    pedagógicos a serem atingidos (competências e habilidades) e os recursos
    instrumentais e metodológicos que serão disponibilizadas na sua execução; estudo
    e proposta de uma arquitetura de sistema informatizado disponibilizado na WEB
    para atender, de forma segura, ágil e consistente aos requisitos levantados na
    primeira fase; implementação de uma aplicação em nível de prova de conceito
    instanciando a arquitetura proposta: o Sistema de Gestão e Controle de Conteúdo
    Instrucional (SGCCI). A aplicação desenvolvida foi utilizada na ocorrência de uma
    disciplina real e os resultados estão demonstrados e discutidos ao final deste
    trabalho.

  • STTIWE WASHINGTON FERREIRA DE SOUSA
  • MARKER: uma ferramenta para construção de aplicações interativas em T-Learning baseadas em técnicas de marcação em vídeo
  • Date: Nov 13, 2013
  • Time: 10:00
  • Show Summary
  • A produção de conteúdo interativo pode ser realizada de diversas maneiras e utilizando variadas técnicas. Cada técnica procura sempre associar um problema com a melhor solução. No caso da interatividade na TV, deve-se levar em conta a satisfação do telespectador e a melhor adequação da técnica ao conteúdo interativo. Técnicas de marcação em vídeo vêm sendo amplamente estudadas buscando-se promover o conteúdo interativo seja mais facilmente acessível pelo telespectador. Este trabalho apresenta a ferramenta MARKER para construção de aplicações interativas utilizando técnicas de marcação em vídeo.

  • João Janduy Brasileiro Primo
  • FERRAMENTA GRÁFICA PARA MAPEAMENTO E POSICIONAMENTO DOS PADS
  • Date: Aug 30, 2013
  • Time: 10:00
  • Show Summary
  • As ferramentas CAD (computer-aided design) são utilizadas para facilitar o projeto e desenho de circuitos integrados (CI). O Floorplaning é uma importante etapa na fase de design do layout no desenvolvimento de um CI. Nesta etapa, os macroblocos são posicionados no chip, além de serem decididas: a localização dos pads de entrada e saída, a localização dos pads de alimentação e as estratégias de distribuição da alimentação e do sinal de clock pelo núcleo. Comumente, é feito um wrapper em HDL que mapeia as portas de entrada e saída do projeto em instâncias de Pads, com seus diferentes tipos, definidos pelo desenvolvedor e um arquivo que indica a posição de cada Pad no circuito. Dessa maneira, tanto esse mapeamento quanto tal posicionamento, em geral, são feitos manualmente por meio de scripts, gerando uma enorme dificuldade para os desenvolvedores, pois para um CI com uma quantidade razoável de entradas e saídas torna-se extremamente susceptível de falhas humanas bem como a ocasionar grande dificuldade na localização dos erros.  Esses arquivos, em geral, são utilizados em todas as ferramentas CAD e também pelos fornecedores de Design Kits, além disso, as ferramentas possuem sintaxes diferentes para os arquivos. Este trabalho mostra uma ferramenta gráfica capaz de fornecer aos desenvolvedores uma maneira mais fácil e intuitiva de gerenciar tanto o mapeamento quanto o posicionamento dos pads, tornando o processo mais rápido e menos susceptível a falhas humanas. Para validar o trabalho, a ferramenta é testada em um projeto de um CI.

  • Jailton Maciel Alexandre Segundo
  • Seleção Automatizada de Componentes de Software Orientada por Métricas Estruturais e Informações de Reuso
  • Date: Aug 30, 2013
  • Time: 09:00
  • Show Summary
  • A grande dificuldade de selecionar componentes de software ainda é um obstáculo para alcançar o sucesso do Desenvolvimento Baseado em Componentes (DBC). Com o crescimento do mercado de componentes, a tendência é sempre aumentar o número de opções para montagem de aplicações em diferentes contextos, tornando impraticável a seleção manual. Tratando de um problema com gigantesco espaço de busca e complexo, é requerida a automatização efetuada por técnicas de otimização. O trabalho proposto visa automatizar o processo de seleção de componentes utilizando técnicas da Engenharia de Software Baseada em Busca (ESBB), cuja técnica de otimização é orientada por métricas estruturais (i.e., conexões entre componentes de uma arquitetura de software) e informações de reuso (i.e., valores agregados ao próprio componente).

  • WAGNER SILVA COSTA
  • Abordagens heurísticas aplicadas ao Problema da Alocação Dinâmica de Espaços
  • Date: Aug 12, 2013
  • Time: 16:00
  • Show Summary
  •  

    O Problema da Alocação Dinâmica de Espaços (PADE) foi recentemente formalizado
    na literatura. Foi inspirado na necessidade de otimização da distância
    percorrida por recursos requeridos para realização de atividades na ocorrência de
    desligamentos planejados em centrais de energia elétrica. Em geral, o problema
    apresenta aplicações potenciais em projetos nos quais movimentar um recurso é uma
    tarefa difícil ou cara, ou nos quais o congestionamento desses recursos é indesejável,
    como em construção de pontes e atividades de mineração.
    Este problema é considerado difícil para se resolver computacionalmente e, portanto,
    a diculdade em encontrar uma solução ótima para instâncias de elevadas
    dimensões justica o uso de métodos aproximados. Este trabalho propõe um estudo
    detalhado do PADE e das principais técnicas referenciadas na literatura para resolu-
    ção de instâncias do mesmo. Além disso, são propostos novos métodos de construção
    e busca local e algoritmos baseados nas metaheurísticas VNS, ILS, GRASP e Busca
    Tabu. Este estudo inclui uma proposta de abordagem por meio de algoritmos exatos
    a m de se conseguir soluções ótimas, viáveis ou bons limites inferiores através
    do CPLEX, e ainda, a combinação de dois ou mais métodos, em uma metodologia
    híbrida.

     

    O Problema da Alocação Dinâmica de Espaços (PADE) foi inspirado na necessidade de otimização da distância percorrida por recursos requeridos para realização de atividades na ocorrência de desligamentos planejados em centrais de energia elétrica. Em geral, o problema apresenta aplicações potenciais em projetos nos quais movimentar um recurso é uma tarefa difícil ou cara, ou nos quais o congestionamento desses recursos é indesejável,como em atividades de mineração.Este problema é  computacionalmente difícil de se resolvido, logo obter  uma solução ótima para instâncias de elevadas dimensões justica o uso de métodos aproximativos. Este trabalho propõe a utilização da metaheurística GRASP para a resolução do PADE.

  • LISIEUX MARIE MARINHO DOS SANTOS ANDRADE
  • Meta-heurística C-GGVNS Aplicada à Otimização Global Contínua
  • Date: Aug 8, 2013
  • Time: 10:00
  • Show Summary
  • Este trabalho combina as meta-heurísticas C-GRASP e GVNS aplicadas à resolução de problemas de otimização contínua. O algoritmo utiliza uma versão contínua da meta-heurística GRASP para encontrar uma aproximação do mínimo global de funções não lineares, sem recorrer ao cálculo de derivadas. Com o mesmo intuito também foi desenvolvido um algoritmo baseado no GVNS contínuo. E finalmente foi contruída híbrida combinando as duas estratégias.

  • MOISES ROBERTO DE ARAUJO MOTA
  • Mapeamento Sistemático Sobre o Uso de Ontologias em Informática Médica
  • Date: Aug 6, 2013
  • Time: 10:00
  • Show Summary
  • Representação do Conhecimento é a área da Inteligência Artificial que lida como o conhecimento pode ser representado simbolicamente e manipulado de forma automática por programas de raciocínio. Na Ciência da Computação, Ontologia é uma técnica de Representação do Conhecimento que descreve uma especificação formal sobre certo domínio, sendo um entendimento compartilhado sobre o mesmo e um modelo formal e executável por máquina. A Informática Médica surge como uma nova área de pesquisa que combina as áreas de Ciência da Computação, Tecnologias da Informação e Medicina, e vem usufruindo inúmeras oportunidades, mediante a utilização de ontologias, para avançar o estado da arte em vários aspectos. Neste contexto, esta pesquisa tem o objetivo de identificar, quantificar e analisar o conhecimento produzido na área de Ontologias e Informática Médica utilizando o método de pesquisa Mapeamento Sistemático. Deste modo, tem-se uma visão geral da evolução desta área de pesquisa, apresentando sua evolução até o momento da construção do mapeamento. Foram analisados estudos entre os anos de 1986 e 2012, dos quais foram extraídos tópicos de pesquisa como, as principais ontologias utilizadas em informática médica, seus benefícios, como estão sendo validados ou avaliados as pesquisas nesta área, entre outros.

    A principal contribuição deste trabalho é fornecer uma visão geral da área de pesquisa, e entender quais são os principais usos de Ontologias neste contexto, bem como os benefícios de sua aplicação nas diversas sub-áreas da Informática Médica. Adcionalmente, identificar as lacunas existentes nas pesquisas atuais revelando novas oportunidades de pesquisa.

  • DEMETRIUS LACET R DA SILVA
  • PASSEIO VIRTUAL NA TV DIGITAL: Apresentação interativa de lugares remotos utilizando a metodologia de imersão 360° do Google Street View
  • Date: Jul 31, 2013
  • Time: 14:00
  • Show Summary
  • Este trabalho apresentou a relação entre a TV Digital - através de seus recursos de interatividade - e passeios virtuais, no que tange a apresentação de lugares remotos tendo como base a metodologia empregada nos passeios virtuais do Google Street View1. De forma resumida explanou a evolução de alguns temas necessários ao bom entendimento do projeto como: Passeio/Tour virtual, Google Street View, Turismo e TV Digital, traçando paralelos e pontos de encontro entre estes fenômenos sociais e culturais, além de apresentar uma reflexão sobre o uso da imagem conceitual em detrimento do seu uso como representação exclusivamente visual. Foi apresentado nesta pesquisa um formato possível de adaptação à TV Digital de visitação a lugares remotos através de Tours panorâmicos 360°. Como validação da hipótese levantada, um aplicativo foi desenvolvido para TV Digital contendo um passeio virtual a um museu à luz dos métodos utilizados para desenvolvimento de passeios virtuais para internet, a fim de demonstrar o seu uso com êxito nessa nova plataforma. Como complemento, foi desenvolvido um sistema WEB capaz de gerar essa aplicação no formato NCL, próprio para TV Digital.
  • LEANDRO CAVALCANTI DE ALMEIDA
  • Ferramenta Computacional para Identificação e Bloqueio de Ataques de Negação de Serviço em Aplicações Web
  • Date: Jul 31, 2013
  • Time: 14:00
  • Show Summary
  • Tradicionalmente, os ataques de negação de serviço acontecem nas camadas de rede e transporte do modelo TCP/IP, utilizando protocolos como ICMP, UDP e TCP. Uma característica comum destes ataques é que eles afetam diretamente a infraestrutura de hardware do sistema alvo, fazendo com que o mesmo pare de responder a solicitações legítimas. Uma versão mais sofisticada de um ataque de negação de serviço, agora na camada de aplicação tem sido utilizada em muitos ataques deste tipo. Nestes casos usa-se o protocolo HTTP, por meio de seus métodos GET e POST. É possível observar que o atacante utiliza os métodos GET e POST de uma conexão HTTP para esgotar os recursos do serviço Web disponibilizado pelo servidor, ou seja, a infraestrutura de hardware do sistema alvo permanece quase que intacta. Este trabalho dissertativo tem como proposta de pesquisa apresentar um modelo de detecção e bloqueio em tempo real de ataques DDoS GET HTTP contra servidores Web, utilizando um sistema de detecção baseado em assinaturas de ataques. Experimentos comprovaram a eficácia do modelo proposto, no qual foi possível manter um serviço Web 100% disponível e com um tempo de resposta aceitável mesmo durante a ocorrência de um ataque de negação de serviço.

  • DANILO RANGEL ARRUDA LEITE
  • GSPROJECTS - UM AMBIENTE PARA SIMULAÇÃO DA GESTÃO DE PROJETOS DE SOFTWARE
  • Date: Jul 31, 2013
  • Time: 08:00
  • Show Summary
  • A aplicação deficiente de técnicas de gerenciamento em projetos de software muitas vezes acarreta no fracasso e possível cancelamento de um projeto. Uma das possíveis causas é a falta de um melhor entendimento das suas práticas essenciais.A utilização de simuladores em treinamento pode ter um alto poder de motivação podendo apresentar benefícios se comparado a outras formas tradicionais de aprendizado. Este trabalho tem por objetivo a elaboração e desenvolvimento de um jogo educacional para o ensino de gerenciamento de projetos de software em cursos de graduação na área de computação.Como validação da proposta, o jogo foi submetido a um grupo de alunos de graduação no curso de ciência da computação, tendo cumprido com a expectativa inicial de auxiliar no ensino-aprendizado da disciplina.

  • ROMULO COSTA DE MENEZES JUNIOR
  • Avaliação das Funcionalidades de um Sistema Baseado em Jogos para Gerenciamento e Acompanhamento Remoto de Terapia para Reabilitação Motora
  • Date: Jul 30, 2013
  • Time: 17:00
  • Show Summary
  • O tratamento fisioterapêutico pode se beneficiar da utilização de sistemas de informação baseados em jogos para estimular a prática dos exercícios de reabilitação e acompanhar a terapia. A popularização de dispositivos que capturam o movimento, como o Kinect, fomentou o desenvolvimento de tais aplicações para interagir com pacientes em sistemas de reabilitação física, permitindo que possam ser utilizados remotamente. Para que tais aplicações possam contribuir com o tratamento fisioterapêutico na clínica ou no domicílio do paciente, de forma remota, estas devem apresentar características motivacionais para auxiliar o paciente na execução correta dos movimentos, ser adaptável às necessidades dos pacientes e auxiliar o diagnóstico durante a evolução do tratamento. Desta forma, a partir de investigação e análise comparativa de trabalhos publicados na literatura, este trabalho buscou especificar e desenvolver os elementos mais importantes que um sistema para tratamento fisioterapêutico deve conter, em busca de um completo sistema baseado em jogos. Tal investigação resultou no desenvolvimento de um protótipo contendo todas as características desejáveis que foram identificadas e que poderá ser utilizada por profissionais de fisioterapia para auxiliar no tratamento fisioterapêutico.  As funcionalidades desenvolvidas foram experimentadas e avaliadas por profissionais de fisioterapia, a partir de questionários, para descrever a experiência de utilização e possíveis necessidades adicionais. A experimentação e os resultados do questionário revelaram que o sistema foi bem aceito entre os terapeutas e que já poderia ser utilizado no tratamento de diversas patologias. Entretanto, ainda é necessário desenvolver mais elementos lúdicos nos jogos, para melhorar a motivação; realizar pequenas correções na mecânica de detecção de movimentos e gerar relatórios sobre a evolução para um tratamento.

  • THIAGO HENRIQUE JACOB OLIVEIRA SOUSA
  • Impactos na aprendizagem da utilização de sistemas de resposta à audiência
  • Date: Jul 30, 2013
  • Time: 10:00
  • Show Summary
  • Sistemas de resposta à audiência já vêm sendo estudados em todo o mundo como formas de motivar e avaliar o corpo discente em sala de aula através do uso da tecnologia.  Estes sistemas tem o potencial de ser, para os educadores, uma ferramenta capaz de aperfeiçoar o processo de ensino e aprendizagem presencial.  Este trabalho discute a avaliação dos impactos na aprendizagem da utilização de um sistema de resposta à audiência no contexto de uma instituição de ensino superior no estado da Paraíba. A discussão abrangerá toda a fundamentação teórica, o desenvolvimento do sistema de resposta à audiência utilizado neste estudo desde os requisitos até a codificação e o estudo de caso realizado para avaliar os impactos da utilização deste, sendo os resultados coletados, analisados e as conclusões demonstradas. 

  • TIAGO DAVI NEVES DE SOUZA
  • Um Interpretador baseado na JVM para auxílio no ensino de Algoritmos e Estruturas de Dados como parte da ferramenta IGED
  • Date: Jul 29, 2013
  • Time: 10:00
  • Show Summary
  • Em disciplinas de Programação, Estruturas de Dados e Algoritmos de cursos de Computação, ferramentas que permitam que os alunos possam visualizar as alterações nas estruturas de dados ao longo da execução de um programa são de grande utilidade, já que elas auxiliam que os aprendizes entendam como os algoritmos operam sobre as estruturas de dados. Diversas ferramentas foram propostas desde [Brown e Sedgewick 1984], mas em muitas delas, as visualizações gráficas das estruturas através de animações só podem ser feitas através de programação pelos usuários. Assim, nesse trabalho é proposto um interpretador que gere as animações de forma automática a partir da execução do código em linguagem de montagem de bytecodes Java traduzidos a partir de um código de alto nível informado pelo usuário. Esse interpretador possui uma estrutura baseada na da JVM e será componente da ferramenta IGED [Netto et al. 2011]. Com isso, a arquitetura desse interpretador e seus requisitos para a ferramenta IGED foram definidos. Além disso, uma análise sobre uma possível utilização da Java HotSpot VM da Oracle como Interpretador do IGED está sendo feita, para que se possa definir a melhor abordagem e guiar trabalhos futuros. 

  • Thales Pordeus Ferreira
  • Uma Extensão da Visão Estrutural do NCL Composer para Integração de Código Imperativo
  • Date: Jul 24, 2013
  • Time: 10:00
  • Show Summary
  • Os requisitos das aplicações NCL, como a necessidade de conteúdo
    dinâmico resultado de processamento, tornam o seu desenvolvimento um
    desafio. Essas aplicações são definidas com uma parte declarativa e,
    adicionalmente, uma parte imperativa que relaciona os objetos de mídia
    com algum processamento de operações complexas (por exemplo, uma
    lógica descrita num script programado na linguagem Lua). Dentro do
    desenvolvimento de aplicações NCL, uma opção adotada pelos autores de
    documento é utilizar a visão estrutural do NCL Composer para
    relacionar de forma visual os objetos de mídia com os objetos de mídia
    imperativos. Atualmente, apesar do NCL Composer suportar o
    relacionamento com os objetos de mídia imperativos, é possível
    identificar uma ineficiência no tocante à integração de forma rápida e
    simples do código imperativo em uma aplicação NCL. O objetivo deste
    trabalho é propor uma extensão para a visão estrutural que permita
    melhor integrar objetos de mídia e código imperativo, de forma a
    diminuir o tempo de uso do conteúdo presente nas mídias imperativas. O
    trabalho traz também uma avaliação do impacto na produtividade do
    desenvolvimento de aplicações compatíveis com a especificação
    Ginga-NCL.

  • AMANDA DRIELLY DE SOUZA PIRES
  • Uma Abordagem para Identificação Semântica de Domínios de Aplicação em Ambientes de Convergência Digital
  • Date: Jul 23, 2013
  • Time: 10:00
  • Show Summary
  • O surgimento da Televisão Digital Interativa proporciona, além de ganho de qualidade na transmissão, a adição de novos recursos e serviços disponíveis ao usuário. Com o advento da convergência digital entre as plataformas de TV e Web, novas propostas de organização semântica de conteúdo foram desenvolvidas. Além disso, foi possível introduzir conceitos da Web Semântica e de representação do conhecimento que permitem descrever semanticamente os metadados de conteúdo através de ontologias. Esse trabalho propõe uma abordagem para identificação de domínios de aplicação no ambiente de convergência digital baseada em conceitos da Web Semântica e nas análises de similaridade léxica e semântica. Um componente, integrado ao sistema Knowledge TV, foi implementado para validar a abordagem.

  • DANYLLO WAGNER ALBUQUERQUE
  • UMA ABORDAGEM PARA ANÁLISE DA DISCUSSÃO POLÍTICA UTILIZANDO DADOS DE USUÁRIOS DO TWITTER
  • Date: Jul 19, 2013
  • Time: 10:00
  • Show Summary
  • As Redes sociais online têm se tornado extremamente populares, levando ao surgimento e à crescente popularização de uma nova onda de aplicações baseadas na Web. A presença deste tipo de mídia é importante uma vez que fornecem um tipo especial de debate que as formas convencionais não conseguem trazer. A proximidade que uma ferramenta como o twitter oferece aos usuários tem o poder de humanizar a figura de um candidato a partir da comunicação direta entre as partes, o que leva uma nova forma de comunicação entre os principais atores de uma eleição. Neste sentido o presente trabalho tem como objetivo mostrar como a obtenção de dados de uma rede social e sua posterior análise pode servir de meio alternativo em relação as pesquisas de intenção de votos para prever com grau de

    confiabilidade o resultado de um pleito eleitoral.

  • SAMYR SANTOS DELFINO
  • Gestão da comunicação e informação em equipes de desenvolvimento scrum.
  • Date: Jul 9, 2013
  • Time: 10:00
  • Show Summary
  • Em processos de desenvolvimento de software, a adoção de metodologias ágeis tem tido crescimento significativo. Percebe-se a dificuldade em realizar uma gestão da informação/comunicação em um ambiente ágil. Objetiva-se com este trabalho propor um modelo de gestão da informação/comunicação para equipes ágeis de desenvolvimento que utilizam a Framework Scrum, respeitando as necessidades e particularidades existentes neste Framework.  A metodologia adotada para este trabalho será subdividida em três fases distintas que consistem no estudo teórico, pesquisa de campo e criação de uma proposta de modelo de gestão de informação/comunicação em equipes Scrum.

  • WOLGRAND CARDOSO BRAGA JUNIOR
  • Estratégia para Armazenamento e Recuperação de Experiência Multimídia em Telemedicina: Um Estudo de Caso do Projeto Ambiente de Vídeo Colaboração em Saúde (GTAVCS)
  • Date: May 7, 2013
  • Time: 16:00
  • Show Summary
  • Aplicações baseadas em vídeo estão cada vez mais populares. Elas estão disseminadas nos mais diversos campos: Telemedicina, espetáculos artístico-tecnológicos, eventos tecno-científicos, entretenimento, publicidade, dentre outros. Para algumas dessas aplicações a incorporação de ferramentas que permitam a gravação de fluxos de dados audiovisuais transmitidos em tempo real é de grande valia. O presente trabalho aborda o que chamamos de experiência multimídia que designa a recuperação da experiência de uso de um sistema voltado para Telemedicina que permite o controle de vários fluxos de dados simultâneos. Neste trabalho foi criada uma estratégia para gravação e recuperação dessa experiência.

  • BRUNO LUNA RIBEIRO
  • Uma Abordagem para Alocação de Equipes em Projetos de Desenvolvimento Distribuído de Software com Base em Atributos Não-Técnicos
  • Date: Apr 5, 2013
  • Time: 15:00
  • Show Summary
  • Com a crescente adoção de projetos e processos de Desenvolvimento Distribuído de Software (DDS), muitas organizações que praticavam o desenvolvimento tradicional, co-localizado, passaram a atuar no mercado global, dividindo suas unidades colaborativas em vários pontos geográficos do globo. Além da aproximação com o mercado internacional, a utilização de DDS possibilita uma redução do time-to-market, melhor qualidade dos produtos gerados, redução de custos e maior facilidade para encontrar mão-de-obra qualificada. Entretanto, a distância entre as equipes envolvidas no DDS gera uma série de problemas relacionados a comunicação, não enfrentados no desenvolvimento co-localizado. Segundo a NBR ISO 10006, o fator humano é chave para o sucesso dos projetos de software, já que é uma atividade genuinamente humana. No desenvolvimento tradicional, empresas utilizam processos de alocação de recursos humanos para encontrar os profissionais adequados para realizar uma determinada atividade. Porém, a distância geográfica, como também os fatores culturais e temporais existentes no DDS, não são enquadrados nesses processos. Neste contexto, a fim de reduzir os problemas de comunicação durante a fase de implementação, o presente trabalho apresenta uma abordagem para alocação de equipes em projetos de DDS, tendo como objetivo mitigar os efeitos problemáticos gerados pela necessidade de comunicação entre as equipes geograficamente dispersas. Considerando que o acoplamento existente entre os componentes de software interfere na comunicação requerida para desenvolvê-los, a abordagem proposta leva em consideração características não-técnicas das equipes, como atributos temporais, culturais e de afinidade, para descobrir o grau de proximidade das equipes, comparando-as com o nível de acoplamento entre os componentes, de modo a identificar quais equipes possuem melhores condições de implementar os componentes de software com grau de comunicação satisfatório com as demais equipes. Deve-se destacar que as equipes candidatas à alocação com base em atributos não-técnicos são equipes tecnicamente habilitadas para a implementação dos componentes. Pela complexidade do problema de alocação ser alta, é utilizado um algoritmo genético, com função de avaliação baseada nos atributos não-técnicos para a alocação das equipes, tornando o problema tratável computacionalmente em tempo hábil.

  • GUTENBERG PESSOA BOTELHO NETO
  • Aprendizado por Reforço Aplicado a Situações de Combate em Jogos Eletrônicos de Estratégia em Tempo Real
  • Date: Mar 28, 2013
  • Time: 10:00
  • Show Summary
  • Jogos eletrônicos e, em especial, jogos de estratégia em tempo real (RTS), são cada vez mais vistos como campos viáveis e importantes para pesquisas de inteligência artificial por possuírem características interessantes para a área, como a presença de ambientes complexos, muitas vezes dinâmicos e com múltiplos agentes. Nos jogos RTS comerciais, a IA utilizada pelo computador é geralmente desenvolvida a partir de técnicas ad hoc simples e estáticas, com a necessidade de definição manual de comportamentos e a incapacidade de adaptação às situações encontradas. Esta abordagem, além de demorada e propícia a erros, faz com que o jogo torne-se relativamente previsível após algum tempo, permitindo ao jogador eventualmente descobrir a estratégia utilizada pelo computador e desenvolver uma forma ótima de enfrentá-lo. Uma maneira de tentar combater esta previsibilidade é com a utilização de técnicas de aprendizagem de máquina, mais especificamente do aprendizado por reforço, para permitir ao computador avaliar as situações ocorridas durante as partidas, aprendendo com estas situações e aprimorando seu conhecimento ao longo do tempo, sendo capaz de escolher de maneira autônoma e dinâmica a melhor ação quando necessário. Este trabalho propõe uma modelagem para a utilização de SARSA, uma técnica do aprendizado por reforço, aplicada a situações de combate em jogos RTS. O domínio do combate é um dos pontos fundamentais na busca da vitória em um jogo RTS e o objetivo é fazer com que o computador possa se portar de maneira mais adequada nesta área, tornando-se um adversário mais desafiador para qualquer jogador.

  • JOAO FILHO MATOS FIGUEIREDO
  • SocialRAD: Um modelo distribuído para telerradiologia assíncrona de forma segura e cooperativa.
  • Date: Mar 25, 2013
  • Time: 14:00
  • Show Summary
  • Serviços de telerradiologia têm se tornado populares, principalmente por seu potencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade na prestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, este potencial traz desafios elevados: o grande volume de dados, característico dos exames de imagens, e os requisitos de segurança que visam garantir a sua confidencialidade e integridade. Além disso, questões éticas envolvem o modelo dominante no mercado, em que este serviço é prestado por empresas terceirizadas, e não diretamente pelos profissionais radiologistas. Assim, este trabalho propõe um modelo distribuído e cooperativo, através do qual os profissionais de saúde podem interagir diretamente com os hospitais que prestam os cuidados ao paciente. Focou-se, ainda, em suprir as principais deficiências presentes em soluções consagradas, mais precisamente no que diz respeito aos requisitos de segurança, de comunicação assíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordagem investigativa sobre os mecanismos utilizados nas principais soluções foi realizada, de maneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelo de Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram a base inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões, a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas (VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS, protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boas práticas de criptografia, além de outros padrões de segurança e de interoperabilidade. Um protótipo foi desenvolvido e está em fase de testes e avaliação por médicos radiologistas situados em cidades no interior dos estados do Ceará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipo tem permitido aos médicos radiologistas emitirem laudos, diariamente, de exames de tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até que um especialista pudesse deslocar-se até a cidade para produzi-lo.

  • Elenilson Vieira da Silva Filho
  • Uma Estratégia de Refletores Multimídia para Criptografia e Codificação em Tempo Real
  • Date: Mar 22, 2013
  • Time: 15:00
  • Show Summary
  • A necessidade de compartilhar os dados presentes cada vez mais nos sistemas de informação leva ao desenvolvimento de soluções mais complexas e criativas para os impedimentos encontrados devido às limitações físicas da tecnologia atual. Alguns dos principais problemas de um sistema distribuído é a grande quantidade de informação por intervalo de tempo que a tecnologia de rede consegue transmitir e a confidencialidade dos dados que estão sendo passados. Há ainda mais restrições se for considerada a sub área de transmissão de mídias, já que a experiência do usuário pode ser prejudicada drasticamente por uma transmissão de dados com erros ou atrasos. Neste contexto um esquema de refletores de vídeo que permite a distribuição de fluxos de mídia 

  • PRISCILLA KELLY MACHADO VIEIRA
  • Recomendação Semântica de Conteúdo em Ambientes de Convergência Digital
  • Date: Mar 18, 2013
  • Time: 10:00
  • Show Summary
  • Com o advento da TV Digital interativa (TVDi),  nota-se o aumento de interatividade no processo de comunicação além do incremento das produções audiovisuais, elevando o número de canais e recursos disponíveis para o usuário. Esta realidade faz da tarefa de encontrar o conteúdo desejado uma ação onerosa e possivelmente ineficaz. A incorporação de sistemas de recomendação no ambiente TVDi emerge como uma possível solução para este problema. Este trabalho tem como objetivo propor uma abordagem híbrida para recomendação de conteúdo em TVDi, baseada em técnicas de mineração de dados, integradas a conceitos da Web Semântica, permitindo a estruturação e padronização dos dados e consequente possibilidade do compartilhamento de informações, provendo semântica  e  raciocínio automático. Para o serviço proposto é considerado o Sistema Brasileiro de TV Digital e o middleware Ginga.

  • BRIAN CARLOS REZENDE V DE PAIVA
  • Riumor: uma rede social multiplataforma para a TV Digital Interativa
  • Advisor : ED PORTO BEZERRA
  • Date: Feb 28, 2013
  • Time: 12:30
  • Show Summary
  • O conceito de Social TV vem sendo modelado, nos últimos anos, para tentar alterar o modo como as pessoas interagem e se socializam no contexto de assistir TV. Diversas Social TV (ST) foram criadas com diferentes recursos visando proporcionar uma melhor experiência aos telespectadores. Porém essas ST limitaram sua abrangência de interação apenas aos indivíduos entre si e entre alguns conteúdos. No contexto da TV Digital Aberta brasileira, ainda não há uma Social TV criada especificamente para a interação entre usuários de TV. Esse trabalho vem propor a criação de uma Social TV híbrida adequada à TV Digital Aberta Brasileira (TVDAB) que expanda o conceito de interação entre indivíduos, para que estes possam interagir com todo conteúdo da TV, de forma ativa e/ou passiva, utilizando como base o middleware GINGA.

  • DIENERT DE ALENCAR VIEIRA
  • Coordenação de Infraestruturas Computacionais Distribuídas em Larga Escala Baseadas em Redes de Broadcast de Sistemas de Televisão Digital
  • Date: Feb 28, 2013
  • Time: 10:00
  • Show Summary
  • A Infraestrutura Computacional Distribuída sob Demanda (On-Demand Distributed Computing Infrastructure – OddCI) é uma arquitetura que utiliza como base uma rede  de comunicação em broadcast para compor um ambiente em larga escala de processadores visando à computação de
    alta vazão (High Throughput Computing – HTC). Um exemplo de rede de broadcast é o sistema de Televisão Digital cujo sinal é transmitido para milhares de receptores simultaneamente. Estes receptores são máquinas de  significativo poder de processamento que estão em crescente aquisição pela população brasileira e podem ser utilizados como unidades de  processamento para atingir alta vazão. Entretanto, esses potenciais  processadores não são completamente dedicados e são cedidos voluntariamente, o que os tornam recursos altamente voláteis. Em outras palavras, não há garantias sobre o tempo que permanecem dedicados à uma tarefa. Assim, se faz necessária a utilização de algoritmos compensatórios que tratem essa volatilidade e otimizando a
    disponibilidade coletiva dos dispositivos. Este trabalho  apresenta heurísticas de coordenação da arquitetura OddCI, que buscam convidar ou excluir dispositivos sob a cobertura da comunicação através de mensagens coletivas com o objetivo de coordenar a quantidade alocada de processadores, com vistas à atender acordos de nível de serviço (Service-Level Agreement – SLA) estabelecidos. As heurísticas de coordenação são validadas por meio de simulação.

  • FRANK CÉSAR LOPES VERAS
  • Modelagem e Simulação do Deslocamento de Pessoas para Estimativa de Formação de Grupos
  • Date: Feb 25, 2013
  • Time: 10:00
  • Show Summary
  • O uso das Redes de Sensores sem Fio (RSSF) tem sido difundido em diversas áreas de pesquisa e aplicação. A proposta deste trabalho é um estudo sobre como utilizar sensores para monitorar pessoas em movimento, tendo uma RSSF como meio no qual a pesquisa deverá ocorrer, porém com o intuito de prever a formação de grupos em determinadas regiões. Para a realização deste trabalho é que a rede foi projetada e testada no simulador Ptolemy II, usando o protocolo ZigBee de comunicação, onde os sensores foram posicionados de acordo com um sistema de coordenadas cartesianas. A RSSF deverá detectar as pessoas e identificar características comuns de movimento, como velocidade, direção e tipo de movimento, através de parâmetros configurados no simulador. As pessoas envolvidas nos grupos serão identificadas por etiquetas RFID (Radio Frequency Identification) presas ao seu corpo. O movimento de multidão teve sua formalização matemática baseada em parâmetros como posição do grupo, quantidade de pessoas por grupo e duração do movimento que definem as características necessárias para a simulação desse cenário. A partir da formalização do movimento da multidão, vários dados são coletados em intervalos de tempo previamente determinados e interpretados por um algoritmo que, através da troca de mensagens entre sensores, estima a formação de multidão na região definida como alvo. Neste trabalho, foram inseridos tabelas e gráficos que refletem o número real de pessoas que se deslocam em direção ao alvo real. Esses dados são gerados a partir da intensa troca de mensagens entre os sensores, obedecendo alguns parâmetros estabelecidos e que favorecem o algoritmo que estima a formação de multidão no alvo, em determinado tempo. A acurácia da previsão foi medida pelo desvio padrão encontrado, de acordo com o grau de antecipação aplicado. Assim, a detecção de pessoas pelos sensores é interpretada de acordo com a possibilidade de formação de grupos, tendo seus valores disseminados pela rede. A proposta é que essa ação facilite o processo de tomada de decisão e, consequentemente, ajude na caracterização da formação de multidões.
  • RHARON MAIA GUEDES
  • PLANE – UM MÓDULO DE NEGOCIAÇÃO SEMIAUTOMÁTICA PARA MÚLTIPLOS PARTICIPANTES E MÚLTIPLOS ATRIBUTOS
  • Date: Feb 22, 2013
  • Time: 09:00
  • Show Summary
  • Com o avanço tecnológico surgiram novas formas de negociação, podemos citar a eletrônica, conhecida como e-negotiation, que se caracteriza por processos conduzidos total ou parcial pelo uso da mídia eletrônica. Em meio a esse debate da construção de novas formas de negociação de bens e valores, estão as redes de televisão que necessitam firmar acordos de maneira mais prática, rápida e eficaz, para que as informações não percam seu valor. Neste contexto, foi criado o módulo PLANE (Plataforma de Assistência a Negociação), que tem como objetivo a construção de um módulo que permita a negociação de conteúdos audiovisuais através de um algoritmo semiautomatizado. As contraofertas serão geradas através da variação e análise dos atributos do conteúdo.  Para isso, serão aplicadas funções multiatributos e uma função de deslocamento. A estratégia de negociação utilizada está inserida em uma arquitetura para conectar diversas redes de televisão, que forma uma inter-rede para o compartilhamento do conteúdo. Espera-se, ao final, que os negociadores possam fechar um contrato que conterá os valores dos atributos acordados, assim como o valor a ser pago pelo conteúdo.

  • RENATA MENDONCA SARAIVA
  • Uma Abordagem para o Uso de Raciocínio Baseado em Casos no Suporte ao Diagnóstico e Tratamento Adaptativo de Pacientes com Câncer Gastrointestinal
  • Date: Feb 19, 2013
  • Time: 09:00
  • Show Summary
  • O tratamento de pacientes com câncer é um desafio para os hospitais e centros de saúde. O primeiro problema é classificar ou identificar o tipo específico de câncer. Em seguida, os médicos devem determinar um tratamento adequado para tal doença. Existem bancos de dados mundiais que registram informações sobre câncer, de modo que os médicos possam tentar achar uma classificação para a doença de acordo com os sintomas apresentados pelo paciente. Contudo eles não oferecem um bom suporte para a procura das doenças e, principalmente, para a identificação do tratamento. Este artigo propõe a utilização das tecnologias de raciocínio baseado em casos e raciocínio baseado em regras como solução para suportar estas duas atividades via representações de casos de pacientes e adaptações destes casos para a definição de diagnósticos mais especializados, de acordo com as peculiaridades de cada paciente. Nosso foco é sobre o câncer gastrointestinal, mas as idéias podem ser estendidas para outros domínios de câncer.

  • ROBERTO FELICIO DE OLIVEIRA
  • Análise Quantitativa das Relações entre Usuários no Twitter
  • Date: Feb 19, 2013
  • Time: 09:00
  • Show Summary
  • Sob o aspecto de seres sociais, os seres humanos procuram incessantemente interagir uns com os outros, nas mais variadas ocasiões. Realidade esta, expandida ao mundo virtual, ao qual permite uma comunicação sem fronteiras através da Internet entre as pessoas de qualquer parte do mundo. Por conseguinte, uma rede social virtual, nada mais é do que um reflexo da necessidade de comunicação, aplicado às redes Web. Não obstante é cediço que a concepção de redes sociais, bem como das métricas de análise de redes, tem despertado nas últimas décadas além do interesse uma curiosidade notável dos pesquisadores de diversas áreas, tal como das ciências sociais. Desta maneira, verifica-se um aumento significativo seguido de uma vasta oportunidade de pesquisas nesta área. Portanto, esse trabalho visa investigar à utilização de programas de monitoramento de Redes Sociais aliados a técnicas avançadas de Análise de Redes Sociais que possibilitem analisar comparativamente o perfil relacionamento de usuários do Twitterfrente ao seu perfil nos sistemas de análise de crédito.

  • OTACILIO DE ARAUJO RAMOS NETO
  • Estudo e Implementação de IP-Cores para Criptografia Simétrica Baseado no Advanced Encryption Standard (AES)
  • Date: Jan 31, 2013
  • Time: 10:00
  • Show Summary
  • Este trabalho consistiu em realizar o projeto de um IP-core digital para realização dos procedimentos de criptografia do AES,  partindo do nível do pseudocódigo dos algoritmos até o nível de um núcleo (core) de circuito integrado digital. Foram estudadas soluções publicadas na literatura recente e foram identificados módulos e operações passíveis de serem replicadas/reusadas. Uma microarquitetura para o AES completo foi implementada hierarquicamente até o nível de núcleo com standard cells posicionado e roteado, contemplando ainda 3 opções de implementação para o bloco reconhecidamente o mais complexo: o SBox. Resultados de desempenho e área foram comparados.

2012
Description
  • ANA CLAUDIA COSTA DA SILVA
  • Uma Abordagem Orientada a Features para Representação e Gerenciamento do Patrimônio Cultural Imaterial: Um Estudo de Caso Baseado no PAMIN
  • Date: Dec 18, 2012
  • Time: 14:00
  • Show Summary
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital. 

  • DANIEL GONCALVES RAMOS
  • METAHEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DA VARIABILIDADE DO TEMPO DE DOWNLOAD EM AMBIENTES DE TV DIGITAL
  • Date: Aug 31, 2012
  • Time: 14:00
  • Show Summary
  • A transmissão de aplicativos interativos no ambiente de TV Digital é feita através do padrão Carrossel DSM-CC. Esse padrão permite que os dados sejam enviados de forma cíclica, a fim de que o usuário possa recebê-los por completo independente do momento que iniciou seu download. A forma com que os dados estarão disponíveis no carrossel tem um impacto significativo no tempo de espera do usuário, o que dá origem a uma variante do Response Time Variability Problem, denominado neste trabalho de Problema da Variabilidade do Tempo de Download (PVTD).  Este trabalho propõe um modelo de negócio para definir quais aplicações terão prioridade no carrossel, além de propor um novo modelo matemático que visa minimizar o atraso no download dessas aplicações. Este ainda descreve a implementação das metaheurísticas GRASP e ILS aplicadas ao PVTD, bem como compara os resultados com um trabalho da literatura.

  • DANIEL SOARES E MARQUES
  • Sistema Misto Reconfigurável Aplicado à Interface PCI para Otimização do Algoritmo Non-Local Means
  • Date: Aug 31, 2012
  • Time: 14:00
  • Show Summary
  • A área de processamento de imagens digitais está evoluindo continuamente e, embora as áreas de aplicações sejam diversas, os problemas encontrados comumente convergem para os métodos capazes de melhorar a informação visual para a análise e interpretação. Uma das principais limitações em questão de precisão de imagens é o ruído, que é definido como uma perturbação na imagem.

                O método Non-Local Means (NLM) destaca-se como o estado da arte de filtragem de ruído. Apesar de possuir resultados de filtragem que sobressaem em relação a outros métodos comparados, sua complexidade computacional é um empecilho para torná-lo prático em aplicações computacionais de uso geral.

                    Atualmente há na literatura científica diversos trabalhos relacionados à otimização do NLM, porém muitos sem ganhos consideráveis para facilitar o uso, o estudo e o aperfeiçoamento do método.

                O presente trabalho apresenta a implementação de um sistema computacional, desenvolvido com partes executadas em software e em hardware aplicado à PCI, visando a otimização do algoritmo NLM através de técnicas de aceleração em hardware, permitindo uma eficiência maior do que normalmente é fornecida por processadores de uso geral.

                O uso da computação reconfigurável auxiliou no desenvolvimento do sistema em hardware, proporcionando a modificação do circuito descrito no ambiente de sua utilização, acelerando a implementação do projeto. Utilizando um kit PCI de prototipação FPGA, para efetuar o cálculo dedicado da Distância Euclidiana Quadrática Ponderada, os resultados obtidos nos testes exibem um ganho de tempo até 3.5 vezes maior que as abordagens de otimização comparadas, mantendo também a qualidade visual da filtragem estabilizada.

  • MARCELLE BATISTA MARTINS DOS SANTOS
  • MDM-KTV: Um Framework Conceitual de Multi-Modelos para a organização dos dados operacionais, analíticos, semânticos e baseados no Linked Data na TVDI
  • Date: Aug 31, 2012
  • Time: 14:00
  • Show Summary
  • Com a difusão e o crescimento da televisão digital nos lares de todo o mundo, o usuário usufrui de imagem e som de melhor qualidade, além de ter acesso a diversos tipos de conteúdos inseridos em uma nova mídia mais completa , que é a TV Digital Interativa (TVDI), onde tais conteúdos podem ser acessados através de vários dispositivos e meios distintos. Com toda essa complexidade, surgem variados cenários na TVDI, que vão desde a um simples aplicativo interativo operacional a aplicativos que avaliam o comportamento do usuário, cuja finalidade é oferecer resultados mais precisos e focados no perfil do usuário. A plataforma Knowledge TV (KTV) analisada neste trabalho tem como principal objetivo a inclusão de uma camada semântica que provê aplicações inseridas em um contexto recente que é a Web Semântica, propondo novos desafios na busca de um ambiente de convergência digital. Assim, a proposta desta dissertação é o desenvolvimento de um Framework Conceitual de multi-modelos de dados para a organização das aplicações na TVDI, considerando o mapeamento dos dados nos três níveis: operacional, analítico e semântico (estendendo a visão Linked  Data).

    Com a difusão e o crescimento da televisão digital nos lares de todo o mundo, o usuário usufrui de imagem e som de melhor qualidade, além de ter acesso a diversos tipos de conteúdos inseridos em uma nova mídia mais completa[N1] , que é a TV Digital Interativa (TVDI), onde tais conteúdos podem ser acessados através de vários dispositivos e meios distintos. Com toda essa complexidade, surgem variados cenários na TVDI, que vão desde a um simples aplicativo interativo operacional a aplicativos que avaliam o comportamento do usuário, cuja finalidade é oferecer resultados mais precisos e focados no perfil do usuário. A plataforma Knowledge TV (KTV) analisada neste trabalho tem como principal objetivo a inclusão de uma camada semântica que provê aplicações inseridas em um contexto recente que é a Web Semântica, propondo novos desafios na busca de um ambiente de convergência digital. Assim, a proposta desta dissertação é o desenvolvimento de um Framework Conceitual de multi-modelos de dados para a organização das aplicações na TVDI, considerando o mapeamento dos dados nos três níveis: operacional, analítico e semântico (estendendo a visão Linked  Data).

     [N1]Ressaltar que alem de melhor imagem e som o usuário tbm pode receber aplicações e dados.

  • EDUARDO FREIRE SANTANA
  • SEGMENTAÇÃO NÃO SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTO POR MINIMIZAÇÃO DA ENTROPIA CRUZADA
  • Date: Aug 30, 2012
  • Time: 14:00
  • Show Summary
  • Sensoriamento remoto é uma das tecnologias que mais rapidamente cresceu durante o final do século XX e início do século XXI. O uso mais comum deste termo refere-se à observação da superfície terrestre por meio de satélites. Em sensoriamento remoto, segmentação de imagem é uma ferramenta frequentemente utilizada no auxílio à detecção de mudança de paisagens e classificação do uso do solo. Este trabalho se propõe à pesquisa e ao desenvolvimento de um novo método para segmentação não-supervisionada de imagens de sensoriamento remoto baseado na minimização da entropia cruzada entre a distribuição de probabilidade da imagem e um modelo estatístico. Para os testes realizados, foram utilizadas quinze imagens capturadas pelo sensor TM (Thematic Mapper) do satélite Landsat 5. A partir do banco de dados do projeto de mapeamento do uso do solo da região amazônica TerraClass, foram derivadas imagens temáticas utilizadas como gabarito para medir o desempenho do classificador desenvolvido. O algoritmo proposto parte de uma segmentação inicial e busca iterativamente melhorar o modelo estatístico que estima a densidade de probabilidade da imagem, de forma a reduzir a entropia cruzada em relação à iteração anterior. Os resultados indicam que a minimização da entropia cruzada está relacionada com uma segmentação coerente das imagens. Duas abordagens foram desenvolvidas, uma realizando classificação pixel a pixel e outra classificando regiões obtidas pela transformada Watershed. Para a abordagem por pixel, a concordância média entre o classificador e o gabarito foi de 88,75% para as quinze imagens selecionadas e de 91,81% para quatro pequenas regiões que representam detalhes de uma das imagens. Para a abordagem por região, a concordância média foi de 87,33% para as imagens e 91,81% para os detalhes. Os gabaritos dos detalhes de imagem foram preparados manualmente por um especialista.

  • FELIPE LACET SILVA FERREIRA
  • Provendo Suporte a Língua de Sinais em Middlewares Compatíveis com a ITU J.202
  • Advisor : GUIDO LEMOS DE SOUZA FILHO
  • Date: Aug 30, 2012
  • Time: 10:00
  • Show Summary
  • As línguas de sinais são línguas naturais de modalidade gestual-visual utilizadas pelos surdos na comunicação. Atualmente, o uso de língua de sinais na TV é ainda limitado a dispositivos manuais, onde a janela com um intérprete é exibida sobrepondo o vídeo do programa. Alguns trabalhos, como Amorim et al. [30] e Araújo et al [14] foram propostos, mas ainda possuem algumas lacunas para serem resolvidas. Neste trabalho é proposta uma solução para prover o suporte a língua de sinais em middlewares de sistemas de televisão digital compatíveis com a especificação ITU-T J.202 [29]. Uma caracteristica importante da solução apresentada nesse trabalho é que não é necessário adaptar as APIs existentes ou criar novas APIS para prover esse suporte. Para validar a solução proposta um estudo de caso foi desenvolvido utilizando o Ginga-J, a parte procedural do middleware Ginga compatível com a especificação ITU J.202. Alguns testes aplicados com surdos confirmam a viabilidade da solução.

  • ALAN LIVIO VASCONCELOS GUEDES
  • UMA SOLUÇÃO PARA EXECUÇÃO DE APLICAÇÕES GINGA-NCL USANDO SEGUNDA TELA EM SISTEMAS BROADBANDTV
  • Date: Aug 29, 2012
  • Time: 15:00
  • Show Summary
  • No desenvolvimento de aplicações para TV Digital, o ambiente Ginga-NCL prove suporte a aplicações
    com uso de dispositivos de segunda tela. Entretanto, foi apenas com recentes esforços na
    implementação de referência do Ginga-NCL que esse recurso foi de fato viabilizado, utilizando uma
    estratégia de associação de perfis UAProf aos dispositivos necessários. Este trabalho propõe uma
    arquitetura de portal de aplicações BroadbandTV que utiliza o ambiente Ginga-NCL, sendo capaz de
    apresentar ao usuário uma lista de aplicações compatíveis ao seu contexto de execução
    multidispositivos. Como resultados, são apresentadas a descrição da arquitetura e a execução de testes
    com protótipos de software.
    No desenvolvimento de aplicações para TV Digital, o ambiente Ginga-NCL prove suporte a aplicaçõescom uso de dispositivos de segunda tela. Entretanto, foi apenas com recentes esforços naimplementação de referência do Ginga-NCL que esse recurso foi de fato viabilizado, utilizando umaestratégia de associação de perfis UAProf aos dispositivos necessários. Este trabalho propõe umaarquitetura de portal de aplicações BroadbandTV que utiliza o ambiente Ginga-NCL, sendo capaz deapresentar ao usuário uma lista de aplicações compatíveis ao seu contexto de execuçãomultidispositivos. Como resultados, são apresentadas a descrição da arquitetura e a execução de testescom protótipos de software.

  • FELIPE HERMINIO LEMOS
  • Uma Proposta de Protocolo de Codificação de Libras para Sistemas de TV Digital
  • Date: Aug 29, 2012
  • Time: 14:00
  • Show Summary
  • Os sistemas de TV Digital atuais não possuem padronização especifica para línguas de sinais (LS). A solução utilizada na TV nos dias de hoje, consiste em transmitir uma janela com um interprete de LS sobreposto ao vídeo do programa. Esta solução se mostra ineficaz em vários aspectos: possui um alto custo operacional, e dependente de um interprete em tempo integral, alem de distrair os telespectadores que não são surdos. Somado a tudo isso, a geração de uma mesma janela para todos os usuários, nao respeita as diferenças regionais das LS. Para reduzir esses problemas, o objetivo principal desse trabalho e propor um protocolo que viabilize a codificação e transmissão de janelas em Língua Brasileira de Sinais (LIBRAS) para sistemas de televisão digital. Nessa proposta, os quadros do vídeo da janela de LIBRAS não são transmitidos. Em vez disso, e transmitido um conjunto de códigos, onde cada código esta relacionado a representação visual de um sinal de LIBRAS armazenada no receptor. Dessa forma, e possível respeitar as diferenças regionais e reduzir a largura de banda utilizada na transmissão. Adicionalmente, também são investigadas estratégias para representar efeitos sonoros, entonação de voz e nuances emocionais na sinalização.

  • DANILO ASSIS NOBRE DOS SANTOS SILVA
  • Uma Linguagem Formal e Expansível para Descrição de Sinais da Língua Brasileira de Sinais
  • Date: Aug 29, 2012
  • Time: 10:00
  • Show Summary
  • Os surdos se comunicam naturalmente por línguas gestuais e visuais, denominadas línguas de sinais. Essas línguas são línguas naturais compostas por itens lexicais denominados sinais e possuem gramáticas e vocabulários próprios. Neste trabalho, propomos a definição de uma linguagem formal, expressiva e coerente para descrever sinais em língua brasileira de sinais (LIBRAS). Esta linguagem permite que todos os parâmetros constituintes de um sinal sejam especificados e, a partir deles, uma animação para aquele sinal possa ser gerada com base em avatares humanóide 3D.  Além disso, a linguagem proposta é flexível e permite que novos parâmetros (ou fonemas) sejam especificados dinamicamente. Para prover um estudo de caso para a linguagem proposta, um sistema para construção colaborativa de um vocabulário de LIBRAS com base em avatares humanóides 3D também foi desenvolvido. Um conjunto de testes com surdos brasileiros também foi realizado para avaliar este sistema.

  • GUSTAVO SAVIO DE OLIVEIRA
  • Um framework para testes de software na nuvem
  • Date: Aug 29, 2012
  • Time: 10:00
  • Show Summary
  • Infraestruturas de computação em nuvens podem ser utilizadas para tornar o processo de testes mais eficiente e eficaz, obtendo desde redução dos custos de aquisição de infraestrutura à flexibilidade em se utilizar apenas os recursos realmente necessários para efetuar os testes. Entretanto, explorar tais infraestruturas para auxiliar no processo de testes requer procedimentos de configuração e automatização nem sempre disponíveis. Neste contexto, identificamos a ausência de ferramental que efetivamente automatizasse todo o processo e tornasse uma infraestrutura de computação em nuvem parte integrante do ambiente de desenvolvimento e testes. Este trabalho objetiva apresentar uma solução que distribui e coordena a execução paralela de testes automáticos de software em ambientes distribuídos e heterogêneos. Tal solução, denominada CloudTesting fornece ao desenvolvedor o suporte necessário para executar testes de unidade de software na nuvem. Experimentos realizados com o CloudTesting e uma infraestrutura de computação na nuvem demonstraram reduções de mais de 20 horas no tempo gasto de execução de um conjunto sintético de testes de unidade.

  • DIOGO HENRIQUE DUARTE BEZERRA
  • Luar: Um Sistema de Processamento de Templates NCL
  • Date: Aug 24, 2012
  • Time: 16:00
  • Show Summary
  • O domnio alvo deste trabalho s~ao as aplicac~oes para TV digital, onde o foco esta
    na interac~ao entre o usuario e a aplicac~ao. O objetivo deste trabalho e desenvolver um
    sistema de templates que facilite a construc~ao desse tipo de aplicac~ao e diminua o tempo
    gasto com desenvolvimento por meio da tecnica de reuso. Este trabalho apresenta o Luar:
    Um Sistema de Processamento de Templates NCL. O sistema foi concebido por meio da
    analise do comportamento de aplicac~oes para TVDI, implementado usando-se a linguagem
    Lua, tendo como meta facilitar o projeto e a implementac~ao de aplicac~oes interativas para
    TV digital.
    O domínio alvo deste trabalho são as aplicações para TV digital, com foco na interação entre o usuário e a aplicação. O objetivo deste trabalho e desenvolver um sistema de templates que facilite a construção desse tipo de aplicação e diminua o tempo gasto com desenvolvimento por meio da técnica de reuso. Este trabalho apresenta o Luar,  um Sistema de Processamento de Templates NCL. O sistema foi concebido por meio daanalise do comportamento de aplicações para TVDI, usando-se a linguagem Lua, tendo como meta facilitar o projeto e a implementação de aplicações interativas paraTV digital. O sistema de processamento de templates é validado com experimentos reais com usuários desenvolvedores de aplicação e os resultados mostram que seu uso reduz o tempo de desenvolvimento das aplicações

  • DIEGO ERNESTO ROSA PESSOA
  • Um modelo híbrido de metadados baseado em meta-modelos dinâmicos para Integração entre redes heterogêneas de ativos digitais
  • Date: Aug 24, 2012
  • Time: 14:00
  • Show Summary
  • O gerenciamento de grandes repositórios de ativos digitais tem se
    tornado uma atividade importante com o crescimento do número de
    dispositivos multimídia conectados (smartphones, tablets, smartTV, TV
    digital), além dos dispositivos tradicionais (desktops, laptops). Os
    ativos digitais precisam ser identificados por metadados bem definidos
    de maneira que instâncias diferentes de um mesmo conteúdo (ex:
    conteúdos em diferentes formatos ou resolução de vídeo) possam ser
    adequadamente localizados e usados em diferentes dispositivos,
    permitindo o conceito de “mídia cruzada”. Além disso, está se tornando
    comum o intercâmbio de mídia entre diferentes repositórios e acervos
    entre instituições diferentes (domínios), o que exige padronização de
    metadados para localização eficiente. Este trabalho propõe um
    meta-modelo dinâmico que possibilite a integração em nível de
    metadados entre domínios heterogêneos de ativos digitais onde cada
    domínio contém características peculiares e pode adotar modelos de
    metadados distintos. Além disso, implementa um estudo de caso aplicado
    ao contexto de gerenciamento de ativos digitais, contendo ao menos
    dois domínios, onde cada um utiliza um padrão de metadados distinto e
    efetua operações de troca de conteúdos.

  • RAMON LEONN VICTOR MEDEIROS
  • Uma Ferramenta de Geração de Código VHDL a partir do Modelo de Atores utilizando o Framework Ptolemy
  • Date: Aug 24, 2012
  • Time: 10:00
  • Show Summary
  • Na área de Microeletrônica uma das maiores dificuldades trata-se de encontrar profissionais capacitados. Para a formação destes há uma demanda por recursos – humanos e materiais - que, muitas vezes, tem alto custo. Assim, se faz necessária uma solução tão acessível a instituições e pesquisadores, quanto adaptável às suas necessidades, propiciando escalabilidade e disseminação à formação, sem deixar de focar a qualidade. O objetivo deste trabalho é o desenvolvimento de uma ferramenta de geração de código VHDL  baseada em Atores utilizando o Framework Ptolemy. Onde, além de projetar e simular graficamente modelos, os alunos podem gerar código VHDL e transferi-los para testar em FPGAs.

  • CARLOS AUGUSTO AYRES CARVALHO
  • LASIC PROCESS: UM FRAMEWORK CONCEITUAL PARA INTEGRAÇÃO DE PADRÕES DE GESTÃO AO DESENVOLVIMENTO DE PROJETOS DE PROPRIEDADE INTELECTUAL DE SISTEMAS ELETRÔNICOS INTEGRADOS EM CHIPS (IP-SOCS)
  • Date: Aug 23, 2012
  • Time: 14:30
  • Show Summary
  • Esse trabalho é apresentado como uma contribuição para a área de projeto de sistemas integrados em circuitos (SoCs); especificamente, o trabalho aborda a inclusão de uma camada de gestão de projetos no(s) fluxo(s) de projeto de circuitos integrados.

    O foco deste trabalho consiste em desenvolver e implementar um (novo) framework de execução e gerenciamento de tarefas dedicado ao desenvolvimento de circuitos digitais integrados, com forte ênfase na gestão de projetos, denominado Lasic-Process.

    Neste trabalho, serão estudadas e apresentadas as etapas e interdependências do fluxo de projeto de circuitos VLSI (Very-large-scale integration), as principais metodologias de Verificação Funcional (contemplando cada nível hierárquico), a identificação dessas etapas na utilização de um conjunto de ferramentas de concepção acadêmica: Alliance e o aplicativo de gestão de projetos dotProject (DOT,2011) com vistas a identificar em seu banco de dados, os campos de registro que serão alterados para a atualização do gráfico de Gantt do projeto, proporcionando o acompanhamento sistemático da evolução das tarefas em tempo real.

  • MARIANA DE LUNA FREIRE DUARTE
  • MINERAÇÃO DE DADOS USANDO PROGRAMAÇÃO GENÉTICA
  • Date: Aug 23, 2012
  • Time: 14:00
  • Show Summary
  • A mineração de dados tornou-se uma importante atividade para a tomada de decisão para grandes ou pequenas corporações, pois a partir dela é possível extrair informações relevantes e não triviais de forma que correções e ajustes em estratégias econômicas e administrativas possam ser solucionados. Assim, vê-se um aumento no armazenamento de dados geográficos, de tal maneira que a mineração de dados convencionais não suporta realizar a extração de conhecimento em um banco de dados composto por estes tipos de dados. De acordo com a literatura atual, poucas ferramentas capazes de extrair conhecimento a partir de dados geográficos são encontradas, principalmente, quando a base de dados é composta por dados convencionais (numéricos e textuais) e geográficos (ponto, linha e polígono). Este trabalho tem como objetivo principal apresentar um novo algoritmo para a atividade de mineração de dados espaciais utilizando os dois tipos de dados para realizar a extração de informações de uma determinada base. O algoritmo em questão tem como base o algoritmo DMGeo que, por sua vez, também visa extrair conhecimento a partir dos dois tipos de dados. Estes algoritmos são baseados na Programação Genética e foram desenvolvidos a fim de obte regras de classificação de padrões existentes nos atributos numéricos e geográficos.

  • BRUNO MAIA DE MORAIS
  • InteliCare – Infraestrutura de Telessaúde para Apoio à Serviços de Atenção domiciliar baseada Redes de Sensores Sem fio e Sistemas Embarcados
  • Date: Aug 20, 2012
  • Time: 09:00
  • Show Summary
  • InteliCare – Infraestrutura de Telessaúde para Apoio à Serviços de Atenção domiciliar baseada Rede de Sensores Sem fio e Sistemas Embarcados

  • DUILIO ASSIS NOBRE DOS SANTOS SILVA
  • Um Método Geral para Redução de Grandes Conjuntos de Dados Baseado em Difusão Geometrica Markoviana
  • Date: Aug 17, 2012
  • Time: 14:00
  • Show Summary
  • A redução de dados está se tornando uma área proeminente dado ao crescimento da quantidade de dados que estão sendo gerados a partir de diferentes áreas de conhecimento. Os algoritmos atuais determinam quais instâncias são selecionadas usando medidas de distâncias tradicionais. Além disso, a maioria dos algoritmos é impraticável para alguns problemas devido ao alto custo de processamento para conjuntos de dados com grande número de instâncias. Este trabalho apresenta um novo método para redução de conjunto de dados como uma extensão do método de Difusão Geométrica Markoviana (DGM), que é usado no campo de computação gráfica para simplificação de malhas triangulares. O DGM foi estendido para reduzir conjuntos de dados em geral, preservando os elementos que possuem certas características desejadas. O processo de redução baseia-se na análise probabilística da propagação de calor entre partículas. Aquelas com maior capacidade de reter calor serão as instâncias mais representativas. Além disso, ele captura estruturas não lineares dos dados e possui uma abordagem multiescala quando processa densidades locais. Vários experimentos foram realizados em conjuntos de dados de diferentes tamanhos. Resultados mostraram boa performance em termos de precisão de classificação e qualidade de redução na preservação de informação do método.

  • Lucas Lucena Gambarra
  • PROPOSTA DE IMPLEMENTAÇÃO EM HARDWARE PARA O ALGORITMO NON-LOCAL MEANS
  • Date: Aug 13, 2012
  • Time: 10:00
  • Show Summary
  • Imagem digital é a representação de uma imagem bidimensional usando
    números binários codificados de modo a permitir seu armazenamento, transferência,
    impressão ou reprodução, e seu processamento por meios eletrônicos. É formada por
    um conjunto de pontos definidos por valores numéricos, escala de cinza, no qual cada
    ponto representa um pixel.
    Em qualquer imagem digital, a medição do nível de cinza observada em cada
    pixel é sujeita a algumas perturbações. Essas perturbações são devidas à natureza
    aleatória do processo de contagem de fótons nos sensores usados para captura da
    imagem. O ruído pode ser amplificado por correções digitais ou por qualquer software
    de processamento de imagem como, por exemplo, as ferramentas que aumentam o
    contraste.
    A remoção de ruídos cujo objetivo é recuperar, ou estimar a imagem original, é
    ainda um dos mais fundamentais e amplamente estudados problemas do
    processamento de imagem. Em diversas áreas, a remoção de ruídos é uma etapa
    fundamental para melhorar a qualidade dos resultados. Entre as alternativas com
    essa finalidade, o método proposto por Buades (2005), conhecido como Non-Local
    Means (NLM), representa o estado da arte.
    Embora bastante eficaz quanto à remoção de ruídos, o NLM é muito lento para
    ser realizado de modo prático. Sua complexidade computacional é alta devido à
    necessidade de cálculo de pesos para todos os pixels da imagem durante o processo
    de filtragem de cada pixel, resultando numa complexidade quadrática no número de
    pixels da imagem. Os pesos são obtidos por meio do cálculo da diferença entre as
    vizinhanças de pixels correspondentes.
    Muitas aplicações possuem requisitos de tempo para que seus resultados
    sejam úteis, e nesse contexto, este trabalho propõe uma implementação em FPGA
    para o algoritmo Non-local means com o objetivo de obter um baixo tempo de
    execução usando, para isto: pipelines, paralelismo em hardware e aproximação linear
    por partes. A implementação proposta é aproximadamente 290 vezes mais rápida que
    o algoritmo Non-local means em software e apresenta, além disso, resultados
    semelhantes ao algoritmo original quanto ao erro médio quadrático (MSE) e a
    qualidade perceptiva de imagem.

  • YURI GONZAGA GONÇALVES DA COSTA
  • DESENVOLVIMENTO E IMPLEMENTAÇÃO EM FPGA DE UM COMPRESSOR SEM PERDAS DE BAIXA COMPLEXIDADE PARA IMAGENS DE SATÉLITE
  • Date: Jul 31, 2012
  • Time: 14:00
  • Show Summary
  • A quantidade de dados gerados e transmitidos pelos satélites para as estações
    na Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, os
    sistemas de imageamento espaciais, particularmente as missões de observação da
    Terra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo,
    se faz necessário garantir que os dados cheguem ao destino de maneira confiável.
    Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável de
    alcançar esse requisito. Um sistema de compressão de dados para esse fim deve
    obedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto,
    implementações em hardware baseadas em predição e codificação de Golomb-Rice
    têm obtido excelentes resultados considerando desempenho do hardware e da
    compressão, tanto nos casos sem perdas como nos com perdas. O presente trabalho
    apresenta uma proposta de hardware digital de um compressor sem perdas para
    imagens de satélite baseado em predição e codificação Golomb-Rice que busca um
    balanceamento entre os requisitos de desempenho e a propagação de erros, um
    problema comum no âmbito de sistemas espaciais e que é potencializado no caso dos
    compressores de dados. Para validação e análise do compressor, é seguida uma
    metodologia de verificação funcional de hardware digital e o desenvolvimento de um
    protótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2B
    disponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidos
    em FPGA mostram que esse compressor alcança razão de compressão média de 3,4,
    valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s).
    Considerando a natureza das imagens, a compressão pode ser paralelizada por meio
    de simultâneos núcleos compressores em uma abordagem multicore. Por exemplo,
    usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em uma
    velocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil e
    efetivo para a aplicação em um sistema moderno de imageamento para
    sensoriamento remoto.
    A quantidade de dados gerados e transmitidos pelos satélites para as estaçõesna Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, ossistemas de imageamento espaciais, particularmente as missões de observação daTerra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo,se faz necessário garantir que os dados cheguem ao destino de maneira confiável.Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável dealcançar esse requisito. Um sistema de compressão de dados para esse fim deveobedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto,implementações em hardware baseadas em predição e codificação de Golomb-Ricetêm obtido excelentes resultados considerando desempenho do hardware e dacompressão, tanto nos casos sem perdas como nos com perdas. O presente trabalhoapresenta uma proposta de hardware digital de um compressor sem perdas paraimagens de satélite baseado em predição e codificação Golomb-Rice que busca umbalanceamento entre os requisitos de desempenho e a propagação de erros, umproblema comum no âmbito de sistemas espaciais e que é potencializado no caso doscompressores de dados. Para validação e análise do compressor, é seguida umametodologia de verificação funcional de hardware digital e o desenvolvimento de umprotótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2Bdisponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidosem FPGA mostram que esse compressor alcança razão de compressão média de 3,4,valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s).Considerando a natureza das imagens, a compressão pode ser paralelizada por meiode simultâneos núcleos compressores em uma abordagem multicore. Por exemplo,usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em umavelocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil eefetivo para a aplicação em um sistema moderno de imageamento parasensoriamento remoto.

  • Adriano da Silva Marinho
  • Uma nova versão de um sistema para detecção e reconhecimento de face utilizando a transformada cosseno discreta
  • Date: Jul 30, 2012
  • Time: 14:00
  • Show Summary
  •  

    Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos tradicionais para estabelecer a identidade de um usuário (como os que utilizam senhas ousmartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transfomada Cosseno Discreta (DCT). Com o intuito de investigar a robustez do reconhecimento facial utilizando a DCT em relação à iluminação, posição e escala, neste trabalho foram desenvolvidas duas melhorias para o sistema de reconhecimento facial SDRF de (OMAIA, 2009): uma etapa de normalização de posição e escala para imagens e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal.

  • FAUSTO ALVES DE SOUSA NETO
  • DITV-Learning: Uma Ferramenta de Autoria para Construção de Objetos Digitais de Aprendizagem para TV Digital Interativa
  • Date: Jul 27, 2012
  • Time: 14:00
  • Show Summary
  • O uso crescente de computadores nas escolas vem mudando o padrão de ensino no Brasil e possibilitando que professores interfiram em soluções que tornem o processo de aprendizagem mais participativo e interativo. Neste cenário os objetos de aprendizagem (OA) têm se mostrado uma ferramenta eficiente. A construção de um OA para web ou para TV digital envolve conhecimentos específicos de informática, tornando sua elaboração cara e demorada. Propomos uma ferramenta de autoria para a elaboração de objetos de aprendizagem para a TV digital interativa, que possa viabilizar a construção de OA por profissionais que possuam pouca habilidade em informática.

  • ALINE MARQUES DE MORAIS
  • Uma Arquitetura para Programação Visual de Ambientes baseados em Realidade Virtual para Profissionais da Saúde
  • Advisor : LILIANE DOS SANTOS MACHADO
  • Date: Jun 18, 2012
  • Time: 09:00
  • Show Summary
  • A complexidade envolvida no processo de geração de aplicações médicas baseadas em Realidade Virtual (RV) exige, em sua maioria, um conhecimento específico em programação para manipular estes sistemas computacionais. Um estudo realizado neste trabalho observou que a maioria dos frameworks com as mesmas potencialidades em RV não possui interface de programação de aplicações voltada para usuários leigos. Isso se aplica em diversas áreas, inclusive na saúde. Neste contexto, se destaca o CyberMed como framework para desenvolvimento de aplicações médicas baseadas em RV. Outro levantamento realizado mostrou que os profissionais da área de saúde possuem vontade em interagir com sistemas em RV de fácil uso. Baseado nesses resultados e em outros estudos executados, esse trabalho apresentará um estudo sobre Programação Visual (PV) em frameworks na área de saúde e mostrará como essa técnica visual poderá ajudar no processo de interação e de geração de aplicações médicas, com recursos em estereoscopia, colisão, deformação e sensação háptica, por exemplo, uma tarefa intuitiva no processo de execução pelos usuários leigos em programação ou um processo de rápida realização pelos usuários com conhecimento específico em programação. Como resultado desse estudo, será apresentado a arquitetura de um Sistema de PV chamado de CyberMedVPS, baseado nas técnicas de PV e que possibilitará a interação predominantemente gráfica com frameworks de saúde na área de RV para os profissionais de saúde

  • MANUELLA DIAS CARVALHO SILVA
  • Monitoramento Remoto Preventivo de Pacientes com Doenças Cardiovasculares Utilizando Dispositivos Móvel como Agente Inteligente
  • Date: May 24, 2012
  • Time: 14:00
  • Show Summary
  • JOSE CARLOS A PATRICIO JUNIOR
  • Uma Abordagem de Ambiente de KDD com Ênfase em Mineração de Dados no Ambiente da Knowledge TV

  • Date: May 18, 2012
  • Time: 14:00
  • Show Summary
  • A TV Digital Interativa traz inúmeras inovações ao cenário analógico que existia anteriormente, dentre elas: aumento da qualidade de som, imagem, aumento quantidade de canais, programas e serviços disponíveis ao usuário. Contudo, as informações que representam o conteúdo multimídia se apresentam estruturadas de forma tradicional, em formato de tabelas e arquivos, não provendo interoperabilidade entre as informações, nem possuindo semântica. Neste contexto o projeto Knowledge TV - KTV propõe organizar os dados presentes na TV Digital semanticamente, utilizando para isso conceitos de Web Semântica e representação de conteúdo, para fornecer uma arquitetura para desenvolvimento de aplicações. Um dos principais componentes do KTV é o ambiente de descoberta de conhecimento em base de dados apoiado por conceitos semânticos. Neste contexto, este trabalho visa especificar e desenvolver esse ambiente que nesta abordagem será chamado de Mining Knowledge TV – MKTV.

  • RENNAN NUNES TOSCANO
  • GRASP COM ALGORITMOS HIBRIDOS APLICADOAO PROBLEMA DA ARVORE GERADORA DE CUSTO MINIMO CAPACITADA EM NIVEIS
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: May 11, 2012
  • Time: 09:00
  • Show Summary
  •  

    Apresenta-se, nesta tese, um algoritmo híbrido, baseado na metaheurística
    Greedy Randomized Adaptive Search (GRASP), para obter soluções
    melhores e reduzir o custo computacional para o problema conhecido
    como o Problema da Árvore Geradora de Custo Mínimo Capacitada
    em Níveis (PAGCMCN). Este problema, normalmente encontrado ao
    se projetar uma rede, consiste em determinar a melhor maneira de se
    conectar vários terminais a um computador central, de forma a atender
    suas demandas. As conexões podem envolver diferentes tipos de
    linhas de transmissão, onde cada tipo possui uma capacidade máxima
    de transmissão distinta. No algoritmo proposto, o otimizador CPLEX
    12.2 é acionado, tanto na fase de construção quanto na de busca local,
    com vistas a uma exploração mais efetiva do espaço de busca. Os
    experimentos computacionais mostraram que o algoritmo proposto é
    bastante competitivo, superando em várias instâncias os resultados da
    literatura e obtendo resultados muito próximos nas demais.

    Apresenta-se, nesta tese, um algoritmo híbrido, baseado na metaheurísticaGreedy Randomized Adaptive Search (GRASP), para obter soluçõesmelhores e reduzir o custo computacional para o problema conhecidocomo o Problema da Árvore Geradora de Custo Mínimo Capacitadaem Níveis (PAGCMCN). Este problema, normalmente encontrado aose projetar uma rede, consiste em determinar a melhor maneira de seconectar vários terminais a um computador central, de forma a atendersuas demandas. As conexões podem envolver diferentes tipos delinhas de transmissão, onde cada tipo possui uma capacidade máximade transmissão distinta. No algoritmo proposto, o otimizador CPLEX12.2 é acionado, tanto na fase de construção quanto na de busca local,com vistas a uma exploração mais efetiva do espaço de busca. Osexperimentos computacionais mostraram que o algoritmo proposto ébastante competitivo, superando em várias instâncias os resultados daliteratura e obtendo resultados muito próximos nas demais.

  • SEVERINO DO RAMO DE PAIVA
  • ESCOLLAB: UMA METODOLOGIA COLABORATIVA VOLTADA PARA O ENSINO DE ENGENHARIA DE SOFTWARE
  • Date: Apr 23, 2012
  • Time: 10:00
  • Show Summary
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital.

  • José Rogério Bezerra Barbosa Filho
  • Um Método Automático de Detecção de Massas em Mamografias por meio de Redes Neurais
  • Date: Apr 20, 2012
  • Time: 16:00
  • Show Summary
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital.

  • CARLOS PEIXOTO MANGUEIRA JUNIOR
  • Paralelizando o MOPAC usando CUDA e bibliotecas de Matrizes Esparsas
  • Date: Mar 23, 2012
  • Time: 15:00
  • Show Summary
  • Este trabalho apresenta a implementação de algoritmos paralelos cujo objetivo principal é acelerar a execução de cálculos numéricos existentes em programas de Química Quântica. Estes programas utilizam alguns métodos cuja ordem de complexidade varia entre O(n3) e O(n5), onde o parâmetro n está relacionado à quantidade de átomos de uma molécula. Isto se torna um fator limitante quando se quer trabalhar com sistemas moleculares contendo milhares de átomos, como por exemplo, proteínas, DNA, polissacarídeos. Será explorado tanto o paralelismo proporcionado pelas placas gráficas e pelo modelo de programação CUDA como também serão utilizadas bibliotecas para manipulação de matrizes esparsas, que são comuns nestes cálculos.

  • ALEXANDER DE ALMEIDA PINTO
  • UTILIZAÇÃO DAS METAHEURÍSTICAS GRASP E ILS COM BUSCA LOCAL EXATA PARA RESOLUÇÃO DO PROBLEMA DE CONSTRUÇÃO DE TRILHOS DE AERONAVES

  • Date: Mar 22, 2012
  • Time: 15:00
  • Show Summary
  •  

    Os problemas operacionais cresceram muito em complexidade nos ´ultimos tempos, o que tem tornado necess´ario o desenvolvimento de t´ecnicas que possam agilizar a tomada de decis˜ao. Empresas que n˜ao utilizam sistemas computadorizados com essa finalidade tem perdido espac¸o entre seus concorrentes. A construc¸ ˜ao de trilhos de aeronaves ´e considerado um dos principais problemas da ind´ustria aeron´autica e se refere ao sequˆenciamento dos voos de uma companhia a´erea de forma que o menor n´umero de aeronaves seja necess´ario para opera-las. Esse problema possui uma caracter´ıstica combinat ´oria e a sua resoluc¸ ˜ao fica mais dif´ıcil a medida que a quantidade de voos envolvidos cresce. Entretanto pequenas modificac¸ ˜oes nos hor´arios de partida desses voos, ou o acr´escimo de algum voo de resposicionamento entre dois aeroportos pr´oximos podem gerar soluc¸ ˜oes de baixo custo. Apresentamos uma algoritmo h´ıbrido baseado na metaheur´ıstica GRASP, com a utilizac¸ ˜ao do ILS e de programac¸ ˜ao inteira na busca local. Esse algoritmo ´e indicado para resoluc¸ ˜ao de problemas de larga escala, pois nesse caso fica invi´avel a aplicac¸ ˜ao de um algoritmo puramente exato que poderia levar anos para realizar a tarefa. Os resultados preliminares tem mostrado agilidade na obtenc¸ ˜ao de boas soluc¸ ˜oes.

    Os problemas operacionais cresceram muito em complexidade nos ´ultimostempos, o que tem tornado necess´ario o desenvolvimento de t´ecnicas quepossam agilizar a tomada de decis˜ao. Empresas que n˜ao utilizam sistemascomputadorizados com essa finalidade tem perdido espac¸o entre seus concorrentes.A construc¸ ˜ao de trilhos de aeronaves ´e considerado um dos principaisproblemas da ind´ustria aeron´autica e se refere ao sequˆenciamento dos voosde uma companhia a´erea de forma que o menor n´umero de aeronaves sejanecess´ario para opera-las. Esse problema possui uma caracter´ıstica combinat´oria e a sua resoluc¸ ˜ao fica mais dif´ıcil a medida que a quantidade de voosenvolvidos cresce. Entretanto pequenas modificac¸ ˜oes nos hor´arios de partidadesses voos, ou o acr´escimo de algum voo de resposicionamento entre doisaeroportos pr´oximos podem gerar soluc¸ ˜oes de baixo custo.Apresentamos uma algoritmo h´ıbrido baseado na metaheur´ısticaGRASP, com a utilizac¸ ˜ao do ILS e de programac¸ ˜ao inteira na busca local.Esse algoritmo ´e indicado para resoluc¸ ˜ao de problemas de larga escala, poisnesse caso fica invi´avel a aplicac¸ ˜ao de um algoritmo puramente exato quepoderia levar anos para realizar a tarefa. Os resultados preliminares tem mostradoagilidade na obtenc¸ ˜ao de boas soluc¸ ˜oes.

  • DANIEL LEITE VIANA COSTA
  • Uma Abordagem Heurística para o Problema de Roteamento DIAL-A-RIDE

  • Date: Mar 22, 2012
  • Time: 10:00
  • Show Summary
  • Sistema de Carona Web utilizando a
    abordagem DARP

  • JOSÉ JUDSON MESQUITA CUNHA
  • PROPOSTA DE DESENVOLVIMENTO DE UM LABORATÓRIO VIRTUAL PARA ENSINO DE PROJETOS DE CIRCUITOS INTEGRADOS

  • Date: Mar 1, 2012
  • Time: 16:00
  • Show Summary
  • Esse trabalho propõe a criação de um Laboratório Virtual (LV) para o treinamento à distância em projetos de Circuitos Integrados, visando atender às necessidades instituições de ensino e pesquisa. O referido laboratório é passivo de adaptação ao perfil Visual Ativo típico dos alunos de engenharia e computação, possuindo também outras características importantes como o acesso remoto às ferramentas de projeto com tutoria e acompanhamento do professor, gerenciamento de arquivos, visualização de vídeos e imagens das redes sociais, bem como a comunicação interpessoal através de mensagens assíncronas.

  • ANDRE LUIZ DE LUCENA TORRES
  • Simulação baseada em atores como ferramenta de ensino de organização e arquitetura de computadores

  • Date: Mar 1, 2012
  • Time: 14:00
  • Show Summary
  • A informática educativa se faz cada vez mais presente nas atividades pedagógicas. Nesta nova realidade, várias aplicações visam facilitar a construção do conhecimento por parte dos professores em relação aos alunos através de métodos dinâmicos, expondo aulas para múltiplos ramos sem haver grande esforço ou repetições desnecessárias. Na área da Computação, existe a necessidade de utilização de aplicações que facilitem a aprendizagem. Pois, se tem observado que os ensinos de alguns conceitos introdutórios em disciplinas essenciais costumam apresentar um nível de abstração que prejudica o aprendizado dos alunos de cursos de informática que já possuem uma grande dificuldade em lidar com disciplinas da área de hardware. A utilização de simuladores na educação se faz cada vez mais presente nas atividades pedagógicas. Nesta nova realidade, várias aplicações visam facilitar a construção do conhecimento por parte dos professores em relação aos alunos, através de métodos dinâmicos e expondo aulas para múltiplos ramos sem haver grande esforço ou repetições desnecessárias. Neste sentido, este trabalho apresenta os resultados alcançados com a aplicação de uma extensão desenvolvida numa ferramenta de modelagem e simulação de sistemas concorrente baseada em atores, denominada Ptolemy. A extensão foi criada para contribuir com o processo de ensino-aprendizagem da disciplina de Organização e Arquitetura de Computadores com alunos da graduação.

2011
Description
  • Bruno Barufaldi
  • QUALIMAMO – UMA FERRAMENTA PARA CONTROLE DE QUALIDADE DE MAMÓGRAFOS

  • Date: Dec 29, 2011
  • Time: 10:00
  • Show Summary
  • QUALIMAMO – UMA FERRAMENTA PARA CONTROLE DE QUALIDADE DE MAMÓGRAFOS

  • ANTONIO DEUSANY DE CARVALHO JUNIOR
  • Análise de Padrões Musicais Rítmicos e Melódicos
    Utilizando o Algoritmo de Predição por Correspondência Parcial

  • Date: Dec 26, 2011
  • Time: 08:00
  • Show Summary
  • Análise de Padrões Musicais Rítmicos e Melódicos
    Utilizando o Algoritmo de Predição por Correspondência Parcial

  • JULIO CESAR FERREIRA DA SILVA
  • STYLO: Um framework voltado para o desenvolvimento de aplicações baseadas em vídeo digital
  • Date: Nov 21, 2011
  • Time: 15:00
  • Show Summary
  • Não Informado

  • MARIANA MEIRELLES DE MELLO LULA
  • Um Processo Ágil para Especificação de Requisitos em Programas Interativos com foco em Roteiros de TV
  • Date: Nov 21, 2011
  • Time: 09:00
  • Show Summary
  • RESUMO

    A adição de software aos programas de TV através da implantação do Sistema Brasileiro de TV Digital impulsionou a integração dessas duas grandes indústrias: software e TV. Essas duas linhas de trabalho possuem diferentes pensamentos e formas de trabalhar, contudo, com a chegada da TV Digital estes dois perfis profissionais, comunicação e informática necessitam trabalhar juntos. A especificação de requisitos do software segue algumas atividades determinadas de acordo com o processo que está sendo utilizado. Na televisão digital a elicitação de requisitos encontra um ambiente diferente, no qual, temos perfis profissionais diversos que estão envolvidos nesta atividade. Neste trabalho apresentamos um processo ágil para a especificação de requisitos em programas interativos que integram conteúdo audiovisual e aplicações interativas, buscando facilitar o entendimento e desenvolvimento do programa interativo pela equipe envolvida. A abordagem apresentada é baseada em roteiro interativo e histórias de usuário. O roteiro interativo vai adicionar as informações da aplicação interativa ao roteiro da equipe de comunicação e, o storyboard irá facilitar o entendimento da aplicação. O processo foi utilizado em um projeto real, onde doze programas interativos foram desenvolvidos. Por fim, são discutidos os resultados obtidos e perspectivas.

     

     

  • JULIO CESAR FERREIRA DA SILVA
  • Date: Nov 21, 2011
  • Time: 00:00

  • MARIANA MEIRELLES DE MELLO LULA
  • Date: Nov 21, 2011
  • Time: 00:00

  • JONATAS PEREIRA CABRAL DE ARAUJO
  • CoreKTV - Uma infraestrutura baseada em conhecimento para TV Digital Interativa: um estudo de caso para o middleware Ginga
  • Date: Sep 23, 2011
  • Time: 14:30
  • Show Summary
  • O surgimento da TV Digital promoveu um cenário de aumento da quantidade de canais, serviços e conteúdo disponíveis ao usuário. Entretanto, tais mudanças não foram refletidas na forma como o conteúdo multimídia é descrito. O modelo tradicional apresenta uma estrutura sintática, no qual as informações não possuem semântica, além do seu formato de representação para transmissão que não permite interoperabilidade com outros sistemas. Com a convergência entre as plataformas de TV e Web esse cenário passa a ser ainda mais problemático, uma vez que na Web já há um movimento em curso com o objetivo de tornar os sistemas interoperáveis e o formato de representação homogêneo. Neste cenário, este trabalho propõe uma infraestrutura para modelagem de conteúdo multimídia em TVDI baseada em conhecimento alinhado aos conceitos e padrões da Web Semântica, visando à integração entre as plataformas de TVDI e Web, aplicada ao middleware do padrão brasileiro, o Ginga.

  • JONATAS PEREIRA CABRAL DE ARAUJO
  • Date: Sep 23, 2011
  • Time: 00:00

  • THALLYS PEREIRA DE ALMEIDA
  • Segmentação de Imagens de Enxertos Ósseos Utilizando Watershed e K-Médias
  • Date: Sep 20, 2011
  • Time: 10:00
  • Show Summary
  • A aplicação de enxertos ósseos na recuperação de tecidos ósseos é uma área que vem sendo bastante estudada e está em constante evolução. Nos últimos anos, diversas técnicas de aplicação desses enxertos vêm sendo desenvolvidas. Com isso, surge a necessidade da criação de um método de análise automático, objetivo, imparcial e eficiente de avaliação dos resultados dessas técnicas. Diversas pesquisas utilizando segmentação de imagens vêm sendo realizadas nas mais diversas áreas. Entre elas, podemos citar a área médica, onde as segmentações podem ser aplicadas para delimitar na imagem regiões como tumores, células, glândulas, órgãos, tecidos celulares, entre outros. Diversos métodos de segmentação podem ser desenvolvidos especificamente para delimitar cada um desses elementos. Segmentações dessa natureza eram realizadas tradicionalmente de forma manual, ou então, tentava-se detectar os objetos na imagem de forma meramente visual, sem nenhum dado numérico que pudesse avaliar de forma precisa o tamanho ou as demais propriedades de estudo na imagem. Avaliações desse tipo acabam ficando sujeitas à interpretação de cada pesquisador, podendo trazer resultados imparciais e tendenciosos. Dessa forma, a utilização de um método computacional torna-se essencial para a realização deste tipo de análise. O presente trabalho apresenta um método de avaliação morfométrica para análise da neoformação óssea sobre enxertos ósseos aplicados a cobaias que receberam implantes de biomateriais. A técnica emprega a combinação entre os algoritmos de segmentação k-médias e watershed a fim de realizar uma segmentação baseada na cor representada pelo sistema L*a*b*. Para identificar a região que corresponde à neoformação óssea, foi realizada uma análise através do sistema de cores HSL. Diversos experimentos foram realizados com um grande número de imagens e foram obtidos resultados satisfatórios. O desempenho do método de segmentação sobre imagens de ossos de roedores foi bem avaliado por especialistas, que consideraram o processo eficiente e os resultados compatíveis aos obtidos por especialistas na área.

  • THALLYS PEREIRA DE ALMEIDA
  • Date: Sep 20, 2011
  • Time: 00:00

  • ADRIANA ESMERALDO DE OLIVEIRA
  • API DE SEGURANÇA E ARMAZENAMENTO DE UMA ARQUITETURA MULTIBIOMÉTRICA PARA CONTROLE DE ACESSO COM AUTENTICAÇÃO CONTÍNUA
  • Date: Sep 16, 2011
  • Time: 09:00
  • Show Summary
  •  

    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.
    Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.
    Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas é
    conhecido como um sistema multibiométrico.
    Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamento
    de uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidades
    biométricas.
    Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitir
    um acesso indevido. Como alternativa para este problema, a API utiliza um processo de
    autenticação contínua, que verifica se o usuário que se identificou no início de uma aplicação
    de software ainda está apto a continuar no sistema, sem interferências humanas ou paralisações
    do processo.
    Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de erro
    do sistema e na simplificação de equações. No entanto, também é importante que se tenha
    uma base sólida para progressos futuros no momento em que os processos e a arquitetura da
    nova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetada
    permitiu a construção de uma API bem definida para sistemas multibiométricos, que deverá
    auxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de forma
    a possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.
    Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquitetura
    multibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz de
    receber novas características e processos biométricos com facilidade, permitindo, ainda, o
    uso de um mecanismo de segurança de templates biométricos.
    A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicação
    protótipo, por meio da qual foi possível realizar os testes.

    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas éconhecido como um sistema multibiométrico.Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamentode uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidadesbiométricas.Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitirum acesso indevido. Como alternativa para este problema, a API utiliza um processo deautenticação contínua, que verifica se o usuário que se identificou no início de uma aplicaçãode software ainda está apto a continuar no sistema, sem interferências humanas ou paralisaçõesdo processo.Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de errodo sistema e na simplificação de equações. No entanto, também é importante que se tenhauma base sólida para progressos futuros no momento em que os processos e a arquitetura danova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetadapermitiu a construção de uma API bem definida para sistemas multibiométricos, que deveráauxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de formaa possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquiteturamultibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz dereceber novas características e processos biométricos com facilidade, permitindo, ainda, ouso de um mecanismo de segurança de templates biométricos.A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicaçãoprotótipo, por meio da qual foi possível realizar os testes.

     

  • ADRIANA ESMERALDO DE OLIVEIRA
  • API DE SEGURANÇA E ARMAZENAMENTO DE UMA ARQUITETURA MULTIBIOMÉTRICA PARA CONTROLE DE ACESSO COM AUTENTICAÇÃO CONTÍNUA
  • Date: Sep 16, 2011
  • Time: 09:00
  • Show Summary
  • Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.
    Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.
    Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas é
    conhecido como um sistema multibiométrico.
    Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamento
    de uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidades
    biométricas.
    Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitir
    um acesso indevido. Como alternativa para este problema, a API utiliza um processo de
    autenticação contínua, que verifica se o usuário que se identificou no início de uma aplicação
    de software ainda está apto a continuar no sistema, sem interferências humanas ou paralisações
    do processo.
    Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de erro
    do sistema e na simplificação de equações. No entanto, também é importante que se tenha
    uma base sólida para progressos futuros no momento em que os processos e a arquitetura da
    nova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetada
    permitiu a construção de uma API bem definida para sistemas multibiométricos, que deverá
    auxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de forma
    a possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.
    Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquitetura
    multibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz de
    receber novas características e processos biométricos com facilidade, permitindo, ainda, o
    uso de um mecanismo de segurança de templates biométricos.
    A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicação
    protótipo, por meio da qual foi possível realizar os testes.
    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas éconhecido como um sistema multibiométrico.Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamentode uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidadesbiométricas.Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitirum acesso indevido. Como alternativa para este problema, a API utiliza um processo deautenticação contínua, que verifica se o usuário que se identificou no início de uma aplicaçãode software ainda está apto a continuar no sistema, sem interferências humanas ou paralisaçõesdo processo.Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de errodo sistema e na simplificação de equações. No entanto, também é importante que se tenhauma base sólida para progressos futuros no momento em que os processos e a arquitetura danova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetadapermitiu a construção de uma API bem definida para sistemas multibiométricos, que deveráauxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de formaa possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquiteturamultibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz dereceber novas características e processos biométricos com facilidade, permitindo, ainda, ouso de um mecanismo de segurança de templates biométricos.A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicaçãoprotótipo, por meio da qual foi possível realizar os testes.

  • ADRIANA ESMERALDO DE OLIVEIRA
  • Date: Sep 16, 2011
  • Time: 00:00

  • RICARDO MENDES COSTA SEGUNDO
  • Athus: um framework para o desenvolvimento de jogos para TV Digital utilizando Ginga
  • Date: Sep 9, 2011
  • Time: 10:00
  • Show Summary
  • RESUMO

    O Ginga, middleware do Sistema Brasileiro de TV Digital, tem ganhado importância internacional, sendo adotado por diversos países da América do Sul e ao se tornar recomendação ITU para IPTV. Com isso, o sinal digital, irá ser recebido por mais televisores, levando vídeo de alta definição e áudio de alta qualidade aos telespectadores, como também a possibilidade de interagir com as aplicações televisivas. As possibilidades de interatividade destas aplicações são inúmeras: enquetes, acompanhamento de estatísticas em eventos esportivos, informações adicionais e complementares sobre novelas e seriados, entre outras. Dentre estas aplicações, um tipo que poderá tomar espaço são os jogos, os quais vêm ganhando destaque no mercado mundial em diversas plataformas. Eles possuem um caráter de entretenimento e desafio, variando de jogos simples, acessíveis a todos, a jogos mais complexos voltados a jogadores experientes. Criar uma ferramenta que auxilie no desenvolvimento de jogos para o Ginga se torna um passo importante para facilitar a produção de jogos que possam atingir milhões de pessoas não só no Brasil, mas em todos os países que adotarem o padrão brasileiro. Assim sendo, este trabalho apresenta o Athus, um framework de desenvolvimento de jogos voltado para a Televisão Digital. Para isto foi feito um estudo sobre os diversos aspectos dos jogos, tais como a indústria, formas de produção e categorias; e também, uma pesquisa acerca da produção dos jogos para a TV Digital no Brasil e no mundo. No decorrer do trabalho é mostrado como os jogos poderão ser utilizados sobre a plataforma Ginga, a construção e uso do framework e os resultados obtidos com sua utilização (jogos desenvolvidos e testes realizados com programadores).

  • ANDRE FELIPE PALMEIRA
  • Advisor : TATIANA AIRES TAVARES
  • Date: Sep 9, 2011
  • Time: 00:00

  • DIEGO SANTOS DE ANDRADE PIZZOL
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Sep 9, 2011
  • Time: 00:00

  • RICARDO MENDES COSTA SEGUNDO
  • Date: Sep 9, 2011
  • Time: 00:00

  • FABIANA FERREIRA DO NASCIMENTO
  • Advisor : ED PORTO BEZERRA
  • Date: Aug 22, 2011
  • Time: 00:00

  • THIAGO PEREIRA RIQUE
  • Advisor : ALVARO FRANCISCO DE CASTRO MEDEIROS
  • Date: Apr 29, 2011
  • Time: 00:00

  • HERBET FERREIRA RODRIGUES
  • Advisor : LILIANE DOS SANTOS MACHADO
  • Date: Mar 23, 2011
  • Time: 00:00

  • TALLES BRITO VIANA
  • Uma Técnica de Indexação de Dados Semi-Estruturados para o Processamento Eficiente de Consultas com Ramificação
  • Date: Mar 18, 2011
  • Time: 16:00
  • Show Summary
  • O surgimento de sistemas baseados na Web tem gerado uma vasta quantidade de fontes de
    documentos semi-estruturados, os quais necessitam ser indexados por sistemas de busca a fim
    de possibilitar a descoberta de documentos de acordo com necessidades de informação do
    usuário. Entretanto, um dos maiores desafios no desenvolvimento de técnicas de indexação
    para documentos semi-estruturados diz respeito a como indexar não somente o conteúdo
    textual, mas também a informação estrutural dos documentos. O principal problema está em
    prover suporte para consultas com ramificação sem introduzir fatores que causem perda de
    precisão aos resultados de pesquisa, bem como, o crescimento indesejado do tempo de
    processamento de consultas e dos tamanhos de índice. Várias técnicas de indexação para
    dados semi-estruturados são encontradas na literatura. Apesar das relevantes contribuições, as
    propostas existentes sofrem com problemas relacionados à perda de precisão, requisitos de
    armazenamento ou custos de processamento de consultas. Neste contexto, nesta dissertação é
    proposta uma técnica de indexação (denominada BranchGuide) para dados semi-estruturados
    que suporta uma bem definida classe de consultas com ramificação sem perda de precisão.
    Esta classe compreende caminhos com ramificação que permitem expressar dependências paifilho
    entre elementos nos quais podem ser impostas restrições sob os valores de atributos de
    tais elementos. Como evidenciado experimentalmente, a adoção da técnica BranchGuide gera
    excelentes tempos de processamento de consulta e tamanhos de índice menores do que os
    gerados por uma técnica de interseção estrutural.
    O surgimento de sistemas baseados na Web tem gerado uma vasta quantidade de fontes dedocumentos semi-estruturados, os quais necessitam ser indexados por sistemas de busca a fimde possibilitar a descoberta de documentos de acordo com necessidades de informação dousuário. Entretanto, um dos maiores desafios no desenvolvimento de técnicas de indexaçãopara documentos semi-estruturados diz respeito a como indexar não somente o conteúdotextual, mas também a informação estrutural dos documentos. O principal problema está emprover suporte para consultas com ramificação sem introduzir fatores que causem perda deprecisão aos resultados de pesquisa, bem como, o crescimento indesejado do tempo deprocessamento de consultas e dos tamanhos de índice. Várias técnicas de indexação paradados semi-estruturados são encontradas na literatura. Apesar das relevantes contribuições, aspropostas existentes sofrem com problemas relacionados à perda de precisão, requisitos dearmazenamento ou custos de processamento de consultas. Neste contexto, nesta dissertação éproposta uma técnica de indexação (denominada BranchGuide) para dados semi-estruturadosque suporta uma bem definida classe de consultas com ramificação sem perda de precisão.Esta classe compreende caminhos com ramificação que permitem expressar dependências paifilhoentre elementos nos quais podem ser impostas restrições sob os valores de atributos detais elementos. Como evidenciado experimentalmente, a adoção da técnica BranchGuide geraexcelentes tempos de processamento de consulta e tamanhos de índice menores do que osgerados por uma técnica de interseção estrutural.

  • TALLES BRITO VIANA
  • Date: Mar 18, 2011
  • Time: 00:00

  • AMILCAR SOARES JUNIOR
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Mar 4, 2011
  • Time: 00:00

  • AMILCAR SOARES JUNIOR
  • Date: Mar 4, 2011
  • Time: 00:00

  • RODRIGO DA CRUZ FUJIOKA
  • SCOLLAB CORE: A PROPOSTA DE UM FRAMEWORK PARA CONSTRUÇÃO DE APLICAÇÕES SOCIAIS
  • Date: Feb 28, 2011
  • Time: 10:00
  • Show Summary
  • PROPOSTA DE UM FRAMEWORK PARA CONSTRUÇÃO DE APLICAÇÕES SOCIAIS

  • NILTON HIDEKI TAKAGI
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Feb 28, 2011
  • Time: 00:00

  • RODRIGO DA CRUZ FUJIOKA
  • Date: Feb 28, 2011
  • Time: 00:00

  • THAIS ALVES BURITY PEREIRA
  • Advisor : GLEDSON ELIAS DA SILVEIRA
  • Date: Feb 28, 2011
  • Time: 00:00

  • WALBER JOSE ADRIANO SILVA
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Feb 8, 2011
  • Time: 00:00

  • EDUARDO PAZ SERAFIM
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Feb 7, 2011
  • Time: 00:00

  • RODRIGO CARTAXO MARQUES DUARTE
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Feb 7, 2011
  • Time: 00:00

2010
Description
  • HUMBERTO RABELO
  • Desenvolvimento de uma Estratégia para Obtenção do Perfil Intelectual do Educando Baseada na Teoria das Inteligências Múltiplas para o EDULIVRE
  • Date: Dec 20, 2010
  • Time: 09:00
  • Show Summary
  • Este trabalho descreve o Ambiente Virtual de Aprendizagem (AVA) desenvolvido para o Projeto Tecnologias Educacionais Criativas Livres (EDULIVRE), trabalho que vem sendo realizado por pesquisadores das Areas de Informatica e de Educacao, no Laboratorio de Aplicacoes de Video Digital (LAVID), da Universidade Federal da Paraiba. Uma estrategia e apresentada e implementada na forma de funcionalidade, que possibilita sem o preenchimento de questionarios, mas de forma totalmente transparente e implicita ao usuario, que seja possivel durante a utilizacao do ambiente, identificar e extrair perfis individuais intelectuais do educando, pautado na teoria das inteligencias multiplas proposta por Howard Gardner.
  • FELIPE SOARES DE OLIVEIRA
  • Advisor : GUIDO LEMOS DE SOUZA FILHO
  • Date: Dec 20, 2010
  • Time: 00:00

  • HUMBERTO RABELO
  • Date: Dec 20, 2010
  • Time: 00:00

  • ERICK AUGUSTO GOMES DE MELO
  • Date: Nov 5, 2010
  • Time: 00:00

  • TATIANE CRUZ DE SOUZA HONORIO
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Aug 31, 2010
  • Time: 00:00

  • ELTON DA NOBREGA MASCENA
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Aug 30, 2010
  • Time: 00:00

  • MARCELO FERNANDES DE SOUSA
  • Advisor : ED PORTO BEZERRA
  • Date: Aug 30, 2010
  • Time: 00:00

  • ALYSSON DINIZ DOS SANTOS
  • Advisor : RONEI MARCOS DE MORAES
  • Date: Aug 27, 2010
  • Time: 00:00

  • CAIO REGIS CAROCA
  • Advisor : TATIANA AIRES TAVARES
  • Date: Aug 27, 2010
  • Time: 00:00

  • LAMARK DOS SANTOS RIBEIRO
  • Advisor : VALERIA GONCALVES SOARES
  • Date: Aug 27, 2010
  • Time: 00:00

  • YURI MORAIS BEZERRA
  • Advisor : GLEDSON ELIAS DA SILVEIRA
  • Date: Aug 16, 2010
  • Time: 00:00

  • KLEBBER DE ARAUJO PEDROSA
  • Advisor : VALERIA GONCALVES SOARES
  • Date: Aug 10, 2010
  • Time: 00:00

  • RAFAEL ROSSI DE MELLO BRANDAO
  • LUATV: UMA API PARA EXTENSÃO DE APLICAÇÕES NO AMBIENTE GINGA-NCL
  • Date: Aug 3, 2010
  • Time: 10:00
  • Show Summary
  •  

    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.
    As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

  • CLAUDIA ROSSANA CUNHA
  • Metaheurística Híbrida GRASP e Busca Tabu Aplicada ao Problema de Escalonamento de Tarefas
  • Date: Jul 16, 2010
  • Time: 16:00
  • Show Summary
  • Este trabalho aborda o problema de escalonamento de tarefas (Job Shop Scheduling) através da combinação das metaheurísticas GRASP e Busca Tabu. O estudo consiste em utilizar o GRASP na fase de construção da solução inicial, sugerindo, para tanto, um procedimento específico baseado no algoritmo de Coffman Gramah. Tal procedimento foi o grande diferencial deste trabalho, visto que oferece uma solução inicial qualitativamente superior, permitindo a redução do tempo de busca local, onde foi utilizada a metaheurística Busca Tabu, a qual demonstrou proporcionar melhores resultados, comparando-se com outras metaheurísticas que seguem a mesma base estrutural. A combinação GRASP e Busca Tabu foi avaliada sob duas implementações diferenciadas, sendo uma com a Busca Tabu em sua forma mais simplificada e outra com a Busca Tabu desenvolvendo um processo de busca otimizada — com o auxílio de um modelo matemático —, a qual demonstrou grandes progressos quanto ao tempo de processamento e a obtenção de resultados. Os resultados computacionais obtidos, quando comparados com os existentes na literatura, mostraram que a combinação GRASP e Busca Tabu é capaz de produzir boas soluções.

    .

  • CLAUDIA ROSSANA CUNHA
  • Date: Jul 16, 2010
  • Time: 00:00

  • BRUNO RAFAEL DE ARAUJO SALES
  • Advisor : LILIANE DOS SANTOS MACHADO
  • Date: Jul 12, 2010
  • Time: 00:00

  • DANIEL FAUSTINO LACERDA DE SOUZA
  • Advisor : TATIANA AIRES TAVARES
  • Date: Jul 5, 2010
  • Time: 00:00

  • FERNANDA PAULINELLI RODRIGUES SILVA
  • Advisor : TATIANA AIRES TAVARES
  • Date: Jul 5, 2010
  • Time: 00:00

  • JOSE RAPHAEL TEIXEIRA MARQUES
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Apr 30, 2010
  • Time: 00:00

  • DANIEL CHARLES FERREIRA PORTO
  • Advisor : GLEDSON ELIAS DA SILVEIRA
  • Date: Mar 26, 2010
  • Time: 00:00

  • TIAGO DIAS CARVALHO DO NASCIMENTO
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Mar 26, 2010
  • Time: 00:00

  • GUSTAVO REZENDE CARVALHO
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Mar 5, 2010
  • Time: 00:00

  • JERRY LEE ALVES DOS SANTOS
  • Advisor : JOSE ANTONIO GOMES DE LIMA
  • Date: Mar 5, 2010
  • Time: 00:00

  • LEONARDO MEDEIROS
  • Advisor : ANTONIO CARLOS CAVALCANTI
  • Date: Mar 4, 2010
  • Time: 00:00

  • THYAGO MAIA TAVARES DE FARIAS
  • Advisor : JOSE ANTONIO GOMES DE LIMA
  • Date: Mar 4, 2010
  • Time: 00:00

  • FRANCISCO DANTAS NOBRE NETO
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Jan 19, 2010
  • Time: 00:00

2009
Description
  • JOSE TEIXEIRA DE CARVALHO NETO
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Dec 14, 2009
  • Time: 00:00

  • THIAGO GOUVEIA DA SILVA
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Aug 28, 2009
  • Time: 00:00

  • DERZU OMAIA
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Aug 27, 2009
  • Time: 00:00

  • FERNANDO AUGUSTO FERREIRA LORDAO
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Aug 27, 2009
  • Time: 00:00

  • ANDRE LIRA ROLIM
  • Advisor : ED PORTO BEZERRA
  • Date: Aug 13, 2009
  • Time: 00:00

  • JOSE RITOMAR CARNEIRO TORQUATO
  • Advisor : ED PORTO BEZERRA
  • Date: Aug 13, 2009
  • Time: 00:00

  • ROBERTA BRITO NUNES DINIZ
  • Advisor : VALERIA GONCALVES SOARES
  • Date: Jun 26, 2009
  • Time: 00:00

  • ROBERTA MACEDO MARQUES GOUVEIA
  • Advisor : VALERIA GONCALVES SOARES
  • Date: May 29, 2009
  • Time: 00:00

  • THIAGO CURVELO DOS ANJOS
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Apr 3, 2009
  • Time: 00:00

  • EUDISLEY GOMES DOS ANJOS
  • Advisor : JOSE ANTONIO GOMES DE LIMA
  • Date: Mar 27, 2009
  • Time: 00:00

  • REGINALDO TAVARES VIRGINIO FILHO
  • Advisor : LILIANE DOS SANTOS MACHADO
  • Date: Feb 20, 2009
  • Time: 00:00

  • GEDVAN PEREIRA DIAS
  • Advisor : RONEI MARCOS DE MORAES
  • Date: Feb 18, 2009
  • Time: 00:00

  • TIAGO MARITAN UGULINO DE ARAUJO
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Feb 6, 2009
  • Time: 00:00

2008
Description
  • BRUNO CESAR BARRETO DE FIGUEIREDO
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Sep 12, 2008
  • Time: 00:00

  • THAISE KELLY DE LIMA COSTA
  • Advisor : LILIANE DOS SANTOS MACHADO
  • Date: Sep 5, 2008
  • Time: 00:00

  • JOAO PAULO FREITAS DE OLIVEIRA
  • Advisor : GLEDSON ELIAS DA SILVEIRA
  • Date: Sep 1, 2008
  • Time: 00:00

  • MATEUS NOVAES SANTOS
  • Advisor : GLEDSON ELIAS DA SILVEIRA
  • Date: Sep 1, 2008
  • Time: 00:00

  • MARCO A V M DE VASCONCELOS
  • Date: Aug 22, 2008
  • Time: 00:00

  • CARLOS ALBERTO NUNES MACHADO
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Aug 14, 2008
  • Time: 00:00

  • LUDMILA DE ALMEIDA PEDROSA
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Aug 13, 2008
  • Time: 00:00

  • SINDOLFO LUIZ DE MIRANDA F FILHO
  • Advisor : GUIDO LEMOS DE SOUZA FILHO
  • Date: Aug 12, 2008
  • Time: 00:00

  • LINCOLN DAVID NERY E SILVA
  • Uma Proposta de API para Desenvolvimento de Aplicações Multiusuário e Multidispositivo para TV Digital Utilizando o Middleware Ginga.
  • Date: Aug 8, 2008
  • Time: 10:00
  • Show Summary
  • O avanço das aplicações de TV Digital Interativa não ocorre na mesma velocidade que as aplicações para WEB ou Desktop. Tal fato se deve tanto por limitações encontradas no hardware e no middleware no qual as aplicações são executadas, quanto pela limitação do dispositivo usado na interação dos usuários com a TV. No panorama nacional, a especificação do middleware Ginga permite a incorporação de novas funcionalidades através da API de Integração de Dispositivos, alvo desse trabalho. Esta API que permite que aplicações de TVDI usem dispositivos móveis tanto como meio de interação, como para compartilhamento de seus recursos multimídia. Como resultado do uso da API proposta, as aplicações de TVDI passam a contar com novas possibilidades até então não disponíveis nos middlewares de TV Digital existentes; como a utilização de mais de um dispositivo simultaneamente, o suporte ao desenvolvimento de aplicações multiusuário e o acesso a recursos de captura de mídias contínuas disponíveis em aparelhos como celulares, que podem ser integrados aos aparelhos de TV. A API resultante desse trabalho foi implementada e utilizada no desenvolvimento de aplicações para TVDI voltadas a explorar os novos recursos avançados disponíveis.
  • LINCOLN DAVID NERY E SILVA
  • Date: Aug 8, 2008
  • Time: 00:00

  • CARLOS EDUARDO SILVEIRA DIAS
  • Advisor : GUIDO LEMOS DE SOUZA FILHO
  • Date: Aug 1, 2008
  • Time: 00:00

  • FABRIZIA MEDEIROS DE SOUSA MATOS
  • Advisor : LEONARDO VIDAL BATISTA
  • Date: Jul 9, 2008
  • Time: 00:00

  • PAULO CESAR DE HOLANDA FURTADO
  • Advisor : RONEI MARCOS DE MORAES
  • Date: Jun 27, 2008
  • Time: 00:00

  • MARIA DAS GRACAS COSTA NERY DA SILVA
  • Advisor : ED PORTO BEZERRA
  • Date: Jun 19, 2008
  • Time: 00:00

  • BRUNO JEFFERSON DE SOUSA PESSOA
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: May 21, 2008
  • Time: 00:00

  • JEFFERSON FERREIRA DE ARAUJO LIMA
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: May 21, 2008
  • Time: 00:00

  • ANDRE RICARDO CIRAULO DE SOUZA
  • Advisor : JOSE ANTONIO GOMES DE LIMA
  • Date: Apr 2, 2008
  • Time: 00:00

  • MOAB MARIZ MEIRA
  • Classificação de Texturas usando o Algoritmo Lempel- Ziv-Welch
  • Date: Feb 29, 2008
  • Time: 15:00
  • Show Summary
  • Este trabalho apresenta um novo e eficiente método de classificação de
    texturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW).
    Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontal
    e vertical de cada classe de textura. Na fase de classificação, amostras de texturas
    são codificadas com o LZW no modo estático, usando os dicionários construídos
    na fase anterior. Uma amostra é associada à classe cujo dicionário conduz à
    melhor taxa de codificação. O classificador foi avaliado para vários tamanhos do
    conjunto de treinamento e das amostras de treinamento, e sob diferentes condições
    de iluminação das texturas. O método proposto atinge 100% de acerto em alguns
    experimentos usando amostras de texturas do álbum Brodatz. Comparações diretas
    com outros trabalhos indicam a superioridade do método sobre outros métodos
    de alto desempenho.
    Este trabalho apresenta um novo e eficiente método de classificação detexturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW).Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontale vertical de cada classe de textura. Na fase de classificação, amostras de texturassão codificadas com o LZW no modo estático, usando os dicionários construídosna fase anterior. Uma amostra é associada à classe cujo dicionário conduz àmelhor taxa de codificação. O classificador foi avaliado para vários tamanhos doconjunto de treinamento e das amostras de treinamento, e sob diferentes condiçõesde iluminação das texturas. O método proposto atinge 100% de acerto em algunsexperimentos usando amostras de texturas do álbum Brodatz. Comparações diretascom outros trabalhos indicam a superioridade do método sobre outros métodosde alto desempenho.

  • CARLOS EDUARDO COELHO FREIRE BATISTA
  • TVGRID - Computação em Grid em Rede de TV Digital
  • Date: Feb 29, 2008
  • Time: 10:00
  • Show Summary
  • TVGRID - Computação em Grid em Rede de TV Digital

  • ANDRE MARINHO ARAUJO
  • Advisor : ANTONIO CARLOS CAVALCANTI
  • Date: Feb 29, 2008
  • Time: 00:00

  • CARLOS EDUARDO COELHO FREIRE BATISTA
  • Date: Feb 29, 2008
  • Time: 00:00

  • CHRISTHINY FERNANDA MASIERO SANSON
  • Advisor : ANTONIO CARLOS CAVALCANTI
  • Date: Feb 29, 2008
  • Time: 00:00

  • FRANCISCO DAS CHAGAS ROCHA
  • Advisor : ED PORTO BEZERRA
  • Date: Feb 29, 2008
  • Time: 00:00

  • MOAB MARIZ MEIRA
  • Date: Feb 29, 2008
  • Time: 00:00

  • EDNALDO MARIANO VASCONCELOS DE LIMA
  • Advisor : ANTONIO CARLOS CAVALCANTI
  • Date: Feb 28, 2008
  • Time: 00:00

  • GILBERTO FARIAS DE SOUSA FILHO
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Feb 28, 2008
  • Time: 00:00

2007
Description
  • TIAGO LIMA SALMITO
  • DISCO VIRTUAL NACIONAL - Uma ferramenta de armazenamento distribuído de dados
  • Date: May 30, 2007
  • Time: 10:00
  • Show Summary
  •  

    Serviços de telerradiologia têm se tornado populares, principalmente por seu
    potencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade na
    prestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, este
    potencial traz desafios elevados: o grande volume de dados, característico dos
    exames de imagens, e os requisitos de segurança que visam garantir a sua
    confidencialidade e integridade. Além disso, questões éticas envolvem o modelo
    dominante no mercado, em que este serviço é prestado por empresas terceirizadas, e
    não diretamente pelos profissionais radiologistas. Assim, este trabalho propõe um
    modelo distribuído e cooperativo, através do qual os profissionais de saúde podem
    interagir diretamente com os hospitais que prestam os cuidados ao paciente. Focouse,
    ainda, em suprir as principais deficiências presentes em soluções consagradas,
    mais precisamente no que diz respeito aos requisitos de segurança, de comunicação
    assíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordagem
    investigativa sobre os mecanismos utilizados nas principais soluções foi realizada, de
    maneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelo
    de Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram a
    base inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões,
    a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas
    (VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS,
    protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boas
    práticas de criptografia, além de outros padrões de segurança e de
    interoperabilidade. Um protótipo foi desenvolvido e está em fase de testes e
    avaliação por médicos radiologistas situados em cidades no interior dos estados do
    Ceará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipo
    tem permitido aos médicos radiologistas emitirem laudos, diariamente, de exames
    de tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até que
    um especialista pudesse deslocar-se até a cidade para produzi-lo.

    Serviços de telerradiologia têm se tornado populares, principalmente por seupotencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade naprestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, estepotencial traz desafios elevados: o grande volume de dados, característico dosexames de imagens, e os requisitos de segurança que visam garantir a suaconfidencialidade e integridade. Além disso, questões éticas envolvem o modelodominante no mercado, em que este serviço é prestado por empresas terceirizadas, enão diretamente pelos profissionais radiologistas. Assim, este trabalho propõe ummodelo distribuído e cooperativo, através do qual os profissionais de saúde podeminteragir diretamente com os hospitais que prestam os cuidados ao paciente. Focouse,ainda, em suprir as principais deficiências presentes em soluções consagradas,mais precisamente no que diz respeito aos requisitos de segurança, de comunicaçãoassíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordageminvestigativa sobre os mecanismos utilizados nas principais soluções foi realizada, demaneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelode Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram abase inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões,a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas(VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS,protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boaspráticas de criptografia, além de outros padrões de segurança e deinteroperabilidade. Um protótipo foi desenvolvido e está em fase de testes eavaliação por médicos radiologistas situados em cidades no interior dos estados doCeará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipotem permitido aos médicos radiologistas emitirem laudos, diariamente, de examesde tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até queum especialista pudesse deslocar-se até a cidade para produzi-lo.

     

2006
Description
  • RICARDO HENRIQUE CORREIA ATANASIO
  • Advisor : ED PORTO BEZERRA
  • Date: Dec 21, 2006
  • Time: 00:00

  • Zenon Farias Braga Filho
  • Advisor : ALVARO FRANCISCO DE CASTRO MEDEIROS
  • Date: Dec 19, 2006
  • Time: 00:00

  • DANIEL NUNES LIRA BARBOSA
  • Advisor : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Date: Dec 18, 2006
  • Time: 00:00

  • RODRIGO GALVAO LOURENCO DA SILVA
  • Advisor : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Date: Dec 13, 2006
  • Time: 00:00

  • WILLIAMS FERREIRA DA SILVA
  • Advisor : ANTONIO CARLOS CAVALCANTI
  • Date: Nov 17, 2006
  • Time: 00:00