Bacharelado em Sistemas de Informação - DCET1
URI Permanente para esta coleção
Navegar
Navegando Bacharelado em Sistemas de Informação - DCET1 por Título
Agora exibindo 1 - 20 de 141
Resultados por página
Opções de Ordenação
- ItemA internet sem barreiras: recomendação de um navegador com usabilidade para os alunos da UATI-UNEB a partir de avaliações heurísticas(UNEB, 2018-07-06) Conceição, Marcos Vinícius Santiago; Chaves, Débora Alcina Rêgo; Souza, Leandro Santos Coelho de; Mármori, AdrianaO presente estudo avalia a usabilidade nos navegadores web. A partir de avaliações heurísticas e técnicas de usabilidade, deve apresentar um navegador que facilite o acesso à internet por parte de pessoas com necessidades especiais, considerando que independente de suas dificuldades todas devem ter as mesmas facilidades de navegação. Os navegadores atuais não são desenvolvidos com o foco no usuário final, o que dificulta o uso para uma parcela desses usuários, em especial os(as) alunos(as) idosos(as) da UATI-UNEB.
- ItemA utilização do Arduino como ferramenta de baixo custo para experimentos didáticos de física: dissipação de calor.(Universidade do Estado da Bahia, 2021-07-12) Cruz, Tamires Farias; Amorim, Cláudio Alves de; Souza, Leandro Santos Coelho de; Suárez, Diego Gervasio FríasEste trabalho apresenta um estudo realizado com o objetivo de desenvolver e validar um ambiente aberto (software e hardware) para experimento didático de Física, utilizando como instrumentação de prototipagem eletrônica a plataforma Arduino. Como prova de conceito para esse ambiente aberto e automatizado, foi proposto um experimento didático na área de Termodinâmica, especificamente de dissipação de calor. O uso do aparato experimental proposto, buscou intermediar o processo de obtenção de conhecimento, aliando a teoria e a prática e o processamento computacional de aquisição das grandezas físicas medidas. A intenção foi que esse ambiente fosse capaz de minimizar a preocupação com o monitoramento do experimento e registro dos dados, automatizando essas tarefas. A fim de validar a utilidade do ambiente, foram realizados experimentos para analisar o calor dissipado pelo componente eletrônico transistor. O desenvolvimento do ambiente seguiu as etapas de: construção do circuito eletrônico, implementação de sistema de monitoramento executado no Arduino e, por fim, implementação de sistema de gerenciamento, codificado na linguagem Python. Após a análise dos resultados obtidos, constatou-se que o objetivo do trabalho foi alcançado, uma vez que o ambiente de hardware e software apresentou eficiência do ponto de vista didático, fornecendo dados concisos sobre o experimento em questão e incentivando um olhar investigativo e crítico sobre o fenômeno físico estudado.
- ItemÁgua: ferramenta computacional para estudo da evolução de espécies virais baseado no uso de códons(Universidade do Estado da Bahia, 2023-07-12) Menezes, Mauricio Souza; Suárez, Diego Gervasio Frías; Fonseca, Vagner; Lenz, Alexandre Rafael; Restovic, Maria Ines ValderramaEste trabalho teve como objetivo principal o desenvolvimento de um modelo para a análise de genomas virais, baseado no uso de códons. Essa ferramenta se propõe a ser um recurso significativo para a investigação da evolução de espécies, empregando sequências genômicas do SARS-COV-2 como base desse estudo. A implementação desse modelo visa proporcionar maior eficiência computacional aprimorada e alcançar resultados mais precisos. Adicionalmente, a ferramenta será capaz de apresentar visualizações gráficas dos resultados obtidos, simplificando a interpretação dos dados e auxiliando na tomada de decisões científicas. Espera-se que essa abordagem proporcione insights valiosos sobre a evolução de espécies virais, contribuindo para o avanço da virologia e da genômica comparativa. Os resultados obtidos foram considerados satisfatórios, tendo em vista que o modelo teve sua implementação concluída de forma satisfatória, atendendo a todos os objetivos especificados
- ItemAI+RTESTING: remoção de redundâncias de conjuntos de casos de teste a partir de dados de execução do teste de mutação(UNEB, 2018-07-06) Santos, Eder Pereira dos; Lenz, Alexandre Rafael; Jorge, Eduardo Manuel de Freitas; Massa, Mônica de SouzaUm software evolui ao longo do tempo de vida, essa evolução acontece através da adição de novos requisitos ou realização de manutenções. No sentido de evitar a introdução de defeitos em decorrência de alterações no software é utilizado o Teste de Regressão. A atividade de Teste de Regressão consome um tempo considerável do total do desenvolvimento do software, aumentando o seu custo. Um dos fatores determinantes para o custo são as atividades executadas manualmente. Para contornar esse problema e apoiar a atividade de teste de regressão, muitas metodologias têm sido propostas visando reduzir o tempo despendido na atividade. Muitas dessas metodologias utilizam técnicas de aprendizado de máquina, as quais relacionam as informações coletadas durante a atividade de teste para identificação de casos de teste com comportamentos similares. Essas técnicas comumente permitem a geração de regras que podem ser aplicadas para a redução do conjunto de casos de teste. A redução é capaz de diminuir significativamente o tempo do teste de regressão, pois exclui permanentemente os casos de teste redundantes. O objetivo deste trabalho consiste em aplicar a metodologia proposta no projeto de pesquisa AI+RTesting definida pelo professor Alexandre Rafael Lenz para apoiar a redução do conjunto de casos de teste, a partir da implementação de uma ferramenta que automatize esse processo para programas escritos na linguagem Java em nível de método, ou seja, cobrindo o teste de unidade, com intuito de reduzir o tempo gasto na atividade de teste de regressão. A nova ferramenta integra o teste estrutural apoiado com a ferramenta Jabuti e o teste baseada em erros apoiado pela ferramenta Mujava. Junto com a API WEKA, adicionada a nova ferramenta para gerar os agrupamentos que possibilitam a aplicação de algoritmos de classificação para geração de regras, permitindo classificar as classes de equivalência em ordem de prioridade. Os resultados obtidos com os experimentos realizados na fase de validação demonstraram que o método baseado em PG é capaz de remover redundâncias, mostrando maior eficiência em programas mais simples, como observado quando aplicado no método MDC. Em comparação a programas mais complexos, que é o caso do segundo método testado, os resultados apresentados, demonstram que o método baseado em PG não consegue realizar a remoção de forma eficiente, devido a quantidade elevada de redundâncias encontradas. Para atingir resultados mais precisos, sugere-se a definição de uma metodologia que consiga realizar uma redução mais significativa que a apresentada utilizando a progressão geométrica, assim como a utilização de informações coletadas durante a atividade do teste estrutural devido à complementariedade das técnicas de teste de software.
- ItemAI+RTESTING: um método para remoção de redundâncias de conjuntos de casos de teste integrando as ferramentas jabuti, mujava e weka(UNEB, 2018-07-06) Souza, Ana Cecília Santos; Lenz, Alexandre Rafael; Massa, Mônica de SouzaA execução do teste de regressão é imprescindível para garantir que adições e alterações realizadas em um software não introduzam erros em funcionalidades já existentes. Consequentemente, o teste de regressão é uma atividade dispendiosa e executada com frequência. Em vista disso, metodologias foram propostas para reduzir o esforço empregado na execução dessa técnica de teste, dentre essas metodologias encontra-se a redução de casos de testes. A redução consiste na remoção permanente de casos de testes redundantes do conjunto casos de testes original. Com intuito de auxiliar na identificação desses casos de teste redundantes, podem ser aplicados algoritmos de aprendizado de máquina. Através dos quais é possível associar as informações obtidas durante a atividade de teste para detectar comportamentos análogos. Assim sendo, o objetivo desse trabalho foi a análise, implementação e validação de um método automatizado para remoção de redundâncias em um conjunto de casos de teste que tem por finalidade a redução do esforço dispendido pelo testador durante a execução do teste de regressão em métodos implementados na linguagem Java. A automação consistiu em coletar as informações da atividade de teste fornecidas pela integração das ferramentas de teste Jabuti e Mujava. Subsequentemente, esse dados foram submetidos aos algoritmos de agrupamento e classificação disponíveis no pacote de software Weka. Com a obtenção das classes de equivalências que foram geradas através das regras de classificação, foi aplicado o cálculo da Progressão Aritmética (PA) para selecionar os casos dos teste que devem ser removidos do conjunto de teste a ser reexecutado. Após a realização dos experimentos de validação, foi possível concluir através dos resultados obtidos que o método automático conseguiu remover as redundâncias atingindo o mesmo valor dos critérios estruturais e escore de mutação do conjunto de casos de teste original.
- ItemAI+RTESTING_um método de seleção e de priorização para apoiar o teste de regressão utilizando aprendizado de máquina(Universidade do Estado da Bahia, 2017-07-07) Cristo, Thamires Asenate Botelho de; Lenz, Alexandre Rafael; Jorge, Eduardo Manuel de Freitas; Souza, Mônica Massa deO teste de regressão é fundamental para testar alterações efetuadas durante a fase de manutenção do software e verificar se estas não introduziram defeitos em partes que antes funcionavam corretamente. Devido ao custo e ao tempo despendido para esta atividade, metodologias têm sido propostas para reduzir os esforços e aumentar a eficácia de sua execução. As técnicas de Aprendizado de Máquina podem ser utilizadas para associar as informações coletadas na atividade de teste para identificar casos de teste que possuam comportamentos semelhantes e gerar regras de classificação que podem ser aplicadas para seleção e priorização de casos de teste. A seleção e a priorização de casos de teste podem reduzir significativamente o tempo do teste de regressão e aumentar a probabilidade de detectar erros mais rapidamente. Diante disso, este trabalho tem como objetivo implementar um método de seleção e de priorização, com o propósito de reduzir o tempo gasto na atividade de teste de regressão de métodos implementados na linguagem Java, garantindo a cobertura dos critérios de teste. As ferramentas Jabuti (teste estrutural) e Mujava (teste baseado em erros) foram integradas para que os dados de execução sejam agrupados e submetidos a algoritmos de agrupamento, acionados a partir da API da ferramenta Weka integrada ao projeto com o propósito de encontrar comportamentos semelhantes entre os casos de teste e posteriormente aplicar um algoritmo de classificação, a fim de gerar regras a serem utilizadas na seleção e priorização do conjunto de casos de teste. Os resultados obtidos com os experimentos realizados na fase de validação demonstram que mesmo selecionando apenas 60% dos casos de teste do conjunto original, a redução na cobertura dos critérios de teste permaneceu elevada. No entanto, para obtenção de resultados mais precisos, sugere-se a integração ao processo automatizado da metodologia, a reexecução dos novos conjuntos de casos de teste obtidos no processo de validação
- ItemAnálise comparativa de containers para ferramentas de alinhamento de bioinformática(Universidade do Estado da Bahia, 2023-12-14) Britto, Murilo Batista Improta; Restovic, Maria Ines Valderrama; Atta, Antônio Carlos Fontes; Mascarenhas, Ana Patrícia Fontes MagalhãesÀ medida que o poder computacional aumenta e se torna mais acessível, a era da bioinformática acelera a nossa capacidade de entender e enfrentar os desafios que o grande volume de dados gerados por áreas como genética e epidemiologia impõem. Várias promessas já estão surgindo, afinal a bioinformática é um campo extremamente vasto que combina diversas áreas como matemática, estatística, ciência da computação e biologia para a condução de análises de dados. No entanto nota-se uma carência muito grande de estudos comparativos entre ambientes de virtualização para ferramentas de bioinformática. Este trabalho tem como proposta um estudo analítico entre as principais ferramentas de containers da atualidade e como as ferramentas de alinhamento de alto nível de processamento impactam sobre esses ambientes. Foram comparados os containers docker e singularity com base nas métricas de tempo de execução, máximo de utilização de recursos por núcleo de cpu, média de utilização por núcleo de cpu e, gasto médio de memória do sistema durante o período de execução das ferramentas. Concluiu-se com este trabalho que ambos os containers possuem diferenças mínimas mas que, não alteram os resultados de maneira significativa, correspondendo a menos de um porcento, sendo as maiores diferenças registradas, entre os algoritmos escolhidos entre as ferramentas de alinhamento.
- ItemAnálise comparativa de soluções em software da gerência de projetos e sua aderência ao guia do PMI(UNEB, 2016-06-06) Martins, Marlena Mota ; Mascarenhas, Ana Patrícia Fontes Magalhães; Cerqueira, Antônio Marcos Brito de; Oliveira, Cristiane Magalhães deDurante muitos anos o desenvolvimento de produtos e serviços de tecnologia foram realizados de maneira ad-hoc, sem a utilização de técnicas que pudessem nortear esse desenvolvimento. Como consequência, eram gerados softwares que não atendiam às expectativas dos clientes e que ultrapassavam os limites de custo e prazo inicialmente planejados. Para contribuir na melhora desse cenário, a gerência de projetos está inserida buscando equilibrar, planejar, organizar e administrar objetivos específicos com prazo, custo e qualidade determinados, para satisfazer os envolvidos no projeto. Desta forma, aplica instrumentos, capacidades, conhecimentos e técnicas de modo a atender os requisitos do projeto. Particularmente, este trabalho utiliza o PMBOK, um guia de boas práticas proposto pelo PMI, já conhecido e validado, que visa normalizar conhecimentos, técnicas e termos amplamente utilizados na Gerência de Projetos. O PMBOK compreende 47 processos, que se complementam para compor o que chamamos de ciclo do projeto. Em apoio a execução desses processos, ferramentas diversas foram propostas ao longo dos anos. Contudo, escolher a ferramenta mais adequada ao projeto é um processo penoso e conta com muito tempo dedicado ao estudo e aperfeiçoamento no uso da ferramenta, além do risco da ferramenta não corresponder ao que é necessário ao projeto. Esta monografia apresenta uma análise comparativa de soluções em software da área de gerência de projetos e objetiva fundamentar a escolha da ferramenta mais adequada ao tipo de projeto proposto, minimizando os riscos e o impacto causado pelo tempo gasto pelos gerentes na escolha da melhor ferramenta. A análise foi conduzida através de uma avaliação quantitativa com o estudo e uso contínuo de algumas ferramentas, julgadas segundo sua aderência aos processos do guia PMBOK. Para complementar, foi realizada uma análise qualitativa com base em um questionário aplicado à gerentes de projeto experientes, com o objetivo de adicionar uma visão especialista a pesquisa. Os resultados apontaram uma significativa discrepância na quantidade de usuários dos softwares escolhidos. Apontaram também, que há ferramentas mais genéricas que cumprem um número maior de processos e há ferramentas mais específicas que, apesar de cumprirem um número mais limitado de processos o fazem com melhor desempenho. Os resultados deste trabalho foram aplicados ao mundo real, em um aplicativo mobile desenvolvido na plataforma Android chamado Keindike SWGP.
- ItemAnálise comparativa do desempenho de técnicas de data mining com atríbutos mistos sob uma base de dados epdemiológica(Universidade do Estado da Bahia, 2020-03-19) Conceição, Fábio Ramos da Silva; Restovic, Maria Ines Valderrama; Suárez, Diego Gervasio Frías; Araujo, Murilo Freire OliveiraA maioria dos algoritmos não conseguem trabalhar com Datasets de tipo misto. Esse problema perpassa um contexto, ao qual a massiva produção de dados é nutrida de muitas informações, a quais são definidas por dados tanto numéricos quanto categóricos. Essa realidade induz às técnicas de mineração a realizar a conversão para um único tipo de dado, o problema desta conversão remete a perda de sua consistência. A fim de propor algoritmos consistentes e bem avaliados, este trabalho tem por objetivo analisar o desempenho de algoritmos de mineração para o tratamento de dados mistos utilizando uma base de dados de epidemiologia molecular. Dessa forma, será possível eleger qual técnica apresentou o melhor desempenho. No desenvolvimento da pesquisa foram implementados três algoritmos com base nas fundamentações teóricas fornecidas pelos autores Huang (1997) e Cao et al. (2012). Além disso, realizou-se todo o processo de tratamento de dados respaldado pelo processo de descoberta de conhecimento nas bases de dados descritos por Camilo e Silva (2009). O procedimento de análise do desempenho dos algoritmos foi feito com base na aplicação de três métricas avaliativas que foram citadas por Szepannek (2019), sendo elas: Índice de Jaccard, F-Measure e Índice de Rand Ajustado
- ItemAnálise Comparativa Entre Bancos de Dados Cloudera NoSQL e MySQL Cluster para SQL(UNEB, 2014-12-20) Carneiro, Osias Guimarães; Jorge, Eduardo Manuel de Freitas; Jorge, Eduardo Manuel de FreitasCom o crescimento rápido da produção de dados nas empresas e em dispositivos domésticos, tais como smartphones e computadores pessoais, torna-se cada vez mais difícil conseguir poder computacional para processar essa grande quantidade de informações. Uma das soluções adotadas é o paralelismo no processamento, com ela tal poder é possível ser obtido a um custo menor do que usar apenas uma máquina com muito processamento. As aplicações que utilizam o modelo de banco de dados mais usado (o modelo relacional, utilizando a linguagem SQL) não operam muito bem com uma quantidade de nós numerando em mais de centenas, as falhas começam a se tornar muito frequentes. Pensando nesse tipo de cenário tem surgido uma nova plataforma para gerir grandes quantidades de informações, a plataforma NoSQL juntamente das soluções de Big Data. Esta pesquisa visa analisar as arqui teturas do banco de dados Cloudera que utiliza como tecnologia o modelo NoSQL e MySQL Cluster que define o SQL como linguagem padrão, levantar os prós e contras de se usar cada técnica e implantar um protótipo a fim de analisar na prática as questões levantadas, gerando uma tabela-resumo com os resultados.
- ItemAnálise da efetividade de uma arquitetura paralela híbrida utilizando multicore e multi-GPU(Universidade do Estado da Bahia, 2014-07-29) Soares, Anderson da Conceição; Boratto, Murilo do Carmo; Dantas, Robespierre; Lessa, Ivan de MattosCom a possibilidade de representar sistemas reais através de equações matemáticas o estudo dos modelos computacionais se tornou um campo atrativo nos últimos anos. Porém esses modelos demandam um grande poder de processamento e acabam por levar um grande tempo para serem completamente executados. Uma das formas para a otimização desses modelos é a utilização da computação de alto desempenho, que conta com uma série de novos dispositivos com características computacionais de aceleração de processamento. Aliado a isso surgiram novas APIs de programação paralela que permitem unir mais de um dispositivo com poder computacional em um ambiente híbrido, onde há uma tendência de obter um ganho de desempenho. Dessa maneira, o presente trabalho tem por objetivo estudar, experimentar e validar um modelo de programação paralela e distribuída, baseado em uma arquitetura heterogênea sobre multicore e GPUs.
- ItemAnálise da eficiência energética utilizando técnicas de otimização de consultas SQL(Universidade do Estado da Bahia, 2023-12-07) Cardoso, Jéssica Rocha; Massa Neto, Ernesto de Souza; Araújo, Daniela Barreto; Amorim, Cláudio Alves deEste estudo tem como objetivo analisar a eficiência energética em bancos de dados tradicionais, utilizando técnicas de otimização de consultas SQL. A pesquisa busca investigar se a aplicação dessas técnicas pode reduzir o consumo de energia e promover a sustentabilidade ambiental. Para isso, serão realizados estudos e experimentos que avaliarão o desempenho de consultas SQL em diferentes cenários, considerando métricas e indicadores relevantes. Espera-se que os resultados obtidos indiquem que a utilização de técnicas de otimização pode contribuir para a redução do consumo de energia em bancos de dados, o que pode ter um impacto significativo na sociedade e nas organizações. Com base nesses resultados esperados, este trabalho poderá fornecer avanços científicos e contribuir para o campo da otimização de consultas em SGBDs, promovendo melhores serviços, tomadas de decisões mais assertivas e um futuro mais sustentável
- ItemAnálise da epidemiologia molecular do vírus chikungunya relacionando as variáveis socioeconômicas e sintomatológicas utilizando o k-prototype(UNEB, 2021-07-12) Furtado, Filipe Bomfim Santos; Restovic, Maria Ines ValderramaEsta monografia apresenta uma metodologia que utiliza conceitos e ferramentas de Data Science para analisar casos confirmados do vírus Chikungunya em um banco de dados de epidemiologia molecular entre o período de 2004 a 2018. O objetivo do projeto é relacionar variáveis em torno deste arbovírus, como os genótipos e a variedade dos seus sintomas, com fatores socioeconômicos das nações onde as ocorrências foram registradas. O Data Mining é uma das abordagens do Data Science, e fornece métodos como a clusterização, que pode agrupar conjuntos de dados que possuem características semelhantes. Os algoritmos k-means e k-prototype oferecem os recursos necessários para o estabelecimento destas relações. Após o levantamento dos resultados, a informação será mostrada de forma visual e o conhecimento obtido após o projeto será registrado.
- ItemAnálise da proteína spike do sars-cov-2 utilizando o algoritmo CBUC(Universidade do Estado da Bahia, 2021-07-12) Nascimento Júnior, Cândido Luiz do; Restovic, Maria Ines Valderrama; Suárez, Diego Gervasio Frías; Lenz, Alexandre RafaelAs árvores filogenéticas têm um papel importante na biologia moderna porque elas provêm uma maneira concisa de visualizar a evolução dos descendentes partindo de ancestrais comuns. Durante a evolução da linhagem de um organismo os descendentes podem se divergir e “separar”, esses eventos são conhecidos como cladogênese, no qual se refere a origem de um novo ramo. Um clado é um pedaço de uma árvore filogenética que contém uma linhagem ancestral e todos os descendentes dessa linhagem. Os clados formados em uma árvore filogenética nos passam uma importante informação sobre os agrupamentos das sequências. O procedimento de classificação feito atualmente pode levar muito tempo. O algoritmo CBUC - Codon Based Unsupervised Classification, inicialmente implementado em Scilab pelo Prof. Dr. Diego Gervasio Frías Suárez, nesse trabalho foi implementado em Python, consegue genotipar as sequências e encontrar agrupamentos. O SARS-CoV-2 - Severe Acute Respiratory Syndrome Coronavirus 2, vírus causador da doença COVID-19 - Coronavirus Disease-2019, é um vírus altamente transmissível e se espalhou rapidamente pelo mundo, escalando de um surto para uma pandemia. O objetivo geral deste trabalho compreende a análise da proteína spike do SARS-CoV-2 utilizando o algoritmo CBUC e confrontar os agrupamentos gerados pelo CBUC com os agrupamentos gerados pelo método Maximum Likelihood. Nesse trabalho também foi desenvolvida uma ferramenta para a coleta das sequências que foram analisadas pelas implementações do CBUC. Os resultados da implementação em Python conseguiram encontrar agrupamentos coerentes com a árvore filogenética em um curto período de tempo e indica que a proposta do CBUC é promissora em genotipagem de sequências genéticas.
- ItemAnálise do algoritmo Random Forest na classificação de sintomas das doenças arbovirais(Universidade do Estado da Bahia, 2022-07-01) Santos, Diego dos; Restovic, Maria Ines Valderrama; Suárez, Diego Gervasio Frías; Atta, Antônio Carlos FontesAs mudanças climáticas provocadas pelo aquecimento global aumentam a temperatura do planeta, beneficiando a proliferação dos vírus. Os mosquitos Aedes Aegypti e Aedes Albopictus são os principais transmissores de arbovírus, especificamente dos vírus da dengue (DENV) e vírus da chikungunya (CHIKV). Os pacientes infectados por essas arboviroses apresentam sintomas semelhantes que dificultam o trabalho inicial do diagnóstico médico. A integração da tecnologia na área médica traz uma série de benefícios, desde o atendimento médico até em momentos cirúrgicos. A introdução do aprendizado de máquina vem crescendo em termos de relevância nos últimos anos, graças à quantidade massiva de dados gerados. Vários algoritmos são analisados e comparados para identificar padrões e correlações com dados das arboviroses. O uso do Random Forest (RF) para o entendimento das arboviroses está em fase inicial e não foi utilizado em uma análise conjunta com DENV e CHIKV. De todo modo, os estudos na sua maior parte são executados de forma isolada com DENV. As características do algoritmo RF chamam bastante atenção por resolver problemas comuns dos algoritmos de aprendizado de máquina, com a criação de árvores de decisão que trabalham de forma isolada, mas têm fator decisivo no resultado final do modelo, além do seu processo de aleatoriedade das amostras para gerar as árvores de decisão. Neste estudo foi desenvolvido um modelo classificador com a RF que apresentou comportamento muito sensível em relação ao conjunto de dados, onde os rótulos imprecisos reduziram as métricas de desempenho. Os ajustes realizados inicialmente com o conjunto de dados, demonstraram evolução nas métricas de desempenho. Outras características marcantes foram: o alto consumo de recursos computacionais e o curto tempo de treinamento para obter um modelo. No primeiro momento, o modelo teve uma acurácia de 59%, mas com todos os ajustes realizados durante o desenvolvimento, obteve-se 76% de acurácia no classificador final. Apesar do resultado geral, as métricas de desempenho foram melhores para CHIKV, pois os sintomas característicos foram presentes em muitas amostras de pacientes rotulados por esse arbovírus.
- ItemAnálise do desempenho de algoritmos paralelos utilizando diferentes modelos de comunicação em um Cluster Beowulf(Universidade do Estado da Bahia, 2012-08-10) Silva, Vitor Santos da; Souza, Leandro Santos Coelho de; Boratto, Murilo do Carmo; Cerqueira, Antônio Marcos Brito deCom advento de novas e crescentes demandas computacionais que necessitam de máquinas com um elevado poder de processamento (e.g., vídeo sob demanda, processamentos biofísicos, simulações cosmológicas, espacialização de relevos, mapeamento do genoma humano, previsão do tempo), amplifica-se o foco da computação de alto desempenho em sistemas distribuídos e processamento paralelo para estudo e desenvolvimento de soluções cada vez mais eficientes e economicamente viáveis. Este trabalho tem como objetivo analisar o desempenho de algoritmos computacionais paralelos em um cluster Beowulf, utilizando diferentes modelos paralelos de comunicação: memória compartilhada, memória distribuída e o modelo híbrido. Para alcançar os objetivos propostos foram utilizados algoritmos paralelos de multiplicação de matrizes, simulações cosmológicas e espacialização de relevo.
- ItemAplicação de técnicas de gamificação no dizziness app(Universidade do Estado da Bahia, 2020-03-11) Santana, Juliana de Carvalho; Massa, Mônica de Souza; Sousa, Maria da Gloria Canto de; Pereira , Filipe Tiago LimaO Dizziness App é um aplicativo para auxiliar o tratamento da tontura. A tontura na criança pode se manifestar de diversas formas, uma dessas é através da cinetose. Este tipo de tontura afeta diretamente o desenvolvimento escolar e social das crianças, que por não entenderem a importância desse tratamento são desmotivadas pela forma como esses são conduzidos. O objetivo dessa pesquisa foi realizar um estudo sobre a gamificação e aplicar seus elementos no Dizziness App para engajar as crianças e aumentar a adesão ao tratamento. Foi realizada a pesquisa experimental com doze crianças para comparar o tratamento do Dizziness App com o protótipo gamificado, onde o protótipo gamificado apresentou uma taxa de adesão de 50% a mais do que o aplicativo não gamificado e engajou mais os indivíduos da pesquisa atingindo uma maior média de sessões realizadas, o que, consequentemente, trouxe melhores resultados para esses indivíduos
- ItemAprendizagem por reforço de chutes rápidos em robôs humanoides(Universidade do Estado da Bahia, 2023-07-12) Sousa, Gabriel Mascarenhas Costa de; Simões, Marco Antônio Costa; Suárez, Diego Gervasio Frías; Cerqueira Junior, Adailton de JesusO uso de Inteligência Artificial no desenvolvimento de novos produtos e pesquisas científicas tem crescido muito nos últimos anos, e não faz pouco tempo que as pessoas tem tentado construir robôs que pensem e hajam como seres humanos para realizar tarefas mais perigosas ou repetitivas. Dentre os diversos ambientes de testes utilizados para alcançar esse objetivo está a simulação de futebol de robôs, onde diversas equipes podem realizar suas pesquisas em um ambiente simulado e de baixo custo enquanto compartilham suas descobertas entre si. Apesar de não existir um consenso sobre qual a melhor forma de se ensinar movimentos humanoides para robôs, muitos tem procurado soluções através de técnicas de Aprendizagem por Reforço. Essa monografia propõe a criação de um ambiente de aprendizagem para robôs humanoides em simulação 3D, utilizando Aprendizagem por Reforço somada ao uso de Redes Neurais Artificiais, que permita a um agente aprender a realizar movimentos humanoides, com foco no movimento de chute. O movimento gerado conseguiu ser em torno de 93% mais rápido do que o chute antigo e sustentou a funcionalidade do ambiente proposto, além de gerar hipóteses que podem ajudar no avanço da pesquisa no desenvolvimento de movimentos em robôs humanoides simulados.
- ItemArbominer: uma ferramenta de extração e mineração de texto para arbovírus(Universidade do Estado da Bahia, 2020-03-11) Santos, Wellington Correia dos; Restovic, Maria Ines Valderrama; Suárez, Diego Gervasio Frías; Oliveira, Murilo FreireOs arbovírus dengue, zika e chikungunya representam uma grande ameaça à saúde humana. Mudanças climáticas, ambientais em conjunto com o desmatamento florestal, favorecem a disseminação e transmissão dos vírus nas regiões subtropicais. Esses vírus têm evoluído através do tempo, progressivamente em linhagens mais complexas e virulentas. Ferramentas que permitam reunir todas as informações relacionadas para o estudo destes vírus são fundamentais para a bioinformática. Este trabalho consiste em pesquisa e desenvolvimento um minerador de textos científicos que permita extrair as informações clinicas, epidemiológicas e genéticas dos arbovírus dengue, zika e chikungunya dos bancos de dados do National Institute of Health, USA (NIH), com objetivo de popular o banco de dados de epidemiologia molecular Arthropode Borne Virus Database (ABVdb) com o maior número de informações que permitam aos pesquisadores realizar estudos de impacto populacional e vigilância epidemiológica entre outros, para melhor compreender a evolução destas arboviroses
- ItemArquitetura de memória de baixo custo para aquisição de dados em média e alta frequência com o Arduino(Universidade do Estado da Bahia, 2021-07-12) Souza Junior, Everaldo Lima de; Amorim, Cláudio Alves de; Suárez, Diego Gervasio Frías; Massa Neto, Ernesto de SouzaNas escolas e universidades, há interesse crescente pelos dispositivos experimentais de física de arquitetura aberta, mediados por microcontroladores, tendo em vista as suas virtudes didáticas aliadas ao baixo custo, quando comparados com os kits comerciais de arquitetura fechada. Por outro lado, não é trivial realizar experimentos com frequências de amostragem superiores a 100Hz, atendendo-se aos requisitos de integridade e permanência dos dados. Com base nessa demanda, o presente trabalho propõe uma arquitetura de armazenamento de baixo custo, não volátil, integrável ao Arduino, para aquisição de dados com frequências superiores às admitidas pelos populares módulos de cartões SD. Aplicou-se uma metodologia para selecionar arquiteturas candidatas, que foram avaliadas por meio de testes e de simulações de cenários experimentais. Por fim, obteve-se uma arquitetura de armazenamento baseada em memória Flash da série Winbond W25QXX com gravação de dados até 140 vezes mais rápida do que os módulos de cartões SD.