WPOS - 2014
Resumos
Sexta (07/11)
Sessão 1 – 14:00 às 15:00

A Importância da Tecnologia da Informação no Contexto da Saúde: Um Estudo de Caso no Serviço de Saúde do Exército Brasileiro
Francisco de Assis Neto e Edgard Costa Oliveira
Departamento de Ciência da Computação Universidade de Brasília - UnB
mcfaneto@yahoo.com.br, ecosta@unb.br
Este artigo é parte de uma pesquisa em andamento que tem como objetivo apresentar propostas de requisitos de interoperabilidade para os Sistemas de Informação em saúde do Exército Brasileiro, aos moldes propostos pela Organização Mundial de Saúde (WHO) e ITU e Ministério da Saúde (Brasil). A pesquisa utiliza métodos qualitativos e quantitativos, pesquisa bibliográfica, análise documental, estudo de caso, Survey, entrevista, análise documental e observação direta. Oportunidade em que o Exército se prepara para a construção do Prontuário Eletrônico de Pacientes (PEP) e a sua integração com os demais sistemas existentes, bem como os do Ministério da Saúde e demais Forças Armadas.


Aplicação de Tecnologia da Informação por APP em Transportes Aéreos
Ana Carolina dos S. Pergentino, Lucília P. de Oliveira, Li Weigang
Departamento de Ciências da Computação, Universidade de Brasília – UnB
anacpergentino@hotmail.com, lucilia.p.oliveira@gmail.com, weigang@cic.unb.br
Este artigo apresenta uma visão geral a respeito de aplicações (Application - APP) para dispositivos móveis e também como essa ferramenta pode ser utilizada em transportes aéreos. É composto pelos conceitos referentes às aplicações e a sua utilização por meio de tecnologia da informação aplicada a aeroportos na área de comunicação interna, entre funcionários, e externa, para passageiros. É proposto um direcionamento para que os próximos aplicativos que serão criados, por meio da explanação dos aplicativos em vigor e possíveis mudanças que eles poderiam ter para melhor esse ramo, não só no Brasil, mas em todo o mundo.


Proposta de Aplicação e Avaliação de Jogos Educacionais para o Ensino de Computação no Ensino Fundamental
Gustavo Arcanjo Silva e Fernanda Lima
Engenharia de Computação Brasília - Universidade de Brasília
Ciência da Computação - Universidade de Brasília
gustavoarcanjo@gmail.com, ferlima@unb.br
Nessa proposta é feita a sugestão de um forma de avaliar de jogos educacionais para o ensino de computação no ensino fundamental brasileiro, com a finalidade de identificar particularidades da aplicação de tais ferramentas educativas no contexto do nosso país. A pesquisa é apoiada em pesquisas a respeito de jogos educacionais, avaliação de jogos, ensino de computação com jogos e estratégias para favorecer o aprendizado.


Análise do Processo de Gestão do Sistema de Processo Seletivo em um Instituto Federal de Educação
Daniel Souza Coelho e Simone Borges Simão Monteiro
Departamento de Ciência da Computação, Programa de Pós-graduação em Computação Aplicada
Universidade de Brasília
daniesc@gmail.com, simoneborges@unb.br
Não é novidade a importância do mapeamento, análise e melhoria dos processos de negócio nas organizações. Porém, cada dia se torna mais clara a necessidade das organizações analisarem seus processos, trabalhando em sua melhoria. Neste artigo é apresentado um trabalho de identificação e mapeamento de um processo estratégico de um instituto federal de educação profissional, desde o modelo atual (AS-IS) até o modelo ideal (TO-BE). A escolha dos processos estratégicas foi feita com base na ferramenta SIPOC.


Navegação Autônoma Geoposicionada por Banco de Dados Assistidos por GPS
Cesar do Amaral*, José M. C. Limab, Luiz E. S. Oliveira† , Li Weingang*
Depto. Ciencia da Computação*, Depto. Mecanica† Universidade de Brasília, Brasília - DF
amaral12342012@hotmail.com,{nitcales,luizeduardo.ufs}@gmail.com, weigang@unb.br
O objetivo da pesquisa é observar a abrangência e a capacidade de armazenamento da associação da informação informatizada do espaço geográfico através de um sistema de Geoposicionamento referenciado por um banco de dados de alta precisão,a partir de banco de dados de elevada precisão, dentro de um sistema SIG, referenciado por GPS, suportado por técnicas de Mineração de Dados, algoritmos com modelagem por lógica Fuzzy em associação com equações matemática para diluição dos erros e validação contínua dos dados processados. O assunto tratado nesta pesquisa é favorável a muitos desdobramentos pontuais, podendo conduzir a desenvolvimentos futuros. Como proposta imediata para novos trabalhos a integração da base de dados de alta precisão com sistemas mecatrônicas para guiamento autônomo de veículos elétricos.


Modelos Preditivos para Mapeamento de Risco de Corrupção de Servidores Públicos Federais
Ricardo Silva Carvalho, Rommel Novaes Carvalho
Departamento de Ciências da Computação Universidade de Brasília
ricardosc@gmail.com, rommel.carvalho@gmail.com
A Controladoria-Geral da União(CGU),pormeio da Diretoria de Pesquisas e Informações Estratégicas (DIE), articula ações de produção de informações estratégicas, investigando possíveis irregularidades cometidas por servidores públicos federais. Com uma equipe reduzida e inúmeras responsabilidades, a DIE necessita de métodos automatizados aplicáveis a grande volume de dados para aferir corruptibilidade de servidores, buscando assim priorização de trabalho e atuação eficaz baseando-se em aspectos de corrupção. Este trabalho apresenta a aplicação de mineração de dados para mapear risco de corrupção de servidores públicos federais, usando várias bases de dados a que a CGU tem acesso. O processo CRISP-DM é a referência para as fases da mineração de dados. Inicialmente, realizam-se testes de hipótese para verificar se há dependência entre corrupção e cada conhecimento explorado. Após pré-processamento com agrupamento, normalização e discretização, são gerados datasets diferentes para cada contexto de corrupção e aplicados algoritmos de aprendizagem de máquina para gerar modelos de regressão, como Support Vector Machines e Random Forest. Para seleção do melhor modelo, compara-se resultados de cada algoritmo para cada dataset, avaliando métricas como precisão, kappa e acurácia. Para cada contexto, o modelo de especialistas é comparado aos modelos gerados, confirmando afirmações prévias e trazendo novas visões ainda não conhecidas pelos especialistas. O mapeamento de risco de corrupção com mineração de dados abordando os aproximadamente 1 milhão de servidores públicos federais ativos sustenta a priorização de trabalho da DIE, aumentando as chances de investigação de possíveis corruptos, e possibilita o direcionamento de esforços de auditoria e fiscalização, fortalecendo a prevenção de corrupção e otimizando o uso de recursos e pessoal da CGU em todo o país, gerando, assim, impacto em âmbito nacional.

Sessão 2 – 15:00 às 16:00

playCB: API Gráfica para Programadores Inexperientes
Sinayra Pascoal Cotts Moreira e José Carlos Loureiro Ralha
Departamento de Ciência da Computação, Universidade de Brasília - UnB
sinayra@outlook.com, ralha@cic.unb.br
Este artigo apresenta a API gráfica playCB, desenvolvida para que programadores inexperientes, como alunos de Computação Básica, usem modelagem gráfica como ferramenta para consolidar conceitos e fundamentos adquiridos já no primeiro semestre de curso. Espera-se com isso aumentar o interesse pelas disciplinas avançadas de computação bem como as matérias relacionadas das áreas de matemática e física, evitando assim a evasão dos cursos de computação.


Utilizando o Método Delphi e Árvore de Falhas em Análise de Riscos em Sistemas de Informação em Saúde
Francisco de Assis Neto, Edgard Costa Oliveira, João Carlos Félix Souza, João Mello da Silva
Departamento de Ciências da Computação Universidade de Brasília - UnB
mcfaneto@yahoo.com.br, ecosta@unb.br, jocafs@unb.br, joaomello@unb.br
Este artigo apresenta uma introdução sobre a importância da gestão de riscos na tomada de decisão, árvore de falhas (FTA), Delphi. O método deu-se com a aplicação de ferramentas da ISO 31010 para a detecção de riscos em sistemas de informação em saúde, de maneira qualitativa e quantitativa, através de um estudo de caso real ocorrido naquela Diretoria de Saúde do Exército Brasileiro, com uma investigação dedutiva, com especialistas, que validadas, trará melhorias no tocante ao tratamento da incerteza. Com respostas aos questionamentos foi possível detectar através de meios orientados pela ABNT NBR ISO 31010. Ao final do trabalho, os seus resultados, discussão e uma conclusão sobre o estudo de caso e referências a literatura necessária.


New Features and Refined SVM Improve snoRNA Identification in snoReport
João Victor de A. Oliveira∗, Pedro A. Berger∗, Maria Emília M. T. Walter∗ and Jana Hertel†
∗Department of Computer Science - University of Brasilia,
†Department of Computer Science and Interdisciplinary Center for Bioinformatics - University of Leipzig
snoReport [1] identifies the two main classes of snoRNAs (box H/ACA and box C/D) in single sequences, using secondary structure prediction combined with machine learning. This work aims to improve snoReport, extracting different parameters for both box H/ACA and C/D box snoRNAs, a more sophisticated technique for the SVM training phase with recent data of vertebrate organisms and new versions of tools previously used in snoReport, together with a refined approach to find good values for C and γ SVM parameters. The H/ACA box snoRNA classifier had an improvement of 25% in sensitivity and 13.85% in F-score, when compared to the parameters previously chosen with the same training data. These results showed that the new snoReport detected more true positives (sensitivity), while the improvement of F-score avoided false positives and false negatives. The C/D box snoRNA classifier had an improvement of 13.33% in sensitivity and 6.57% in F-score, compared to the previous version of snoReport. In the validation of the new version of snoReport, we predicted 69.43% of all the sequences of different organisms, which showed that it is good to identify snoRNAs with high sensitivity and specificity in different species.


Análise de Transmissão de Vídeo em Multicast com PIM sobre RIP e OSPF
Alex Anderson Dantas Fidelis e Claudio Xavier de Oliveira
Departmento de Ciência da Computação - Universidade de Brasília
alekez@unb.br, claudioxavier@unb.br
A crescente introdução de serviços de transmis- são de conteúdo outrora apenas pertencentes à equipamentos dedicados (rádio, televisão), sobre a web, é uma área que deve ser bastante observada pelos responsáveis pelas redes de computadores. Um meio de otimizar essas transmissões é utilizar difusão de informação através de multicast. Fazendo uso desse artifício há otimização dos recursos de rede evitando replicações desnecessárias de fluxos, por exemplo. Este artigo visa mostrar a aplicação do protocolo de multicast PIM sobre os protocolos de roteamento unicast RIP e OSPF em um ambiente real. As simulações serão realizadas com intuito de obter métricas como latência, perda de pacotes, tempo de convergência e recuperação a falhas, bem como a melhor combinação entre o PIM e os protocolos RIP e OSPF; afim de se obter o melhor cenário para futuras aplicações.


Gestão de Riscos na Execução de Serviços de TI em Contratos Baseados na Instrução Normativa 04/2010
Gustavo de Freitas Alves, Simone Borges Simão Monteiro
Departamento de Ciência da Computação Universidade de Brasília
gustavo.ucb@gmail.com, simoneborges@unb.br
Definição do problema: Este estudo de caso tem como objetivo avaliar a qualidade dos serviços prestados pela equipe de uma empresa que atua no segmento de terceirização de mão de obra em Tecnologia da Informação (TI) contratados pelo governo. Abordagem: Através do uso da ISO 31000 buscou-se gerenciar riscos da operação dos processos de TI, que por sua vez utilizam um framework para registro e controle destes processos. Resultados: Foi feito uma avaliação da qualidade dos processos de TI em três diferentes clientes e detectou-se que a operacionalização e registro dos processos feito pelos técnicos não estão adequados. Conclusão: Através do estudo foi detectado um vício na operação e foi feito uma proposta para capacitação técnica da equipe no uso de ferramentas para o registro do trabalho.


Uma Solução de Software de Assinatura Digital de Documentos para Instituição Pública Brasileira,
Andrei Lima Queiroz
Programa de Pós-Graduação em Computação Aplicada - Universidade de Brasíliar
andreiqueiroz@unb.br
Esse pesquisa teve como objetivo propor e avaliar uma implementação de software de assinatura digital. O estudo foi motivado pelos problemas encontrados no processo atual de emissão dos certificados de extensão da Universidade de Brasília. O trabalho propõe um arquitetura de software modular de forma a atender às necessidades dos setores da instituição e dos de- senvolvedores, oferecendo facilidades na manutenção, integração e reuso. O desenvolvimento da proposta e dos procedimento de assinatura digital teve como base as normas e documentos da Infraestrutura de Chaves Públicas Brasileira ICP-BRASIL. Com isso, podemos garantir as mesmas característica jurídicas do documento físico ao documento digital, ou seja, a validade jurídica ao documento assinado eletronicamente.

Sessão 3 – 16:20 às 17:30

Anotação e Visualização de Sequências de Transcritos da Peçonha de Artrópodes da Região Centro-Oeste
Rafael Dias da Costa e Maria Emília M. T. Walter
Departamento de Ciência da Computação - Universidade de Brasília
rafael.rdc@hotmail.com, mia@cic.unb.br
O presente projeto de Iniciação Científica faz parte do projeto “Inotoxin - Inovação com Peçonhas de animais da biodiversidade da Região Centro-oeste: aplicações terapêuticas, toxicologia e bioprospecção”, que integra a Rede Centro-Oeste, aprovado pelo CNPq. O objetivo deste projeto é propor um pipeline para analisar os transcritos das glândulas de peçonha (transcritoma), e geramos resultados que deverão ser analisados pelos biólogos. O pipeline, composto de três etapas (filtragem, montagem e anotação), foi aplicado a transcritos de escorpião e de vespa. Com essa abordagem, pretendemos realizar um extenso levantamento do potencial farmacológico e terapêutico dessas peçonhas, utilizando estratégias que necessitam número reduzido de exemplares de cada espécie estudada, respeitando assim, a exploração sustentável da fauna de artrópodes da Região Centro-oeste do Brasil.


Identificação Automatizada de Riscos de Segurança em Especificações de Software
Rodrigo Nunes Peclat* e Guilherme Novaes Ramos†
*Secretaria-Federal de Controle Interno Controladoria-Geral da União
†Departamento de Ciência da Computação - Universidade de Brasília
rodrigo.peclat@cgu.gov.br, gnramos@unb.br
A Administração Pública Federal tem investido em contratações de software sob encomenda. Nesse cenário, é de interesse verificar se as especificações tratam de forma satisfatória os riscos de segurança comuns às aplicações presentes nesses contratos. Para tanto, propõe-se uma análise semântica automatizada de textos em português, de modo que seja possível associar riscos de segurança a seus trechos. Testes iniciais para associação de requisitos do OWASP ASVS às categorias do OWASP Top Ten demonstram a viabilidade dessa abordagem.


Elasticidade em uma Infraestrutura de Nuvens Federadas BioNimbuZ
Guilherme F. Vergara, Breno Moura, Aletéia P. F. de Araújo
Departamento de Ciências da Computação - Universidade de Brasília
gfv.unb@gmail.com, mourabreno@gmail.com, aleteia@cic.unb.br
Com a constante evolução das aplicações, surgiu a necessidade de se ter um ambiente onde fosse possível processar aplicações de forma dinâmica, escalar e sob demanda, na qual a medida em que a aplicação cresce e necessita de mais recursos, o ambiente de forma automática provê os recursos, surgindo assim a plataforma de computação em nuvem, recursos são alocados conforme a demanda de utilização necessária. Para que seja possível esse aumento escalar e sob demanda, surge o conceito da elasticidade. A elasticidade é uma das características fundamentais em um ambiente de computação em nuvem, uma vez que existem muitas aplicações que aumentam no decorrer do tempo necessitando de mais poder de processamento e até mesmo mais espaço para armazenar arquivos gerados pela aplicação. Este trabalho trata do problema da elasticidade no BioNimbuZ, o qual é uma infraestrutura de nuvens federadas para aplicações de bioinformática. Assim propõem-se um módulo de elasticidade a ser implementado na infraestrutura, para que o ambiente consiga prover recursos de forma automática e transparente garantindo que quando for adicionado uma carga superior do que foi contratada inicialmente, o sistema possa ir adicionando recursos e os custos relacionados a esse aumento de recursos.


Identificação e Análise de Competências em Gestão de Riscos para o SISP, com Uso de Multicritérios
Fernando Escobar, João Mello da Silva e João Carlos Félix Souza
Universidade de Brasília
Case Western Reserve University
Elaborar planos de formação, desenvolvimento e treinamento para os servidores públicos integrantes do Sistema de Administração dos Recursos de Tecnologia da Informação (SISP) é uma das atribuições da Secretaria de Logística e Tecnologia da Informação (SLTI/MP), órgão central do SISP. O objetivo deste trabalho é o de identificar, com pesquisa bibliográfica, e priorizar, com análise multicritério AHP, as onze competências em gestão de riscos, mais relevantes e específicas para os servidores integrantes do SISP, com destaque para as competências de Planejamento Estratégico, Gerenciamento de Riscos e Critérios de Seleção e Tomada de Decisões.


Tolerância a Falhas para Sistemas Legados do Exército Brasileiro
Fausto Andrade dos Santos Junior e Aletéia Patrícia Favacho de Araújo
Programa de Pós-Graduação em Computação Aplicada
Departamento de Ciências da Computação Universidade de Brasília
faustosantos@aluno.unb.br, aleteia@cic.unb.br
Os órgãos públicos de maneira geral, e em especial o Exército Brasileiro, possuem um grande desafio em relação à capilaridade de suas redes de informações no território federal e repartições destacadas inclusive em outros países. Contudo, os sistemas de informações do Exército foram em sua maioria desenvolvidos sob uma perspectiva incompatível com sistemas distribuídos modernos. Desta forma, quanto mais a pesquisa nessa área avança, mais percebe-se o grande custo em migrar soluções corporativas para esta infraestrutura. Mesmo diante dos custos proibitivos de migração, a demanda por sistemas de informação direciona que o software legado precisa implementar características de arquitetura distribuída, como tolerância a falhas. Este trabalho propõe um middleware de infraestrutura distribuí da para hospedar softwares legados do Departamento- Geral do Pessoal do Exército Brasileiro (DGP) e assim permitir tolerância a falhas e escalabilidade a esses sistemas, de forma transparente.


Uma Abordagem para o Uso de Cenários Implícitos na Geração de Casos de Teste em Sistemas Concorrentes
Thiago Peixoto dos Reis, Genaína Nunes Rodrigues
Departamento de Ciências da Computação - Universidade de Brasília
Instituto Federal de Goiás
thiago.peixoto@ifg.edu.br, genaina@cic.unb.br
A confiabilidade é um pré-requisito desejável a qualquer sistema. Para que um sistema possa ser confiável, tal requisito deverá ser levado em consideração durante todas as fases da concepção de um sistema. Cenários Implícitos são uma anomalia gerada quando um componente de um sistema concorrente é criado e se relaciona de uma forma inesperada com os demais componentes. Técnicas existentes em teste de sistemas concorrentes podem, ocasionalmente, não revelar todas as falhas existentes em um sistema. Isso acontece em parte por se concentrarem em utilizar testes já conhecidos e avaliarem somente os comportamentos esperados, logo eles acabam ignorando comportamentos anômalos que frequentemente podem gerar falhas em um sistema. Este trabalho tem o objetivo de explorar o uso da detecção de cenários implícitos na melhoria da geração de casos de teste para sistemas concorrentes.


Revealing Features from Task Assignments
Marcos César de Oliveira∗†, Rodrigo Bonifácio† and Guilherme Ramos†
∗Secretaria de Orçamento Federal Ministério do Planejamento, Brasília, Brazil
†Departamento de Ciência da Computação - Universidade de Brasília,
marcos-cesar.oliveira@planejamento.gov.br , {rbonifacio,gnramos}@cic.unb.br
Extracting features from a legacy code base and mapping these features to their implementation elements is a fundamental activity for adopting a feature-oriented approach. However, this can be a challenging task, specially for large code bases with potentially hundreds of features, because features often spread across different modules of a system, making it difficult to define a specific pattern for recovering features from source code. In this position paper, we present a novel approach for mitigating this problem by relating historical data from issue tracking systems and change history of a project’s source code.

Sessão 4 – 17:30 às 18:30

Análise de Desempenho de um Modelo de Engenharia de Tráfego Utilizando Autossimilaridade de Sistemas FTV em Nuvem
Henrique Domingues Garcia e Priscila Solis
Departamento de Ciências da Computação Universidade de Brasília
henriquedgarcia@gmail.com, pris@cic.unb.br
Resumo—A Internet é um enorme laboratório que permite surgir novas aplicações a qualquer momento. Um dos grandes desafios em redes de computadores é encontrar as melhores formas de encaminhar as informações das novas aplicações. Dentre as que mais chamam atenção são as aplicações de vídeo por possuírem alta sensibilidade as flutuações da rede e uma enorme necessidade de largura de banda e a Internet precisa rapidamente conseguir absorver este tráfego sem comprometer as aplicações já existentes. Este artigo apresenta o estado da arte e a proposta de um trabalho de simulação e otimização do roteamento de fluxo de vídeo de FTV (Freeviewpoint Television) utilizando técnicas de engenharia de tráfego em protocolos tradicionais de roteamento.


Humanos x Robôs: Implementação Multiplayer e Especial (Star Power) do Jogo Guitar Hero III no Robô Grybot
Mariana R. Makiuchi, Juliana L.Bento, Marcus V. Lamar
Departamento Ciência da Computação - Universidade de Brasília
mari_makiuchi@hotmail.com, julianalemosb@hotmail.com, lamar@unb.br
Guitar Hero é um jogo popular, no qual o jogador testa suas habilidades “tocando” uma música escolhida. Devido ao nível de dificuldade do jogo, ainda não existe um sistema robótico capaz de superar os melhores jogadores humanos. Grybot é um robô jogador automático de Guitar Hero III que, usando unicamente uma FPGA, detecta as notas pelo processamento em tempo real do sinal de vídeo composto. Por meio de um circuito de acionamento de solenoides, pressiona fisicamente os botões de um controle comum do console PS2. A máquina desenvolvida obtém acertos entre 95% e 100% em todas as músicas do jogo e em qualquer nível de dificuldade. Este trabalho apresenta um aprimoramento do sistema de controle para operar no modo multiplayer, que torna o jogo ainda mais divertido e envolvente pela possibilidade de um jogador humano poder desafiar o robô. Este trabalho detalha ainda a implementação de um sistema para o acionamento do modo especial Star Power, que faz com que a pontuação atingida pelo robô esteja mais próxima dos melhores jogadores, de acordo com o ranking mundial mantido pelo site ScoreHero.


Uma Metodologia para Reprodutibilidade de Experimentos em Engenharia de Software por Meio de Virtualização de Ambiente de Execução
Gabriel Rodrigues, Genaina Rodrigues
Departamento de Ciência da Computação Universidade de Brasília
gabrielsr@aluno.unb.br, genaina@unb.br
Reprodutibilidade é uma atividade fundamental do processo científico. No entanto em ciências da computação a reprodução de experimentos não tem sido suficientemente fácil. Realizar o build de um software utilizado em trabalho publicado, executar o software e coletar resultados tem sido um desafio. Para um pesquisador independente que deseja reproduzir o experimento, descobrir quais as dependências do build, encontrá-las, configurar o ambiente corretamente, descobrir a interface de entrada do software são atividades que em muitos casos leva bastante tempo. Normalmente existe pouca documentação fora o descrito na publicação científica; as interfaces costumam ser pouco amigáveis; o software costuma não tratar erros de entradas do software. Este artigo avalia a utilização de ferramentas de gerência de build e virtualização do ambiente de execução. Propomos um framework alto nível que se seguido acreditamos tornarão experimento facilmente reprodutível sem criação de esforço adicional aos desenvolvedores do experimento.


Utilizando a Programação Multicritérios com AHP para Selecionar e Priorizar Pontos Críticos e Impactos de Tecnologia da Informação nos Objetivos Estratégicos de uma Organização
Francisco de Assis Neto, Edgard Costa Oliveira, João Carlos Félix Souza, Marcelo Ladeira
Departamento de Ciência da Computação - Universidade de Brasília
mcfaneto@yahoo.com.br, ecosta@unb.br, jocafs@unb.br, mladeira@unb.br
Este artigo tem como objetivo apresentar os resultados parcial de uma dissertação de mestrado, onde utilizou-se programação multicritérios com Analytic Hierarchy Process (AHP), utilizando o software Expert Choice para a identificação de componentes créticos de Tecnologia da Informação (TI) que impactam uma organização e sua relação com os objetivos estratégicos. O trabalho tem uma postura qualitativa e quantitativa; com uma pesquisa bibliográfica necessária ao seu referencial teórico; o seus desenvolvimento, com detalhes sobre Delphi, AHP, o Software Expert Choice. Durante a pesquisa, foi criado um modelo para este trabalho com normas da ABNT (ISO 27005, 38500 e 31000).


Aplicação de Técnicas de Mineração de Textos para Classificação de Documentos: Um Estudo da Automatização da Triagem de Denúncias na CGU
Patrícia Maia, Marcelo Ladeira, Rommel N. Carvalho
Department of Computer Science - University of Brasília
mladeira@unb.br
A Controladoria Geral da União é o órgão do Poder Executivo responsável pelas atividades de controle interno, auditoria pública, correição, prevenção e combate à corrupção e ouvidoria dos gastos públicos do Poder Executivo. Por meio do botão “Denúncias” do portal da CGU se tem acesso a um for- mulário para apresentação de denúncias por parte da sociedade. Após cadastradas pelo cidadão as mesmas devem ser triadas e encaminhadas para a coordenação temática da CGU com competência para realizar a apuração. Atualmente essa triagem é feita de forma manual e a denúncia encaminhada para uma das oitenta e duas coordenações da CGU. Essa grande quantidade de áreas a serem destinadas as denúncias é um fator complicador para a classificação automática de textos, impossibilitando inclusive a aplicação de alguns algoritmos. Considerando o acúmulo de denúncias existentes na base atualmente e a chegada de novas denúncias, aliadas ao tempo gasto com a triagem manual, torna- se cada vez mais difícil a análise tempestiva das ocorrências reportadas. O resultado gerado por este contexto pode causar prejuízos financeiros para a administração pública além de desmotivar a utilização do canal pelo cidadão. Dessa forma, este trabalho visa construir um modelo automático de triagem de denúncias utilizando mineração de textos com a finalidade de agilizar esse processo. As denúncias cadastradas nesse formulário são provenientes de municípios presentes em todas as unidades da federação gerando assim um grande impacto em todo o território nacional.


An Extended Goal-oriented Development Methodology with Contextual Dependability Analysis
Danilo F. Mendonça and Genaína N. Rodrigues
Universidade de Brasília
dfmendonca@gmail.com, genaina@cic.unb.br
A static and stable context of operation is not a reality for many systems nowadays. Context variations impose many threats to systems safety, including the activation of context-dependent failures. Goal-oriented software-development methodologies (SDM) adds the ‘why’ to system requirements, i.e., the intentionality behind system goals and the means to meet then. Contexts may affect what requirements are needed, which alternatives are available and the quality of these alternatives, including dependability attributes. In order to properly analyze the dependability of systems affected by context variation and reduce the occurrence of contextual failures, this short-paper proposes an extension to the TROPOS goal-oriented methodology to include dependability constraints to goals and also to propagate the context variation effects to the probabilistic model checking analysis technique used to estimated reliability by considering the components’ availability and reliability to be context dependent.

Sábado (08/11)
Sessão 5 – 09:00 às 10:10

Implementação de um Protocolo Criptográfico Baseado em REST
Alexandre Lucchesi Alencar, Rodrigo Bonifácio de Almeida e João José Costa Gondim
Departamento de Ciência da Computação - Universidade de Brasília
Security protocols based on REST (REpresenta- tional State Transfer), such as OAuth and OpenID, have been proposed to allow a form of distributed authentication and autho- rization mechanism target to open environments, whose potential users are usually unknown in advance. However, institutions also have the need to communicate with each other within closed environments, so that they can automatically integrate their business processes. This paper reports on the implementation of a cryptographic protocol for closed environments and based on the REST architectural style, ensuring quality of service (in terms of processing time and throughput) along with the security requirements previously established.


Prospecção Ativa de Vulnerabilidade - Metodologia e Simulação Baseada em Agentes Inteligentes
Maximillian Fan Xavier, Célia Ghedini Ralha e João José Costa Gondim
Departamento de Ciência da Computação - Universidade de Brasília
maximillianfx@gmail.com, ghedini@cic.unb.br, gondim@cic.unb.br
Este artigo descreve uma metodologia para prospecção ativa de vulnerabilidade em sistemas computacionais. A metodologia permite definir e padronizar os procedimentos para a identificação e avaliação de vulnerabilidades com base na estratégia de testes de penetração (PenTests). A metodologia relaciona o planejamento e a execução de cenários, envolvendo características de acesso indevido ou extravio de informação sigilosa. Para estudo da metodologia, as seis fases que a compõem foram modeladas utilizando Business Process Model and Notation – BPMN. A validação da metodologia será realizada através do uso de técnicas de simulação baseada em agentes inteligentes, os quais proporcionam a eficácia dos procedimentos executados ao longo do desenvolvimento da metodologia. A abordagem ado- tada neste trabalho, viabiliza o desenvolvimento de treinamento para profissionais de Tecnologia da Informação em PenTests, envolvendo diversos cenários e estratégias, possibilitando ampliar o conhecimento metodológico de procedimentos técnicos, que vão desde a identificação e avaliação de vulnerabilidades, até definição de táticas, execução de testes e a consolidação e apresentação dos resultados.


Documents Based Geographic Data Modeling for NoSQL
Harley Vera, Wagner Boaventura Filho, Maristela Holanda
Department of Computer Science -University of Brasília
harleyve@gmail.com, wagnerbf@gmail.com, mholanda@cic.unb.br
The integration of geographical information systems (GIS) with relational databases (RDBMS) and the search for interoperable standards among geospatial systems were issues that dominated the agenda of academia, industry, and the users community of spatial data in general. Since then, in database technologies, new discussions have been growing, mainly for non- conventional applications, including NoSQL databases, that was created originally in response to the needs of better scalabil- ity,lower latency and higher flexibility in a time of bigdata and cloud computing. Those non-functional aspects, which are very common in the treatment of spatial data, are the main reason for using NoSQL. However, the data modeling for NoSQL databases, specially the document-oriented ones, does not have systematic studies yet, just as exists for relational databases. Therefore, this article proposes a NoSQL data modeling standard,introducing modeling techniques that can be used on document-oriented databases, including geographical features. In addition, to vali- date the proposed model, a case study was implemented using geographic information on changes in brazilian biomes land use.


Enabling Contextually Adaptive Workflows
Andre Felipe Fleck Bedran∗, Brenno Taylor de Jesus Popov∗, Felipe Pontes Guimares† and Genaina Nunes Rodrigues‡
†IME-USP University of Sao Paulo
∗University of Brasilia- Faculdade do Gama
‡Department of Computer Science - University of Brasilia
felipepg@ime.usp.br, genaina@cic.unb.br
Modern computational systems tend to have very complex behavior. When dealing with context-aware service- oriented systems, this complexity rises even further, with the designer having to tackle two very distinct levels of complexity: the service composition as well as its variability intrinsic to contextual adaptation. Normally, contextual adaptation may be expressed by a Contextual Goal-Model (CGM) and the service composition may be expressed as a workflow. In this paper, we argue that separating such complexity into different diagrams, namely a workflow and a CGM, is an unnecessary burden. To bring both facets into a single representation we propose minor modifications to the CGM model in order for it to be able to express any workflow while maintaining the goal model’s (GM) tree structure. We also introduce the rules to duly convert any workflow into a GM, effectively showing that a GM is able to represent any workflow, both in a graphic representation as well as in a formal one.


Novos Padrões para Pixels de Formato Variável
Jonathan Alis S. Lima e Mylene C. Q. Farias
Universidade de Brasília
jonathanalis@gmail.com, mylene@ene.unb.br
Normalmente, para aumentar a resolução de uma imagem, é requerido um aumento na quantidade de pixels de forma convencional quadrada. Kirsch, o inventor do pixel quadrado, mostrou que podemos aumentar a precisão visual de imagens sem aumentar a quantidade de pixels, mas utilizando pixels de formato variável, os quais representam melhor a imagem do que os pixels quadrados. Neste trabalho, trazemos uma adição à técnica de Kirsch onde conseguimos melhores resultados na representação de imagens.


Um Método para Otimização de Energia com Base em Clusterização para Redes de Sensores Sem Fio
Paula Letícia Santos Lima, Luis Pacheco e Priscila Solís
Departamento de Ciência da Computação - UnB
palelima@cic.unb.br, luisbelem@gmail.com, pris@cic.unb.br
Neste trabalho se propõe um método para a melhoria da eficiência energética em uma Rede de Sensores Sem Fio (RSSF), com base em uma nova caracterização da região de intensidade que utilizará clusters para o encaminhamento de dados ao nó sink. O método é baseado em três técnicas: um algoritmo híbrido CSMA/TDMA para atuar na região de intensidade, um algoritmo para definição de clusters e clusters heads com base na energia média dos sensores do cluster e um protocolo de roteamento externo à região de intensidade.


PUF+PAKE = Autenticação Mútua Multifator para Aplicações Bancárias
Amanda Cristina Davi Resende e Diego de Freitas Aranha
Departamento de Ciência da Computação – UnB
Instituto de Computação - Unicamp
amandadavi7@aluno.unb.br, dfaranha@ic.unicamp.br
Este artigo propõe um protocolo seguro combinando Funções Fisicamente não Clonáveis (PUFs) com protocolos para Acordo Autenticado de Chaves baseados em Senha (PAKE). O protocolo resultante oferece autenticação mútua entre cliente e servidor e estabelece uma chave de sessão entre as partes autenticadas, características importantes que não foram encon- tradas simultaneamente na literatura de autenticação baseada em PUF. A combinação aprimora o estado da arte, garantindo que a chave de sessão esteja apenas disponível para detentores legítimos da PUF, sem a possibilidade de vazamento de segredos armazenados explicitamente. O protocolo fornece proteção contra ataques offline de dicionário sobre a senha de autenticação. Além disso, satisfaz noções de segurança usuais quando a saída da PUF é imprevisível e permite ao cliente notificar o servidor em situações de emergência.

Sessão 6 – 10:30 às 11:30

An Evaluation of Prevalence Patterns in Infrastructured Wi-Fi Networks
K. S. Luz, M. C. Q. Farias, P. Solis and H. Garcia
Departamento de Engenharia Elétrica - Universidade de Brasília
Departamento de Ciência da Computação - Universidade de Brasília
{luzkerlla, mylene}@ene.unb.br, {pris, garciah}@cic.unb.br
This paper evaluates the reduction of management and control traffic in infrastructured IEEE 802.11 networks. The study is focused in Wi-Fi networks with low mobility nodes in which may be possible to decrease the amount of control and management traffic that is used to verify periodically the node connection with the access point (AP) and consequently, improve the network throughput for QoS sensitive applications. The experimental results show that it is possible to identify time intervals for activating an adaptive mechanism in the IEEE 802.11 protocol, based on two parameters that describe the level of node mobility: the signal noise variation and the prevalence of the node.


IRSOM: Automated Sorting of the Waste from Selective Collection using Content based Image Retrieval and Self-Organizing Maps
Alexandre F. Silva, Gustavo L. Sandri, Li Weigang, Ricardo L. de Queiroz, Mylene C. Q. de Farias University of Brasilia
alexandrefieno@iftm.edu.br, gustavo.sandri@image.unb.br, weigang@cic.unb.br, queiroz@ieee.org, mylene@cic.unb.br
As the most of the waste generated on the big cities are recyclable, it is necessary to establish a selective collection manner for correctly classifying them. The different kinds of bins available for recycling may confuse a not well-disciplined user who do not know where (in which trash) should discard his waste. This paper proposes a novel system, named IRSOM, to assist the common users on this task. It is based on Self- Organizing Maps (SOM) with Content-based Image Retrieval (CBIR) for automated sorting of waste from selective collection. Our system aims to assist the user by recognizing the waste to be dropped indicating the proper bin with acceptable precision, thus becoming a smart tool for helping social problems and environmental education else well.


Algoritmo Quatro Russos em Sistemas Paralelos
Gabriel Heleno Gonçalves da Silva e Alba Cristina Magalhães Alves de Melo
Departamento de Ciência da Computação Universidade de Brasília
gabriel_cic@aluno.unb.br, albamm@cic.unb.br
Os problemas relacionados à bioinformática são de grande relevância acadêmica para muitas descobertas e avanços científicos. Para obter resultados mais rápidos alguns projetos estão recorrendo ao uso do método dos Quatro Russos, visando acelerar a solução de subproblemas. Além disso, sistemas paralelos auxiliam na computação de subproblemas, permitindo que mais instâncias sejam computadas. Este artigo apresenta um overview da aplicação prática do método dos Quatro Russos em sistemas paralelos.


A Parallelization of the Cograph Editing Problem: A Biological Motivation
Ricardo R. C. Chaves, Maria Emília M. T. Walter e Maribel Hernandez-Rosales
Departamento de Ciência da Computação Universidade de Brasília
Institut für Informatik Universität Leipzig
ricardo.chaves@tst.jus.br , mia@cic.unb.br , maribel@bioinf.uni-leipzig.de
A cograph is a P4-free graph. Recently, it has been proved that graphs whose vertices represent genes and whose edges represent valid orthology relations between genes, must be cographs. However, due to divergence of genes during evolution, these orthology relations are not always predicted correctly. Therefore, there exists a need for a method to verify and correct those predictions. The cograph editing problem is about converting an arbitrary graph into a cograph by applying edit operations, i.e. adding and removal of edges. This problem has been shown to be NP-complete and therefore the implementation of heuristics and/or approximation algorithms are necessary. In this work, we present a pipeline for the cograph editing problem using parallelization techniques.


A Fully Automatic Tool for Domain-Oriented Sentiment Analysis of Tweets
Patrícia Lustosa Ventura Ribeiro, Li Weigang and Viorel Milea
TransLab - University of Brasilia
{patlustosa, weigang}@cic.unb.br, viorel.milea@gmail.com
Twitter is an online social network where users post status messages called tweets. Twitter platform generates massive data everyday, making this information important to many applications. Due to the great volume of tweets, we need big data algorithms to automatically analyze this data. Sentiment analysis of tweets is one of the most used ways to process this data, since it can provide many insights about the opinions of users related to a variety of topics. To achieve good results on evaluating tweets in a particular domain, it is interesting to construct a specific tool for these messages and related to that domain. The objective of this article is to develop an approach with hashtag expansion, spam detection, lexicon builder and sentiment analysis algorithms for building a fully automatic domain-oriented and tweet-specific sentiment analysis tool that handles all the phases of this problem.


Comparação Paralela de Sequências Biológicas Longas em GPUs Utilizando OpenCL
Marco Antônio Caldas de Figueirêdo Júnior e Alba Cristina M. A. de Melo
Departamento de Ciências da Computaçao Universidade de Brasília
marcoacf@aluno.unb.br, albamm@cic.unb.br
A busca de soluções que tratem com desempenho adequado o problema do alinhamento de sequências biológicas ainda é um desafio na área de Bioinformática. Algoritmos e ferramentas têm sido propostos desde a década de 1970, tendo recentemente maior foco na utilização de algoritmos de programação dinâmica adaptados para execução em GPUs. A maioria das propostas, contudo, não permitem a comparação de sequências longas, além de utilizarem linguagens específi- cas para a arquitetura testada. Neste artigo, apresentamos o projeto de adaptação da ferramenta CUDAlign para a plataforma Open Computing Language (OpenCL), favorecendo sua utilização em ambientes heterogêneos.

Palestra Convidada - 11:30-12:30
Mineração de dados: Modelos, Algoritmos, Sistemas e Aplicações
Prof. Wagner Meira Jr. (UFMG)
Resumo: Mineração de dados surgiu como a junção de várias áreas como bancos de dados, estatística e inteligência artificial e tem crescido continuamente nos últimos 20 anos. Recentemente, o surgimento dos conceitos de “big data” e "data science" acelerou ainda mais esse processo. Neste seminário vamos discutir pesquisa na área de mineração de dados e os seus elementos fundamentais, nominalmente modelos, algoritmos, sistemas e aplicações, assim como uma visão integrada desses elementos, como tal arcabouço já foi empregado em vários cenários como aplicações web e tendências futuras.

Bio: É professor titular do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais. Wagner é PhD em Ciência da Computação pela University of Rochester (1997), além de mestre e bacharel em Ciência da Computação pela Universidade Federal de Minas Gerais (1993 e 1990, respectivamente). Atualmente Wagner é pesquisador em produtividade do CNPq (nível 1C) e coordenador da linha de pesquisa em Descoberta do Conhecimento do INWeb – Instituto Nacional de Ciência e Tecnologia para a Web. Seus interesses de pesquisa são em sistemas paralelos e distribuídos, em particular na sua escalabilidade e eficiência, variando de sistemas massivamente paralelos a plataformas baseadas na Internet, e em algoritmos de mineração de dados, sua paralelização e aplicação em áreas como recuperação de informação, bioinformática e governança eletrônica.
Sessão 7 – 14:00 às 15:00

Estratégias de Análises Estáticas para Linhas de Produtos de Software
Giselle Barbosa Gomes Machado, Vander Ramos Alves e Rohit Gheyi
Universidade de Brasília
Universidade Federal de Campina Grande
gisellegiba@gmail.com, valves@unb.br, rohit@dsc.ufcg.edu.br
Linhas de Produtos de Software (LPS) têm sido amplamente utilizadas tanto na indústria quanto na área acadêmica. Uma linha de produto de software é uma família de produtos de software que compartilham um conjunto de características comuns. Um desafio chave em LPS é garantir a qualidade dos produtos instanciados. Pesquisadores e profissionais têm buscado garantir a qualidade dos produtos gerados pelas LPS com várias formas distintas de análise de software que são adaptadas para torná-las conscientes das especificidades de uma linha de produto (LP). O crescente campo de análise em LPS é amplo e diversificado, por isso é difícil para os pesquisadores e profissionais compreenderem quais são as semelhanças e as diferenças entre as características dos produtos. Foi proposta uma classificação das diversas estratégias de análises estáticas de LPS buscando permitir a pesquisa sistemática e a aplicação em trabalhos existentes. Esta classificação apresenta conceitos informais dos tipos de estratégias de análise para LPS que podem causar divergências de interpretação. Baseando-se nesta classificação, este artigo trata o estado da arte de estratégias de análises estáticas para LPS criando um breve resumo, analisa os tipos de análises em LPS discorrendo sobre as limitações e identifica possíveis trabalhos futuros.


Um Estudo de Caso Sobre o Impacto de Cenários Implícitos Sobre a Confiabilidade de Sistemas Concorrentes
Alexandre Vaz Roriz, Genaína Nunes Rodrigues
Departamento de Ciência da Computação Universidade de Brasília
alexandre.vaz@gmail.com, genaina@cic.unb.br
A presença de cenários implícitos é um fenômeno que pode ser observado em sistemas concorrentes modelados em cenários. Levar em consideração essa presença é fundamental em uma análise de confiabilidade do modelo concebido. Este artigo apresenta a aplicação de uma metodologia proposta para analisar justamente o impacto da presença de cenários implícitos sobre a confiabilidade de sistemas concorrentes. O sistema ser analisado é uma rede de câmeras autônomas que trocam informações entre elas no intuito de rastrear os objetos determinados. A idéia é utilizar a metodologia para avaliar como a presença de cenários implícitos pode influenciar a escolha sobre o posicionamento das câmeras para a obtenção da melhor confiabilidade. Os resultados obtidos mostram que a configuração desse sistema possibilita a ocorrência de cenários implícitos que podem fazer a diferença na definição da arquitetura do sistema.


Alinhamento Múltiplo Exato de Sequências em Plataformas de Alto Desempenho
Daniella Angelos, Daniel Sundfeld, Alba Cristina M. A. de Melo e George Teodoro
Departamento de Ciência da Computação Universidade de Brasília
Neste artigo são apresentadas algumas implementações de algoritmos exatos encontradas na literatura para o problema do Alinhamento Múltiplo de Sequências em plataformas de alto desempenho e são mostradas, também, algumas das estratégias utilizadas com frequência para redução do espaço de busca. Uma visão geral é dada sobre as implementações nas plataformas Cluster, FPGA e GPU utilizando o método de Carrillo-Lipman ou o algoritmo A*, para, em seguida, serem analisadas e comparadas com relação à sua performance na solução do problema.


Resiliência de Redes Sem Fio Usando Comunicação Cooperativa
Ulisses Rodrigues Afonseca e Jacir Luiz Bordim
Universidade de Brasília
urafonseca@ifg.edu.br, bordim@unb.br
A Comunicação Cooperativa é uma técnica para combater o desvanecimento do sinal em redes sem fio, permitindo, dentre outras aplicações, estender o raio de comunicação. Esta alternativa foi utilizada para garantir a conectividade da rede em soluções centralizadas e aplicáveis antes da operação da rede. Este trabalho apresenta um conjunto de técnicas que, a partir do conhecimento sobre elementos críticos da rede, permite a reconexão sobre demanda. A solução é distribuída e utiliza informações a dois saltos para reduzir o custo computacional. Resultados de simulação apontam que a conectividade da rede pode ser recuperada em 99% dos casos, enquanto mantém o consumo de energia em patamares aceitáveis.


A Multiagent Tool to Annotate Proteins: A Case Study in Fungi
Daniel da S. Souza, Maria E. M. T. Walter, Célia G. Ralha, Tainá R. Alencar
Department of Computer Science, University of Brasília - UnB
Identifying biological function of sequences is a key activity in genome projects. This task is done in the annotation phase, which has an automatic and a manual step, where the biologists use the results produced by the automatic annotation, besides their knowledge and experience, to predict the function for each sequence. This paper presents BioAgents-Prot, an an- notation system based on the multiagent approach, simulating biologists knowledge and experience for annotating proteins. BioAgents-Prot was defined with a cooperative approach, where different specialized intelligent agents work together to suggest proper manual annotation. The system architecture is a three-layer one, developed with Java Agent DEvelopment Framework- JADE, and Drools, a Java production rule system. We have done experiments with real data of the fungus Saccharomyces cerevisiae, in order to measure the performance of our BioAgents-Prot, having obtained good results.


Formalization of Name-Stamp Protocols
Thiago Mendonça Ferreira Ramos and Mauricio Ayala-Rincon
Departamento de Ciência da Computação - Universidade de Brasília
thiagomendoncaferreiraramos@yahoo.com.br, ayala@unb.br
In Computer Science, mathematical formalization is very important to assure systems are correct avoiding mistakes and incompleteness in proofs. The main idea of this work is to provide a characterization of security for Name-Stamp cryptographic protocols, as described by Dolev and Yao in their seminal paper, and to formalize it in the proof assistant called Prototype Verification System.

Sessão 8 – 15:00 às 16:00

Controlador de SLA para uma Arquitetura de Federações de Nuvens BioNimbuZ
Breno R. Moura Gabriel Fritz e Aletéa P. F. Araúo
Departamento de Ciência da Computação - Universidade de Brasília
mourabreno@gmail.com, bielfritz@gmail.com, aleteia@cic.unb.br
Com o aumento de investimentos no setor da computação em nuvem e a disputa cada vez mais forte por consumidores que utilizem servic ̧os em nuvens, ofertas de serviços surgem cada vez mais acirradas para conquistar o público consumidor desse mercado. E para garantir que esses provedores de serviços em nuvens cumpram o que estão ofertando existem contratos que são assinados entre as partes envolvidas, onde é iniciado o ciclo do contrato chamado de Acordo de Nível de Serviço, em inglês, (Service Level Agreement - SLA).


Sudoku Solver: Estratégias Racionais com Abordagem Multiagente
Luísa Behrens Palmeira e Célia Ghedini Ralha
Departamento de Ciência da Computação - Universidade de Brasília
lubpalmeira@gmail.com, ghedini@cic.unb.br
O Sudoku é um jogo de raciocínio lógico famoso em todo o mundo criado, segundo [3], nos anos 70 pelo americano Howard Garns. Para resolver um Sudoku, os seres humanos utilizam dedução lógica. No entanto, ao implementar um solucionador, utilizam a técnica de tentativa e erro, com alto custo de execução. Esse artigo descreve o projeto de um sistema multi-agente solucionador de Sudoku que utiliza estratégias racionais já conhecidas, Naked, Hidden e Intersection. O desenvolvimento do projeto foi feito utilizando a metodologia Tropos.


Reconstrução Morfológica para Abordagens Paralelas
Jeremias Moreira Gomes, George Luiz Medeiros Teodoro, Alba Cristina M. A. de Melo
Departamento de Ciência da Computação - Universidade de Brasília
The analysis of large data sets in pathological ima- ges offers significant opportunities for research on the morpho- logy of disease, but these studies suffer limitations in their pipeline of resource requirements[1]. Nowadays, particularly in studies of correlation of images in neuro-oncology at the morphology of glioblastoma(aggressive brain tumors), modern scanners capture quickly 100Kx100K images up, and allow researchers to collect data sets that can reach dozens of gigabytes in size. The process which these sets of images can pass, constitute normalization, segmentation, computational characterization and classification. Segmentation is the most expensive stage and consists of a pipeline of substages. In these substages, several are using the Morpho- logical Reconstruction, which is a method to extract information about the shapes of an image[2], making their performance critical in process. In several areas of study, the demand for the use of Morphological Reconstruction encourage research in high performance focused on speedup(ratio of sequential execution time and parallel execution time) in these algorithms. Many proposals and solutions can be seen in [3], [4], [5] and [6]. This paper presents an approach for the Morphological Reconstruction free of race conditions that allows to implement vectorized and parallel optimizations that will be applied for Intel Xeon Phi.


A No-Reference Audio-Visual Video Quality Metric
Helard Becerra Martinez e Mylène C. Q. Farias
Department of Computer Science
helardb@unb.br, mylene@ieee.org
Three psychophysical experiments were carried out to understand how both audio and video components interact and affect the overall audio-visual quality. In the experiments, subjects independently evaluated the perceived quality of (1) video (without audio), (2) audio (without video ), and (3) video with audio. With the help of the perceptual models obtained using subjective data, we propose 3 no-reference audio-visual quality metrics composed of combination functions of a video and an audio quality metrics. The no-reference video quality metric consists of a blockiness and a blurriness metrics, while the NR audio metric is modification of the SESQA metric. When tested on our database and on a public database, the metrics performed better than single video NR and RF metrics available in the literature.


Elasticity for the Consumption Parallelism Increase
Eduardo Henrique Teixeira e Aletéia Patrícia Favacho de Araújo
Department of Computer Science - University of Brasilia (UnB)
edu.henr@gmail.com, aleteia@cic.unb.br
The elasticity in computing consists in dynamically and properly sizing the resources needed to process a distributed application. To this purpose, mechanisms are needed in order to avoid the phenomenon of the detection threshold of elasticity up or down. This paper proposes a middleware to analyze dynami- cally the flows of message queues, and a mechanism to increase the parallelism of consumption based on the flow behavior. Thus, the architecture of middleware IOD (Increase On Demand) to support the increase and the decrease of threads is shown to contain the growth of message queues, using the technique of heuristic-based limits for a given time, and the grouping message subqueues according to a classification criterion.


Building Ubiquitous Games that Change with its Surroundings
Fabricio N. Buzeto, Carla D. Castanho, Ricardo P. Jacobi
Departamento de Ciência da Computação, Universidade de Brasília - UnB
fabricio@aluno.unb.br, {carlacastanho,rjacobi}@cic.unb.br
The purpose of ubiquitous computing lies on mak- ing computation invisible to users eyes. Ubiquitous games, on the other hand, try to embed electronic gaming experience into users lives, blending virtual and real components into the play. This type of games represents a challenge for game designers since they need to know which computing resources can be used to create the metaphors that will lead to new experiences. Reconfigurable games are a subset of such games. Their novelty resides in creating games that self-adapt to changes in the real world, creating an ever changing gaming experience. This paper discusses the concept of reconfigurable games. More specifically, we identify the main characteristics of such games and discuss some of the challenges in their development, focusing on the diversity of interaction capabilities available.

Sessão 9 – 16:20 às 17:20

Provendo Múltiplas Transferências de Dados em Massa com Roteamento Multicast e Incast em Redes Ópticas Elásticas
Léia Sousa de Sousa e André Costa Drummond
Departamento de Ciência da Computação - UnB
leiassousa2008@gmail.com, andred@unb.br
As aplicações de multi bulk data transfer (MBDT), multi transferências de dados em massa em uma rede geo- graficamente distribuída, podem se beneficiar da flexibilidade e adaptabilidade das redes ópticas elásticas (EON), como meio ideal para o transporte destes tipos de dados. Em redes de datacenter, o processo de sincronização de dados demanda o envio de dados de um nó para os demais, ou de todos para um. Estes cenários podem ser atendidos utilizando-se as técnicas de roteamento multicast e incast, respectivamente. Este trabalho propõe o estudo de uma solução de alocação dinâmica de espectro em EONs, que seja sensível à sincronização de datacenters.


A no-Reference 3D Video Quality Metric
Alessandro R. Silva e Mylène C. Q. Farias
Instituto Federal de Goiás
University of Brasília
alessandro.rodrigues@ifg.edu.br, mylene@unb.br
In the past years three-dimensional (3D) video has been perceived as the next development in video. And, as in all communications services, the level of acceptability and popularity of the 3D applications in the next following years will be strongly correlated to the reliability of the service and the quality of the content provided. Although a lot of progress was made in the development of 2D objective video quality metrics, the area of 3D video quality metrics is still in its infancy. Most of the proposed metrics are full-reference (FR) metrics that use the original video to obtain an estimate of quality. We propose a 3D no-reference objective quality metric that estimates 3D quality taking into account spatial distortions, excessive disparity, and temporal information of the video. The metric is resolution and frame-rate independent. To estimate the amount of spatial distortion in the video, the proposed metric uses a blockiness metric. The contribution of motion and excessive disparity to 3d quality is calculated using a non-linear relative disparity measure and a frame-rate proportional motion measure. The metric’s performance is verified against the COSPAD1 database. The MOS predicted using the proposed metric obtained good correlation values with the subjective scores. The performance was on average better than the performance of two simple 2D full reference metrics: SIMM and PSNR.


Nova Política de Armazenamento em Nuvens Federadas para a Plataforma BioNimbuZ
Diego Rodrigues Azevedo Breno Rodrigues Moura Aletéia Patrícia Favacho de Araújo
Departamento de Ciência da Computação - Universidade de Brasília
This paper presents the overview about Cloud- based storage systems, focusing on how the application BioN- imbuZ handles it, and what else can be done to improve even more their system.


Sensors in Reconfigurable Modular Robot for Pipeline Inspection: Design and Tests of a Prototype
Ana Carolina Cardoso de Sousa e Carla Maria Chagas e Cavalcante Koike
Universidade de Brasília - UnB
anacsousa1@gmail.com, ckoike@unb.br
Pipeline inspections are essential for an updated diagnosis in Oil and Gas Industry, but manual inspection in remote areas implies great expenses in the long term. Therefore, this process optimization requires autonomous and versatile systems, such as Self-reconfigurable Modular Robots (SMR). The SMR are autonomous machines with variable morphology, therefore they have the potential to deal with this kind of problem. Reorganizing its parts connectivities, SMR offer major flexibility and tolerance to failure with a low cost. This work aims to present a review of the most recent SMR and design a low cost Reconfigurable Modular Robot with embedded sensors suitable for pipelines inspection, which reports the presence of obstacles and the position/orientation of each robot in the system. At a typical scenario of leakage in pipelines, a self-reconfigurable modular robot reduces costs such as production loss, manual inspections, repairs and maintenance at pipelines. This area of robotics promises such a versatile system that in a near future it can change the processes automation of inspection, repair and maintenance at remote environments, as pipelines.


Entities in Vertices: A Consolidation Draft for Graph Database Diagrams
Gustavo C. G. van Erven, Maristela Holanda e Rommel N. Carvalho
Department of Computer Science (CIC) University of Brasília (UnB)
{gustavo.erven, rommel.carvalho}@cgu.gov.br, mholanda@cic.unb.br
The graph databases are grown as the linked data application get more popular. Beside the relational database, the focus are in vertices and edges and not tables, makes this kind of database more interesting to problems which focus in relationship networks. A gap in the graph database is the lack for a standard rep- resentation to design the models. Several authors and companies have proposed it our representation, but they are not a common language as the relational model diagram. In this paper, we proposed a consolidation for four types of graph structures using several notations, including from relational model. Starting with a case study, the model was rewrite using the symbols to present a example for: a simple graph, a attributed graph, a hypergraph and a nested graph.


Agregação Dinâmica de Dados e Espectro em Redes Ópticas Elásticas
Lucas R. Costa e André C. Drummond
Departamento de Ciência da Computação - UnB
lucasrc@unb.br, andred@unb.br
Impulsionada pelo rápido crescimento do tráfego da Internet e das aplicações emergentes, as redes ópticas estão passando por mudanças significativas em sua tecnologia de transmissão. A comunidade científica tem buscado alternativas para uma transmissão óptica que possa aproveitar melhor os recursos disponíveis e ao mesmo tempo possa atender as recentes demandas de tráfego. O paradigma de redes ópticas elásticas surgiu com o objetivo de fornecer um melhor aproveitamento dos recursos da rede, devido a sua grande flexibilidade e escalabilidade na atribuição de espectro, e suportar o rápido crescimento do tráfego na Internet. Este trabalho descreve as principais características deste paradigma, apresenta as principais linhas de pesquisa e propõe uma abordagem baseada em agregação óptica para este novo paradigma.

Sessão 10 – 17:20 às 18:30

Model to Estimate the Size of a Hadoop Cluster - HCEm
José Benedito de Souza Brito and Aletéia Patrícia F. Araújo
Department of Computer Science Universidade de Brasília (UnB)
jobepvh@yahoo.com.br, aleteia@cic.unb.br
This paper describes a model which aims to estimate the size of a cluster running Hadoop framework for the proces- sing of large datasets at a given timeframe. As main contributions it defines (i) a light layer of optimization for MapReduce jobs, (ii) presents a model to estimate the size cluster for a Hadoop framework and (iii) performs tests using a real environment - the Amazon Elastic MapReduce. The proposed approach works with the MapReduce to define the main configuration parameters and determines computational resources of hosts in the cluster in order to meet the desired runtime for the requirements of a given workload requirement. Thus, the results show that the proposed model is able to avoid to over-allocation or sub-allocation of computing resources on a Hadoop cluster.


Ubigames for Rehabilitation
Luciano H. O. Santos, Carla D. Castanho
Departamento de Ciência da Computação Universidade de Brasília
lucianohenriquesantos@gmail.com, carlacastanho@cic.unb.br
Ubiquitous games may greatly improve player’s immersion and engagement and lead to more effective results in different fields, such as education, technical trainning and health. One field that could greatly benefit from ubigames is rehabilitation therapy, since it involves a long and continuous process, in which patient motivation is considered a crucial factor for effectiveness and recovery speed. This paper proposes an extension to traditional ubiquitous software architecture in order to support the great adaptability and context awareness required by rehabilitation therapy processes, by the definition of new entities and interfaces and a new specialized application, which maps different input/output devices to ubigames controls and centralizes health metadata.


Proteção de Sistemas Criptográficos Contra Ataques Laterais com Processador de Instrução Única
Matheus C. S. C. Pimenta, Marcus V. Lamar, Diego F. Aranha
Departamento de Ciência da Computação - Universidade de Brasília
matheuscscp@aluno.unb.br, lamar@cic.unb.br, dfaranha@gmail.com
Este trabalho apresenta os resultados preliminares da implementação de um sistema computacional baseado em um processador de instrução única (OISC). Estes processadores podem ser usados em sistemas criptográficos a fim de aumentar a sua segurança contra ataques laterais. Para permitir o desenvolvimento do sistema, um programa montador e um simulador do processador foram construídos. São apresentados neste trabalho os resultados obtidos com a implementação de um processador baseado na instrução SUBLEQ executando um programa de cálculo dos números de Fibonacci.


uImpala - A Game Engine for Ubigames Developers
Matheus C. S. C. Pimenta, Fabricio N. Buzeto, Luciano H. O. Santos,
Carla D. Castanho, Ricardo P. Jacobi
Departamento de Ciência da Computação, Universidade de Brasília - UnB
{matheuscscp,fabricio}@aluno.unb.br, lucianohenriquesantos@gmail.com, {carlacastanho,rjacobi}@cic.unb.br
Ubigames focus on blurring the boundaries between the game world and the real world. This entices a higher level of engagement and immersion on players, an effect of great interest by the electronic game industry. Game engines have been employed by this industry to overcome several challenges and are a well established solution. However, ubigames still lack a solution that handles both the challenges of game development and those faced by ubiquitous computing applications. Here is presented uImpala, a game engine for ubiquitous games that provides dynamic integration of heterogeneous devices and technologies for game developers.


Melhoria do Processo de Implementação de Software Através da Aplicação da Ferramenta SIPOC e dos Métodos de Gestão: BPM e Balanced Scorecard
Lázara Aline de Oliveira Sousa Silveira, Edgard Costa Oliveira, Simone B. Simão Monteiro
Departamento de Ciências da Computação - Universidade de Brasília
Departamento de Engenharia de Produção - Universidade de Brasília
lalynne@gmail.com, ecosta@unb.br, simoneborges@unb.br
O objetivo deste artigo consiste na realização de um estudo de processos com base na combinação de três técnicas a fim de determinar a contribuição de cada uma delas na gestão de riscos do processo de Implementação de Software. A primeira delas, o SIPOC (Supllier-Input-Process-Output-Customer), fornece um mapeamento em nível macro, apresentando quais são as entradas e saídas de cada processo, a segunda, o BPM (Business P rocess Management) que realiza a integração e automatização de processos e fluxos de trabalho, e a terceira, o BSC (Balanced Scorecard), onde obtém-se um modelo de avaliação e medição de desempenho da gestão dos processos executados na organização. O Estudo de Caso foi aplicado na área de Tecnologia da Informação de uma Instituição Financeira, com o objetivo de desenvolver a gestão de riscos na atividade de codificação do processo de Implementação de Software. Os resultados obtidos com esse estudo mostram que a combinação do SIPOC, BPM e BSC auxiliam as organizações no gerenciamento de seus negócios e no processo de desenvolvimento de novas soluções de TI.


A Finite State Machine Controller for the Simulated Car Racing Championship
Bruno H. F. Macedo, Gabriel F. P. Araujo, Gabriel S. Silva, Matheus C. Crestani, Yuri B. Galli and Guilherme N. Ramos∗†
University of Brasília
gnramos@unb.br
Electronic games can simulate extremely complex situations and be used for benchmark tests for specialized soft- ware. TORCS simulates a very realistic environment, and is ideal for comparing for autonomous car controllers and, consequently, the machine learning techniques applied in generating such controllers. This paper presents an AI approach to efficiently generating a car controller based on a finite state machine. Experimental results show how the controller’s parameters are selected and their effect on its performance.


Análise de Rede de Colaboração Científica: Estudo de Caso no Departamento de Ciência da Computação da UnB
Aurélio Ribeiro Costa e Célia Ghedini Ralha
Departamento de Ciência da Computação - Universidade de Brasília
arcosta@gmail.com, ghedini@cic.unb.br
Redes de colaboração científica são redes sociais cujos relacionamentos representam algum tipo de interação científica. Neste trabalho, a análise de redes de colaboração científica foi aplicada à rede formada pelos 48 docentes do Departamento de Ciência da Computação (CIC) da Universidade de Brasília (UnB). O trabalho realizado inclui a criação de um banco de dados com a identificação dos docentes relacionados aos dados de autoria de 361 artigos completos publicados em periódico. Os dados dos docentes foram extraídos dos currículos Lattes para o desenvolvimento de um banco de dados NoSQL utilizando o Neo4J. Como resultado deste trabalho, foi observado um grafo de colaboração com 388 relacionamentos de coautoria em um grafo desconexo, uma vez que foram identificados alguns autores sem publicação conjunta (sem conexão).

Sessão extra de artigos

Reconstrução de Visões Arquiteturais de Software por Meio de Análise Estática do Código Fonte de Sistemas Legados
Renato Edésio Rodrigues de Paiva, Genaína Nunes Rodrigues e Marcelo Ladeira
Departamento de Ciência da Computação - Universidade de Brasília
Modernizar um sistema legado é um processo dispendioso que requer profunda compreensão da arquitetura do sistema e de seus componentes. Sem um entendimento da arquitetura do software que será reescrito, todo o processo de reengenharia pode falhar. Quando da ausência da documentação arquitetônica, faz- se importante um processo de recuperação de arquitetura que permita a compreensão completa do software. Tal processo envolve o mapeamento de entidades do código fonte em modelos de alto nível. Neste sentido, o presente estudo propõe um método para extração de modelos arquiteturais do código fonte – extração que se dá através do uso de ferramentas de análise estática do código; as informações extraídas são abstraídas e expressas na notação Unified Modeling Language (UML). O resultado é a criação de um documento de arquitetura de software que representa as visões estruturais implementadas em um sistema.


Seleção de Atividades do Processo de Implementação de Software com uso do Método Multicritério AHP
Lázara Aline de Oliveira Sousa Silveira e Edgard Costa Oliveira
Departamento de Ciências da Computação - Universidade de Brasília
lalynne@gmail.com, ecosta@unb.br
Este trabalho apresenta uma discussão da aplicação do Processo de Análise Hierárquica (AHP), que é um método multicritério capaz de auxiliar a tomada de decisão de gestores de Tecnologia da Informação (TI) no processo de implementação de software. Para alcance dos objetivos foi realizado estudo de caso na Diretoria de TI de uma instituição financeira, por meio de uma pesquisa exploratória com analistas de TI e Gerentes de Equipe com aplicação de questionários para coleta de dados. Embora seja pouco difundido dentro das organizações e, complexo quando se tem muitas alternativas para avaliação, os resultados demonstram que o método multicritério AHP é adequado para análise de risco, pois é eficiente no julgamento dos críterios selecionados e das alternativas avaliadas.


Modelagem Transacional de um Núcleo de Processamento para Plataformas Virtuais
Tiago Trindade e Ricardo Jacobi
Instituto Federal de Brasília – IFB Doutorando do PPGA, ENE - Universidade de Brasília
Departamento de Ciência da Computação - Universidade de Brasília
tiago@linux.com, jacobi@unb.br
Este artigo apresenta diferentes modelos SystemC em nível transacional de um núcleo de processamento, baseado na ISA MIPS32, que podem ser utilizados no desenvolvimento de plataformas virtuais aplicadas a exploração do espaço arquitetural de SoC e MPSoCs através da abordagem PBD (Platform-based Design) em modelos ESL (Electronic System Level). Os modelos foram construídos em nível transacional, utilizando SystemC TLM 1.0 e TLM 2.0. As características do SystemC TLM 2.0 permitiram uma melhor estrutração do projeto, simplificando a depuração e melhorando a escalabilidade da solução.


Building Social Machines from Social Networks Data
Eduardo Santos and Fernanda Lima
Departamento de Ciêcia da Computação - Universidade de Brasília
eduardo@gnumasters.com, ferlima@cic.unb.br
Social machine is a rather new approach to deal with relevant problems in society, blending computational and social elements into software. It can be an extension of the Semantic Web, creating processes in which people do the creative work and the machine does the administration. This article presents a proposal to apply this approach in a relevant matter to Latin America and Caribbean (LAC) countries. The result is demonstrated by the implementation of a theoretical solution in violence and criminality domain.


Implementação de Protocolo de Comunicação para Locomoção Unidimensional Ápode
D. M. Viana, A. C. C. de Sousa e C. M. C. C. Koike
Dep. Eng. Mecânica - Universidade de Brasília
Dep. Ciência da Computação - Universidade de Brasília
Situações que envolvem o resgate de vítimas sob escombros devido a deslizamentos de terra ou desmoronamentos dificultam o uso de robôs com configuração fixa devido os obstáculos e a precariedade dos terrenos. Tais situações têm motivado a pesquisa e o desenvolvimento de robôs modulares autorreconfiguráveis, com características que permitem alterar a forma e adaptar-se às condições do terreno. Tais características requerem um sistema de comunicação que viabilize a reconfiguração e a locomoção destes robôs. No presente trabalho é apresentado um sistema de comunicação para robôs modulares, incluindo hardware e protocolos. Para a verificação do sistema foi utilizado o protótipo ErekoBot, um robô modular desenvolvido na Universidade de Brasília. A partir dos recursos do módulo existente são definidas as funções da camada e as características dos protocolos, é avaliado o design de hardware e são testados os protocolos em ambientes controlados. Os resultados destes testes corroboram a eficiência do protocolo e contribuem para o avanço nas pesquisas relacionadas à locomoção e reconfiguração.


Robôs Modulares em Configuração Hexápode
Carla M. C. C. Koike, Leonardo Luiz Coimbra Gonçalves, Ana Carolina Cardoso de Sousa e Dianne Magalhães Viana
Depto. De Ciência da Computação e Depto. De Engenharia Mecânica - Universidade de Brasília
Este trabalho descreve o estudo da locomoção de um robô modular em configuração hexápode. Além do estudo da trajetória de cada pata, diferentes modos de locomoção são descritos. São testadas quatro diferentes configurações de robôs hexápodes, todas elas possuem uma coluna rígida com cinco módulos, mas patas com diferentes graus de liberdade. São apresentadas simulações da cinemática direta e inversa das diferentes configurações assim como a movimentação real de cada pata, e aspectos gerais da movimentação do robô com seis pernas nessas configurações.


Análise do Transcritoma do Fungo Pichia Pastoris Obtido do Sequenciador de Alto Desempenho Illumina
Erick P. L. Guimarães, Maria Emília M. T. Walter
Departamento de Ciência da Computação - Universidade de Brasília
erik_pizani@hotmail.com, mia@cic.unb.br
Pichia pastoris é uma levedura metilotrófica muito utilizada como hospedeira para a expressão de proteínas em processos industriais. O presente trabalho de iniciação científica faz parte de um projeto para sequenciar e analisar transcritos da P. pastoris, coordenado pelo Prof. Fernando Araripe, do Laboratório de Biologia Molecular da Universidade de Brasília, tendo sido aprovado pelo CNPq e FAP-DF. Neste trabalho, foi desenvolvida a visualização dos transcritos da P. pastoris, que foram comparados com o seu genoma. Para isso, foi utilizado o Genome Browser, uma ferramenta mantida pela UCSC (University of California, Santa Cruz), que foi instalado no Laboratório de Bioinformática/UnB. As informações da P. pastoris estão disponíveis em “http://www.biomol.unb.br/ppastoris/”. Além disso, foi incluída a opção de busca por uma sequência no genoma, realizada com a ferramenta Blat. Na página, pode-se acessar diversas outras informações, como alguns tipos de RNAs não-codificadores, pequenos (non-coding RNAs - ncRNAs) e longos (long non-coding - lncRNAs), obtidos pelos colaboradores do projeto (da Universidade de Brasilia e da Universidade de Leipzig), além da anotação do genoma do organismo disponibilizada pelo NCBI. Uma pesquisa mais profunda sobre o Genome Browser permitiu disponibilizar uma melhor visualização das informações sobre a P. pastoris, com mais riqueza de detalhes em cada tipo de sequência, aproveitando ao máximo as funções oferecidas pelo programa da UCSC.