Resumos
Sexta (07/11)
Sessão 1 – 14:00 às 15:00
A Importância da Tecnologia da Informação no Contexto da Saúde: Um Estudo de Caso no
Serviço de Saúde do Exército Brasileiro
Francisco de Assis Neto e Edgard Costa Oliveira
Departamento de Ciência da Computação
Universidade de Brasília - UnB
mcfaneto@yahoo.com.br, ecosta@unb.br
Este artigo é parte de uma pesquisa em andamento que tem como objetivo apresentar propostas de requisitos de
interoperabilidade para os Sistemas de Informação em saúde
do Exército Brasileiro, aos moldes propostos pela Organização
Mundial de Saúde (WHO) e ITU e Ministério da Saúde
(Brasil). A pesquisa utiliza métodos qualitativos e quantitativos,
pesquisa bibliográfica, análise documental, estudo de caso,
Survey, entrevista, análise documental e observação direta.
Oportunidade em que o Exército se prepara para a construção
do Prontuário Eletrônico de Pacientes (PEP) e a sua integração
com os demais sistemas existentes, bem como os do Ministério
da Saúde e demais Forças Armadas.
Aplicação de Tecnologia da Informação por APP em Transportes Aéreos
Ana Carolina dos S. Pergentino, Lucília P. de Oliveira, Li Weigang
Departamento de Ciências da Computação, Universidade de Brasília – UnB
anacpergentino@hotmail.com, lucilia.p.oliveira@gmail.com, weigang@cic.unb.br
Este artigo apresenta uma visão geral a respeito de
aplicações (Application - APP) para dispositivos móveis e também
como essa ferramenta
pode ser utilizada em transportes aéreos. É composto pelos conceitos
referentes às aplicações e a sua utilização por meio de tecnologia
da informação aplicada
a aeroportos na área de comunicação interna, entre funcionários, e
externa, para passageiros. É proposto um direcionamento para que os
próximos aplicativos
que serão criados, por meio da explanação dos aplicativos em vigor e
possíveis mudanças que eles poderiam ter para melhor esse ramo, não
só no Brasil, mas em todo o mundo.
Proposta de Aplicação e Avaliação de Jogos Educacionais para o Ensino de Computação no Ensino Fundamental
Gustavo Arcanjo Silva e Fernanda Lima
Engenharia de Computação Brasília - Universidade de Brasília
Ciência da Computação - Universidade de Brasília
gustavoarcanjo@gmail.com, ferlima@unb.br
Nessa proposta é feita a sugestão de um forma de
avaliar de jogos educacionais para o ensino de computação no ensino
fundamental brasileiro,
com a finalidade de identificar particularidades da aplicação de tais
ferramentas educativas no contexto do nosso país. A pesquisa é apoiada
em pesquisas
a respeito de jogos educacionais, avaliação de jogos, ensino de
computação com jogos e estratégias para favorecer o aprendizado.
Análise do Processo de Gestão do Sistema de Processo Seletivo em um Instituto Federal de Educação
Daniel Souza Coelho e Simone Borges Simão Monteiro
Departamento de Ciência da Computação, Programa de Pós-graduação em Computação Aplicada
Universidade de Brasília
daniesc@gmail.com, simoneborges@unb.br
Não é novidade a importância do mapeamento,
análise e melhoria dos processos de negócio nas organizações.
Porém, cada dia se torna mais clara a necessidade das organizações
analisarem seus processos, trabalhando em sua melhoria. Neste artigo é
apresentado um trabalho de identificação e mapeamento de um processo
estratégico de um instituto federal de educação profissional, desde
o modelo atual (AS-IS) até o modelo ideal (TO-BE). A escolha
dos processos estratégicas foi feita com base na ferramenta SIPOC.
Navegação Autônoma Geoposicionada por Banco de Dados Assistidos por GPS
Cesar do Amaral*, José M. C. Limab, Luiz E. S. Oliveira† , Li Weingang*
Depto. Ciencia da Computação*, Depto. Mecanica† Universidade de Brasília, Brasília - DF
amaral12342012@hotmail.com,{nitcales,luizeduardo.ufs}@gmail.com, weigang@unb.br
O objetivo da pesquisa é observar a abrangência e
a capacidade de armazenamento da associação da informação
informatizada do espaço
geográfico através de um sistema de Geoposicionamento referenciado
por um banco de dados de alta precisão,a partir de banco de dados de
elevada precisão, dentro de um sistema SIG, referenciado por GPS,
suportado por técnicas de Mineração de Dados, algoritmos com
modelagem por lógica Fuzzy em associação com equações matemática
para diluição dos erros e validação contínua dos dados
processados. O assunto tratado nesta pesquisa é favorável a muitos
desdobramentos
pontuais, podendo conduzir a desenvolvimentos futuros. Como proposta
imediata para novos trabalhos a integração da base de dados de alta
precisão com sistemas mecatrônicas para guiamento autônomo de
veículos elétricos.
Modelos Preditivos para Mapeamento de Risco de Corrupção de Servidores Públicos Federais
Ricardo Silva Carvalho, Rommel Novaes Carvalho
Departamento de Ciências da Computação Universidade de Brasília
ricardosc@gmail.com, rommel.carvalho@gmail.com
A Controladoria-Geral da União(CGU),pormeio da
Diretoria de Pesquisas e Informações Estratégicas (DIE), articula ações
de produção de
informações estratégicas, investigando possíveis irregularidades
cometidas por servidores públicos federais. Com uma equipe reduzida e
inúmeras responsabilidades, a DIE necessita de métodos automatizados
aplicáveis a grande volume de dados para aferir corruptibilidade de
servidores, buscando assim priorização de trabalho e atuação eficaz
baseando-se em aspectos de corrupção. Este trabalho apresenta a
aplicação de mineração de dados para mapear risco de corrupção de
servidores públicos federais, usando várias bases de dados a que a CGU
tem acesso. O processo CRISP-DM é a referência para as fases da
mineração de dados. Inicialmente, realizam-se testes de hipótese para
verificar se há dependência entre corrupção e cada conhecimento
explorado. Após pré-processamento com agrupamento, normalização e
discretização, são gerados datasets diferentes para cada contexto de
corrupção e aplicados algoritmos de aprendizagem de máquina para gerar
modelos de regressão, como Support Vector Machines e Random Forest.
Para seleção do melhor modelo, compara-se resultados de cada algoritmo
para cada dataset, avaliando métricas como precisão, kappa e acurácia.
Para cada contexto, o modelo de especialistas é comparado aos modelos
gerados, confirmando afirmações prévias e trazendo novas visões ainda
não conhecidas pelos especialistas. O mapeamento de risco de corrupção
com mineração de dados abordando os aproximadamente 1 milhão de
servidores públicos federais ativos sustenta a priorização de trabalho
da DIE, aumentando as chances de investigação de possíveis corruptos, e
possibilita o direcionamento de esforços de auditoria e fiscalização,
fortalecendo a prevenção de corrupção e otimizando o uso de recursos e
pessoal da CGU em todo o país, gerando, assim, impacto em âmbito
nacional.
Sessão 2 – 15:00 às 16:00
playCB: API Gráfica para Programadores Inexperientes
Sinayra Pascoal Cotts Moreira e José Carlos Loureiro Ralha
Departamento de Ciência da Computação, Universidade de Brasília - UnB
sinayra@outlook.com, ralha@cic.unb.br
Este artigo apresenta a API gráfica playCB,
desenvolvida para que programadores inexperientes, como alunos de
Computação Básica, usem modelagem gráfica como ferramenta para
consolidar conceitos e fundamentos adquiridos já no primeiro semestre
de curso. Espera-se com isso aumentar o interesse pelas disciplinas
avançadas de computação bem como as matérias relacionadas das
áreas de matemática e física, evitando assim a evasão dos cursos de
computação.
Utilizando o Método Delphi e Árvore de Falhas em Análise de Riscos em Sistemas de Informação em Saúde
Francisco de Assis Neto, Edgard Costa Oliveira, João Carlos Félix Souza, João Mello da Silva
Departamento de Ciências da Computação Universidade de Brasília - UnB
mcfaneto@yahoo.com.br, ecosta@unb.br, jocafs@unb.br, joaomello@unb.br
Este artigo apresenta uma introdução sobre a
importância da gestão de riscos na tomada de decisão, árvore de falhas
(FTA), Delphi. O método deu-se com a aplicação de ferramentas da ISO
31010 para a detecção de riscos em sistemas de informação em saúde, de
maneira qualitativa e quantitativa, através de um estudo de caso real
ocorrido naquela Diretoria de Saúde do Exército Brasileiro, com uma
investigação dedutiva, com especialistas, que validadas, trará
melhorias no tocante ao tratamento da incerteza. Com respostas aos
questionamentos foi possível detectar através de meios orientados pela
ABNT NBR ISO 31010. Ao final do trabalho, os seus resultados, discussão
e uma conclusão sobre o estudo de caso e referências a literatura
necessária.
New Features and Refined SVM Improve snoRNA Identification in snoReport
João Victor de A. Oliveira∗, Pedro A. Berger∗, Maria Emília M. T. Walter∗ and Jana Hertel†
∗Department of Computer Science - University of Brasilia,
†Department of Computer Science and Interdisciplinary Center for Bioinformatics - University of Leipzig
snoReport [1] identifies the two main classes of
snoRNAs (box H/ACA and box C/D) in single sequences, using secondary
structure prediction combined with machine learning. This work aims to
improve snoReport, extracting different parameters for both box H/ACA
and C/D box snoRNAs, a more sophisticated technique for the SVM
training phase with recent data of vertebrate organisms and new
versions of tools previously used in snoReport, together with a refined
approach to find good values for C and γ SVM parameters. The H/ACA box
snoRNA classifier had an improvement of 25% in sensitivity and 13.85%
in F-score, when compared to the parameters previously chosen with the
same training data. These results showed that the new snoReport
detected more true positives (sensitivity), while the improvement of
F-score avoided false positives and false negatives. The C/D box snoRNA
classifier had an improvement of 13.33% in sensitivity and 6.57% in
F-score, compared to the previous version of snoReport. In the
validation of the new version of snoReport, we predicted 69.43% of all
the sequences of different organisms, which showed that it is good to
identify snoRNAs with high sensitivity and specificity in different
species.
Análise de Transmissão de Vídeo em Multicast com PIM sobre RIP e OSPF
Alex Anderson Dantas Fidelis e Claudio Xavier de Oliveira
Departmento de Ciência da Computação - Universidade de Brasília
alekez@unb.br, claudioxavier@unb.br
A crescente introdução de serviços de transmis-
são de conteúdo outrora apenas pertencentes à equipamentos dedicados
(rádio, televisão), sobre a web, é uma área que deve ser bastante
observada pelos responsáveis pelas redes de computadores. Um meio de
otimizar essas transmissões é utilizar difusão de informação
através de multicast. Fazendo uso desse artifício há otimização
dos recursos de rede evitando replicações desnecessárias de fluxos,
por exemplo. Este artigo visa mostrar a aplicação do protocolo de
multicast PIM sobre os protocolos de roteamento unicast RIP e OSPF em
um ambiente real. As simulações serão realizadas com intuito de
obter métricas como latência, perda de pacotes, tempo de
convergência e recuperação a falhas, bem como a melhor combinação
entre o PIM e os protocolos RIP e OSPF; afim de se obter o melhor
cenário para futuras aplicações.
Gestão de Riscos na Execução de Serviços de TI em Contratos Baseados na Instrução Normativa 04/2010
Gustavo de Freitas Alves, Simone Borges Simão Monteiro
Departamento de Ciência da Computação Universidade de Brasília
gustavo.ucb@gmail.com, simoneborges@unb.br
Definição do problema: Este estudo de caso tem
como objetivo avaliar a qualidade dos serviços prestados pela equipe
de uma empresa que atua no segmento de terceirização de mão de obra
em Tecnologia da Informação (TI) contratados pelo governo. Abordagem:
Através do uso da ISO 31000 buscou-se gerenciar riscos da operação
dos processos de TI, que por sua vez utilizam um framework para
registro e controle destes processos. Resultados: Foi feito uma
avaliação da qualidade dos processos de TI em três diferentes
clientes e detectou-se que a operacionalização e registro dos
processos feito pelos técnicos não estão adequados. Conclusão:
Através do estudo foi detectado um vício na operação e foi feito
uma proposta para capacitação técnica da equipe no uso de
ferramentas para o registro do trabalho.
Uma Solução de Software de Assinatura Digital de Documentos para Instituição Pública Brasileira,
Andrei Lima Queiroz
Programa de Pós-Graduação em Computação Aplicada - Universidade de Brasíliar
andreiqueiroz@unb.br
Esse pesquisa teve como objetivo propor e avaliar
uma implementação de software de assinatura digital. O estudo foi
motivado pelos problemas encontrados no processo atual de emissão dos
certificados de extensão da Universidade de Brasília. O trabalho
propõe um arquitetura de software modular de forma a atender às
necessidades dos setores da instituição e dos de- senvolvedores,
oferecendo facilidades na manutenção, integração e reuso. O
desenvolvimento da proposta e dos procedimento de assinatura digital
teve como base as normas e documentos da Infraestrutura de Chaves
Públicas Brasileira ICP-BRASIL. Com isso, podemos garantir as mesmas
característica jurídicas do documento físico ao documento digital,
ou seja, a validade jurídica ao documento assinado eletronicamente.
Sessão 3 – 16:20 às 17:30
Anotação e Visualização de Sequências de Transcritos da Peçonha de Artrópodes da Região Centro-Oeste
Rafael Dias da Costa e Maria Emília M. T. Walter
Departamento de Ciência da Computação - Universidade de Brasília
rafael.rdc@hotmail.com, mia@cic.unb.br
O presente projeto de Iniciação Científica faz
parte do projeto “Inotoxin - Inovação com Peçonhas de animais da
biodiversidade da Região Centro-oeste: aplicações terapêuticas,
toxicologia e bioprospecção”, que integra a Rede Centro-Oeste,
aprovado pelo CNPq. O objetivo deste projeto é propor um pipeline para
analisar os transcritos das glândulas de peçonha (transcritoma), e
geramos resultados que deverão ser analisados pelos biólogos. O
pipeline, composto de três etapas (filtragem, montagem e anotação),
foi aplicado a transcritos de escorpião e de vespa. Com essa
abordagem, pretendemos realizar um extenso levantamento do potencial
farmacológico e terapêutico dessas peçonhas, utilizando estratégias
que necessitam número reduzido de exemplares de cada espécie
estudada, respeitando assim, a exploração sustentável da fauna de
artrópodes da Região Centro-oeste do Brasil.
Identificação Automatizada de Riscos de Segurança em Especificações de Software
Rodrigo Nunes Peclat* e Guilherme Novaes Ramos†
*Secretaria-Federal de Controle Interno Controladoria-Geral da União
†Departamento de Ciência da Computação - Universidade de Brasília
rodrigo.peclat@cgu.gov.br, gnramos@unb.br
A Administração Pública Federal tem investido em
contratações de software sob encomenda. Nesse cenário, é de
interesse verificar se as especificações tratam de forma
satisfatória os riscos de segurança comuns às aplicações presentes
nesses contratos. Para tanto, propõe-se uma análise semântica
automatizada de textos em português, de modo que seja possível
associar riscos de segurança a seus trechos. Testes iniciais para
associação de requisitos do OWASP ASVS às categorias do OWASP Top
Ten demonstram a viabilidade dessa abordagem.
Elasticidade em uma Infraestrutura de Nuvens Federadas BioNimbuZ
Guilherme F. Vergara, Breno Moura, Aletéia P. F. de Araújo
Departamento de Ciências da Computação - Universidade de Brasília
gfv.unb@gmail.com, mourabreno@gmail.com, aleteia@cic.unb.br
Com a constante evolução das aplicações, surgiu
a necessidade de se ter um ambiente onde fosse possível processar
aplicações de forma dinâmica, escalar e sob demanda, na qual a
medida em que a aplicação cresce e necessita de mais recursos, o
ambiente de forma automática provê os recursos, surgindo assim a
plataforma de computação em nuvem, recursos são alocados conforme a
demanda de utilização necessária. Para que seja possível esse
aumento escalar e sob demanda, surge o conceito da elasticidade. A
elasticidade é uma das características fundamentais em um ambiente de
computação em nuvem, uma vez que existem muitas aplicações que
aumentam no decorrer do tempo necessitando de mais poder de
processamento e até mesmo mais espaço para armazenar arquivos gerados
pela aplicação. Este trabalho trata do problema da elasticidade no
BioNimbuZ, o qual é uma infraestrutura de nuvens federadas para
aplicações de bioinformática. Assim propõem-se um módulo de
elasticidade a ser implementado na infraestrutura, para que o ambiente
consiga prover recursos de forma automática e transparente garantindo
que quando for adicionado uma carga superior do que foi contratada
inicialmente, o sistema possa ir adicionando recursos e os custos
relacionados a esse aumento de recursos.
Identificação e Análise de Competências em Gestão de Riscos para o SISP, com Uso de Multicritérios
Fernando Escobar, João Mello da Silva e João Carlos Félix Souza
Universidade de Brasília
Case Western Reserve University
Elaborar planos de formação, desenvolvimento e
treinamento para os servidores públicos integrantes do Sistema de
Administração dos Recursos de Tecnologia da Informação (SISP) é
uma das atribuições da Secretaria de Logística e Tecnologia da
Informação (SLTI/MP), órgão central do SISP. O objetivo deste
trabalho é o de identificar, com pesquisa bibliográfica, e priorizar,
com análise multicritério AHP, as onze competências em gestão de
riscos, mais relevantes e específicas para os servidores integrantes
do SISP, com destaque para as competências de Planejamento
Estratégico, Gerenciamento de Riscos e Critérios de Seleção e
Tomada de Decisões.
Tolerância a Falhas para Sistemas Legados do Exército Brasileiro
Fausto Andrade dos Santos Junior e Aletéia Patrícia Favacho de Araújo
Programa de Pós-Graduação em Computação Aplicada
Departamento de Ciências da Computação Universidade de Brasília
faustosantos@aluno.unb.br, aleteia@cic.unb.br
Os órgãos públicos de maneira geral, e em especial o
Exército Brasileiro, possuem um grande desafio em relação à
capilaridade de suas redes de informações no território federal e
repartições destacadas inclusive em outros países. Contudo, os sistemas
de informações do Exército foram em sua maioria desenvolvidos sob uma
perspectiva incompatível com sistemas distribuídos modernos. Desta
forma, quanto mais a pesquisa nessa área avança, mais percebe-se o
grande custo em migrar soluções corporativas para esta infraestrutura.
Mesmo diante dos custos proibitivos de migração, a demanda por sistemas
de informação direciona que o software legado precisa implementar
características de arquitetura distribuída, como tolerância a falhas.
Este trabalho propõe um middleware de infraestrutura distribuí da para
hospedar softwares legados do Departamento- Geral do Pessoal do
Exército Brasileiro (DGP) e assim permitir tolerância a falhas e
escalabilidade a esses sistemas, de forma transparente.
Uma Abordagem para o Uso de Cenários Implícitos na Geração de Casos de Teste em Sistemas Concorrentes
Thiago Peixoto dos Reis, Genaína Nunes Rodrigues
Departamento de Ciências da Computação - Universidade de Brasília
Instituto Federal de Goiás
thiago.peixoto@ifg.edu.br, genaina@cic.unb.br
A confiabilidade é um pré-requisito desejável a
qualquer sistema. Para que um sistema possa ser confiável, tal
requisito deverá ser levado em consideração durante todas as fases
da concepção de um sistema. Cenários Implícitos são uma anomalia
gerada quando um componente de um sistema concorrente é criado e se
relaciona de uma forma inesperada com os demais componentes. Técnicas
existentes em teste de sistemas concorrentes podem, ocasionalmente,
não revelar todas as falhas existentes em um sistema. Isso acontece em
parte por se concentrarem em utilizar testes já conhecidos e avaliarem
somente os comportamentos esperados, logo eles acabam ignorando
comportamentos anômalos que frequentemente podem gerar falhas em um
sistema. Este trabalho tem o objetivo de explorar o uso da detecção
de cenários implícitos na melhoria da geração de casos de teste
para sistemas concorrentes.
Revealing Features from Task Assignments
Marcos César de Oliveira∗†, Rodrigo Bonifácio† and Guilherme Ramos†
∗Secretaria de Orçamento Federal Ministério do Planejamento, Brasília, Brazil
†Departamento de Ciência da Computação - Universidade de Brasília,
marcos-cesar.oliveira@planejamento.gov.br , {rbonifacio,gnramos}@cic.unb.br
Extracting features from a legacy code base and
mapping these features to their implementation elements is a
fundamental activity for adopting a feature-oriented approach. However,
this can be a challenging task, specially for large code bases with
potentially hundreds of features, because features often spread across
different modules of a system, making it difficult to define a specific
pattern for recovering features from source code. In this position
paper, we present a novel approach for mitigating this problem by
relating historical data from issue tracking systems and change history
of a project’s source code.
Sessão 4 – 17:30 às 18:30
Análise de Desempenho de um Modelo de Engenharia de Tráfego Utilizando Autossimilaridade de Sistemas FTV em Nuvem
Henrique Domingues Garcia e Priscila Solis
Departamento de Ciências da Computação Universidade de Brasília
henriquedgarcia@gmail.com, pris@cic.unb.br
Resumo—A Internet é um enorme laboratório que
permite surgir novas aplicações a qualquer momento. Um dos grandes
desafios em redes de computadores é encontrar as melhores formas de
encaminhar as informações das novas aplicações. Dentre as que mais
chamam atenção são as aplicações de vídeo por possuírem alta
sensibilidade as flutuações da rede e uma enorme necessidade de largura
de banda e a Internet precisa rapidamente conseguir absorver este
tráfego sem comprometer as aplicações já existentes. Este artigo
apresenta o estado da arte e a proposta de um trabalho de simulação e
otimização do roteamento de fluxo de vídeo de FTV (Freeviewpoint
Television) utilizando técnicas de engenharia de tráfego em protocolos
tradicionais de roteamento.
Humanos x Robôs: Implementação Multiplayer e Especial (Star Power) do Jogo Guitar Hero III no Robô Grybot
Mariana R. Makiuchi, Juliana L.Bento, Marcus V. Lamar
Departamento Ciência da Computação - Universidade de Brasília
mari_makiuchi@hotmail.com, julianalemosb@hotmail.com, lamar@unb.br
Guitar Hero é um jogo popular, no qual o jogador
testa suas habilidades “tocando” uma música escolhida. Devido ao
nível de dificuldade do jogo, ainda não existe um sistema robótico
capaz de superar os melhores jogadores humanos. Grybot é um robô
jogador automático de Guitar Hero III que, usando unicamente uma FPGA,
detecta as notas pelo processamento em tempo real do sinal de vídeo
composto. Por meio de um circuito de acionamento de solenoides,
pressiona fisicamente os botões de um controle comum do console PS2. A
máquina desenvolvida obtém acertos entre 95% e 100% em todas as
músicas do jogo e em qualquer nível de dificuldade. Este trabalho
apresenta um aprimoramento do sistema de controle para operar no modo
multiplayer, que torna o jogo ainda mais divertido e envolvente pela
possibilidade de um jogador humano poder desafiar o robô. Este
trabalho detalha ainda a implementação de um sistema para o
acionamento do modo especial Star Power, que faz com que a pontuação
atingida pelo robô esteja mais próxima dos melhores jogadores, de
acordo com o ranking mundial mantido pelo site ScoreHero.
Uma Metodologia para Reprodutibilidade de Experimentos em Engenharia de Software por
Meio de Virtualização de Ambiente de Execução
Gabriel Rodrigues, Genaina Rodrigues
Departamento de Ciência da Computação Universidade de Brasília
gabrielsr@aluno.unb.br, genaina@unb.br
Reprodutibilidade é uma atividade fundamental do
processo científico. No entanto em ciências da computação a reprodução
de experimentos não tem sido suficientemente fácil. Realizar o build de
um software utilizado em trabalho publicado, executar o software e
coletar resultados tem sido um desafio. Para um pesquisador
independente que deseja reproduzir o experimento, descobrir quais as
dependências do build, encontrá-las, configurar o ambiente
corretamente, descobrir a interface de entrada do software são
atividades que em muitos casos leva bastante tempo. Normalmente existe
pouca documentação fora o descrito na publicação científica; as
interfaces costumam ser pouco amigáveis; o software costuma não tratar
erros de entradas do software. Este artigo avalia a utilização de
ferramentas de gerência de build e virtualização do ambiente de
execução. Propomos um framework alto nível que se seguido acreditamos
tornarão experimento facilmente reprodutível sem criação de esforço
adicional aos desenvolvedores do experimento.
Utilizando a Programação
Multicritérios com AHP para Selecionar e Priorizar Pontos Críticos e
Impactos de Tecnologia da Informação nos Objetivos Estratégicos de uma
Organização
Francisco de Assis Neto, Edgard Costa Oliveira, João Carlos Félix Souza, Marcelo Ladeira
Departamento de Ciência da Computação - Universidade de Brasília
mcfaneto@yahoo.com.br, ecosta@unb.br, jocafs@unb.br, mladeira@unb.br
Este artigo tem como objetivo apresentar os
resultados parcial de uma dissertação de mestrado, onde utilizou-se
programação multicritérios com Analytic Hierarchy Process (AHP),
utilizando o software Expert Choice para a identificação de componentes
créticos de Tecnologia da Informação (TI) que impactam uma organização
e sua relação com os objetivos estratégicos. O trabalho tem uma postura
qualitativa e quantitativa; com uma pesquisa bibliográfica necessária
ao seu referencial teórico; o seus desenvolvimento, com detalhes sobre
Delphi, AHP, o Software Expert Choice. Durante a pesquisa, foi criado
um modelo para este trabalho com normas da ABNT (ISO 27005, 38500 e
31000).
Aplicação de Técnicas de
Mineração de Textos para Classificação de Documentos: Um Estudo da
Automatização da Triagem de Denúncias na CGU
Patrícia Maia, Marcelo Ladeira, Rommel N. Carvalho
Department of Computer Science - University of Brasília
mladeira@unb.br
A Controladoria Geral da União é o órgão do
Poder Executivo responsável pelas atividades de controle interno,
auditoria pública, correição, prevenção e combate à corrupção e
ouvidoria dos gastos públicos do Poder Executivo. Por meio do botão
“Denúncias” do portal da CGU se tem acesso a um for- mulário para
apresentação de denúncias por parte da sociedade. Após cadastradas
pelo cidadão as mesmas devem ser triadas e encaminhadas para a
coordenação temática da CGU com competência para realizar a
apuração. Atualmente essa triagem é feita de forma manual e a
denúncia encaminhada para uma das oitenta e duas coordenações da
CGU. Essa grande quantidade de áreas a serem destinadas as denúncias
é um fator complicador para a classificação automática de textos,
impossibilitando inclusive a aplicação de alguns algoritmos.
Considerando o acúmulo de denúncias existentes na base atualmente e a
chegada de novas denúncias, aliadas ao tempo gasto com a triagem
manual, torna- se cada vez mais difícil a análise tempestiva das
ocorrências reportadas. O resultado gerado por este contexto pode
causar prejuízos financeiros para a administração pública além de
desmotivar a utilização do canal pelo cidadão. Dessa forma, este
trabalho visa construir um modelo automático de triagem de denúncias
utilizando mineração de textos com a finalidade de agilizar esse
processo. As denúncias cadastradas nesse formulário são provenientes
de municípios presentes em todas as unidades da federação gerando
assim um grande impacto em todo o território nacional.
An Extended Goal-oriented Development Methodology with Contextual Dependability Analysis
Danilo F. Mendonça and Genaína N. Rodrigues
Universidade de Brasília
dfmendonca@gmail.com, genaina@cic.unb.br
A static and stable context of operation is not a
reality for many systems nowadays. Context variations impose many
threats to systems safety, including the activation of
context-dependent failures. Goal-oriented software-development
methodologies (SDM) adds the ‘why’ to system requirements, i.e., the
intentionality behind system goals and the means to meet then. Contexts
may affect what requirements are needed, which alternatives are
available and the quality of these alternatives, including
dependability attributes. In order to properly analyze the
dependability of systems affected by context variation and reduce the
occurrence of contextual failures, this short-paper proposes an
extension to the TROPOS goal-oriented methodology to include
dependability constraints to goals and also to propagate the context
variation effects to the probabilistic model checking analysis
technique used to estimated reliability by considering the components’
availability and reliability to be context dependent.
Sábado (08/11)
Sessão 5 – 09:00 às 10:10
Implementação de um Protocolo Criptográfico Baseado em REST
Alexandre Lucchesi Alencar, Rodrigo Bonifácio de Almeida e João José Costa Gondim
Departamento de Ciência da Computação - Universidade de Brasília
Security protocols based on REST (REpresenta- tional
State Transfer), such as OAuth and OpenID, have been proposed to allow
a form of distributed authentication and autho- rization mechanism
target to open environments, whose potential users are usually unknown
in advance. However, institutions also have the need to communicate
with each other within closed environments, so that they can
automatically integrate their business processes. This paper reports on
the implementation of a cryptographic protocol for closed environments
and based on the REST architectural style, ensuring quality of service
(in terms of processing time and throughput) along with the security
requirements previously established.
Prospecção Ativa de Vulnerabilidade - Metodologia e Simulação Baseada em Agentes Inteligentes
Maximillian Fan Xavier, Célia Ghedini Ralha e João José Costa Gondim
Departamento de Ciência da Computação - Universidade de Brasília
maximillianfx@gmail.com, ghedini@cic.unb.br, gondim@cic.unb.br
Este artigo descreve uma metodologia para
prospecção ativa de vulnerabilidade em sistemas computacionais. A
metodologia permite definir e padronizar os procedimentos para a
identificação e avaliação de vulnerabilidades com base na
estratégia de testes de penetração (PenTests). A metodologia
relaciona o planejamento e a execução de cenários, envolvendo
características de acesso indevido ou extravio de informação
sigilosa. Para estudo da metodologia, as seis fases que a compõem
foram modeladas utilizando Business Process Model and Notation – BPMN.
A validação da metodologia será realizada através do uso de
técnicas de simulação baseada em agentes inteligentes, os quais
proporcionam a eficácia dos procedimentos executados ao longo do
desenvolvimento da metodologia. A abordagem ado- tada neste trabalho,
viabiliza o desenvolvimento de treinamento para profissionais de
Tecnologia da Informação em PenTests, envolvendo diversos cenários e
estratégias, possibilitando ampliar o conhecimento metodológico de
procedimentos técnicos, que vão desde a identificação e avaliação
de vulnerabilidades, até definição de táticas, execução de testes
e a consolidação e apresentação dos resultados.
Documents Based Geographic Data Modeling for NoSQL
Harley Vera, Wagner Boaventura Filho, Maristela Holanda
Department of Computer Science -University of Brasília
harleyve@gmail.com, wagnerbf@gmail.com, mholanda@cic.unb.br
The integration of geographical information systems
(GIS) with relational databases (RDBMS) and the search for
interoperable standards among geospatial systems were issues that
dominated the agenda of academia, industry, and the users community of
spatial data in general. Since then, in database technologies, new
discussions have been growing, mainly for non- conventional
applications, including NoSQL databases, that was created originally in
response to the needs of better scalabil- ity,lower latency and higher
flexibility in a time of bigdata and cloud computing. Those
non-functional aspects, which are very common in the treatment of
spatial data, are the main reason for using NoSQL. However, the data
modeling for NoSQL databases, specially the document-oriented ones,
does not have systematic studies yet, just as exists for relational
databases. Therefore, this article proposes a NoSQL data modeling
standard,introducing modeling techniques that can be used on
document-oriented databases, including geographical features. In
addition, to vali- date the proposed model, a case study was
implemented using geographic information on changes in brazilian biomes
land use.
Enabling Contextually Adaptive Workflows
Andre Felipe Fleck Bedran∗, Brenno Taylor de Jesus Popov∗, Felipe Pontes Guimares† and Genaina Nunes Rodrigues‡
†IME-USP University of Sao Paulo
∗University of Brasilia- Faculdade do Gama
‡Department of Computer Science - University of Brasilia
felipepg@ime.usp.br, genaina@cic.unb.br
Modern computational systems tend to have very
complex behavior. When dealing with context-aware service- oriented
systems, this complexity rises even further, with the designer having
to tackle two very distinct levels of complexity: the service
composition as well as its variability intrinsic to contextual
adaptation. Normally, contextual adaptation may be expressed by a
Contextual Goal-Model (CGM) and the service composition may be
expressed as a workflow. In this paper, we argue that separating such
complexity into different diagrams, namely a workflow and a CGM, is an
unnecessary burden. To bring both facets into a single representation
we propose minor modifications to the CGM model in order for it to be
able to express any workflow while maintaining the goal model’s (GM)
tree structure. We also introduce the rules to duly convert any
workflow into a GM, effectively showing that a GM is able to represent
any workflow, both in a graphic representation as well as in a formal
one.
Novos Padrões para Pixels de Formato Variável
Jonathan Alis S. Lima e Mylene C. Q. Farias
Universidade de Brasília
jonathanalis@gmail.com, mylene@ene.unb.br
Normalmente, para aumentar a resolução de uma
imagem, é requerido um aumento na quantidade de pixels de forma
convencional quadrada. Kirsch, o inventor do pixel quadrado, mostrou
que podemos aumentar a precisão visual de imagens sem aumentar a
quantidade de pixels, mas utilizando pixels de formato variável, os
quais representam melhor a imagem do que os pixels quadrados. Neste
trabalho, trazemos uma adição à técnica de Kirsch onde conseguimos
melhores resultados na representação de imagens.
Um Método para Otimização de Energia com Base em Clusterização para Redes de Sensores Sem Fio
Paula Letícia Santos Lima, Luis Pacheco e Priscila Solís
Departamento de Ciência da Computação - UnB
palelima@cic.unb.br, luisbelem@gmail.com, pris@cic.unb.br
Neste trabalho se propõe um método para a melhoria
da eficiência energética em uma Rede de Sensores Sem Fio (RSSF), com
base em uma nova caracterização da região de intensidade que
utilizará clusters para o encaminhamento de dados ao nó sink. O
método é baseado em três técnicas: um algoritmo híbrido CSMA/TDMA
para atuar na região de intensidade, um algoritmo para definição de
clusters e clusters heads com base na energia média dos sensores do
cluster e um protocolo de roteamento externo à região de intensidade.
PUF+PAKE = Autenticação Mútua Multifator para Aplicações Bancárias
Amanda Cristina Davi Resende e Diego de Freitas Aranha
Departamento de Ciência da Computação – UnB
Instituto de Computação - Unicamp
amandadavi7@aluno.unb.br, dfaranha@ic.unicamp.br
Este artigo propõe um protocolo seguro combinando
Funções Fisicamente não Clonáveis (PUFs) com protocolos para Acordo
Autenticado de Chaves baseados em Senha (PAKE). O protocolo resultante
oferece autenticação mútua entre cliente e servidor e estabelece uma
chave de sessão entre as partes autenticadas, características
importantes que não foram encon- tradas simultaneamente na literatura
de autenticação baseada em PUF. A combinação aprimora o estado da
arte, garantindo que a chave de sessão esteja apenas disponível para
detentores legítimos da PUF, sem a possibilidade de vazamento de
segredos armazenados explicitamente. O protocolo fornece proteção
contra ataques offline de dicionário sobre a senha de autenticação.
Além disso, satisfaz noções de segurança usuais quando a saída da
PUF é imprevisível e permite ao cliente notificar o servidor em
situações de emergência.
Sessão 6 – 10:30 às 11:30
An Evaluation of Prevalence Patterns in Infrastructured Wi-Fi Networks
K. S. Luz, M. C. Q. Farias, P. Solis and H. Garcia
Departamento de Engenharia Elétrica - Universidade de Brasília
Departamento de Ciência da Computação - Universidade de Brasília
{luzkerlla, mylene}@ene.unb.br, {pris, garciah}@cic.unb.br
This paper evaluates the reduction of management and
control traffic in infrastructured IEEE 802.11 networks. The study is
focused in Wi-Fi networks with low mobility nodes in which may be
possible to decrease the amount of control and management traffic that
is used to verify periodically the node connection with the access
point (AP) and consequently, improve the network throughput for QoS
sensitive applications. The experimental results show that it is
possible to identify time intervals for activating an adaptive
mechanism in the IEEE 802.11 protocol, based on two parameters that
describe the level of node mobility: the signal noise variation and the
prevalence of the node.
IRSOM: Automated Sorting of the Waste from Selective Collection using Content based Image Retrieval and Self-Organizing Maps
Alexandre F. Silva, Gustavo L. Sandri, Li Weigang, Ricardo L. de Queiroz, Mylene C. Q. de Farias University of Brasilia
alexandrefieno@iftm.edu.br, gustavo.sandri@image.unb.br, weigang@cic.unb.br, queiroz@ieee.org, mylene@cic.unb.br
As the most of the waste generated on the big cities
are recyclable, it is necessary to establish a selective collection
manner for correctly classifying them. The different kinds of bins
available for recycling may confuse a not well-disciplined user who do
not know where (in which trash) should discard his waste. This paper
proposes a novel system, named IRSOM, to assist the common users on
this task. It is based on Self- Organizing Maps (SOM) with
Content-based Image Retrieval (CBIR) for automated sorting of waste
from selective collection. Our system aims to assist the user by
recognizing the waste to be dropped indicating the proper bin with
acceptable precision, thus becoming a smart tool for helping social
problems and environmental education else well.
Algoritmo Quatro Russos em Sistemas Paralelos
Gabriel Heleno Gonçalves da Silva e Alba Cristina Magalhães Alves de Melo
Departamento de Ciência da Computação Universidade de Brasília
gabriel_cic@aluno.unb.br, albamm@cic.unb.br
Os problemas relacionados à bioinformática são de
grande relevância acadêmica para muitas descobertas e avanços
científicos. Para obter resultados mais rápidos alguns projetos estão
recorrendo ao uso do método dos Quatro Russos, visando acelerar a
solução de subproblemas. Além disso, sistemas paralelos auxiliam na
computação de subproblemas, permitindo que mais instâncias sejam
computadas. Este artigo apresenta um overview da aplicação prática do
método dos Quatro Russos em sistemas paralelos.
A Parallelization of the Cograph Editing Problem: A Biological Motivation
Ricardo R. C. Chaves, Maria Emília M. T. Walter e Maribel Hernandez-Rosales
Departamento de Ciência da Computação Universidade de Brasília
Institut für Informatik Universität Leipzig
ricardo.chaves@tst.jus.br , mia@cic.unb.br , maribel@bioinf.uni-leipzig.de
A cograph is a P4-free graph. Recently, it has been
proved that graphs whose vertices represent genes and whose edges
represent valid orthology relations between genes, must be cographs.
However, due to divergence of genes during evolution, these orthology
relations are not always predicted correctly. Therefore, there exists a
need for a method to verify and correct those predictions. The cograph
editing problem is about converting an arbitrary graph into a cograph
by applying edit operations, i.e. adding and removal of edges. This
problem has been shown to be NP-complete and therefore the
implementation of heuristics and/or approximation algorithms are
necessary. In this work, we present a pipeline for the cograph editing
problem using parallelization techniques.
A Fully Automatic Tool for Domain-Oriented Sentiment Analysis of Tweets
Patrícia Lustosa Ventura Ribeiro, Li Weigang and Viorel Milea
TransLab - University of Brasilia
{patlustosa, weigang}@cic.unb.br, viorel.milea@gmail.com
Twitter is an online social network where users post
status messages called tweets. Twitter platform generates massive data
everyday, making this information important to many applications. Due
to the great volume of tweets, we need big data algorithms to
automatically analyze this data. Sentiment analysis of tweets is one of
the most used ways to process this data, since it can provide many
insights about the opinions of users related to a variety of topics. To
achieve good results on evaluating tweets in a particular domain, it is
interesting to construct a specific tool for these messages and related
to that domain. The objective of this article is to develop an approach
with hashtag expansion, spam detection, lexicon builder and sentiment
analysis algorithms for building a fully automatic domain-oriented and
tweet-specific sentiment analysis tool that handles all the phases of
this problem.
Comparação Paralela de Sequências Biológicas Longas em GPUs Utilizando OpenCL
Marco Antônio Caldas de Figueirêdo Júnior e Alba Cristina M. A. de Melo
Departamento de Ciências da Computaçao Universidade de Brasília
marcoacf@aluno.unb.br, albamm@cic.unb.br
A busca de soluções que tratem com desempenho
adequado o problema do alinhamento de sequências biológicas ainda é
um desafio na área de Bioinformática. Algoritmos e ferramentas têm
sido propostos desde a década de 1970, tendo recentemente maior foco
na utilização de algoritmos de programação dinâmica adaptados para
execução em GPUs. A maioria das propostas, contudo, não permitem a
comparação de sequências longas, além de utilizarem linguagens
específi- cas para a arquitetura testada. Neste artigo, apresentamos o
projeto de adaptação da ferramenta CUDAlign para a plataforma Open
Computing Language (OpenCL), favorecendo sua utilização em ambientes
heterogêneos.
Palestra Convidada - 11:30-12:30
Mineração de dados: Modelos, Algoritmos, Sistemas e Aplicações
Prof. Wagner Meira Jr. (UFMG)
Resumo: Mineração de dados surgiu como a junção de
várias áreas como bancos de dados, estatística e inteligência
artificial e tem crescido continuamente nos últimos 20 anos.
Recentemente, o surgimento dos conceitos de “big data” e "data science"
acelerou ainda mais esse processo. Neste seminário vamos discutir
pesquisa na área de mineração de dados e os seus elementos
fundamentais, nominalmente modelos, algoritmos, sistemas e aplicações,
assim como uma visão integrada desses elementos, como tal arcabouço já
foi empregado em vários cenários como aplicações web e tendências
futuras.
Bio: É professor titular do Departamento de Ciência
da Computação da Universidade Federal de Minas Gerais. Wagner é PhD em
Ciência da Computação pela University of Rochester (1997), além de
mestre e bacharel em Ciência da Computação pela Universidade Federal de
Minas Gerais (1993 e 1990, respectivamente). Atualmente Wagner é
pesquisador em produtividade do CNPq (nível 1C) e coordenador da linha
de pesquisa em Descoberta do Conhecimento do INWeb – Instituto Nacional
de Ciência e Tecnologia para a Web. Seus interesses de pesquisa são em
sistemas paralelos e distribuídos, em particular na sua escalabilidade
e eficiência, variando de sistemas massivamente paralelos a plataformas
baseadas na Internet, e em algoritmos de mineração de dados, sua
paralelização e aplicação em áreas como recuperação de informação,
bioinformática e governança eletrônica.