Busca avançada
Ano de início
Entree

Interpretabilidade de redes profundas

Processo: 17/06161-7
Linha de fomento:Bolsas no Brasil - Pós-Doutorado
Vigência (Início): 01 de junho de 2017
Vigência (Término): 06 de junho de 2021
Área do conhecimento:Ciências Exatas e da Terra - Ciência da Computação - Metodologia e Técnicas da Computação
Convênio/Acordo: Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Pesquisador responsável:André Carlos Ponce de Leon Ferreira de Carvalho
Beneficiário:Tiago Botari
Instituição-sede: Instituto de Ciências Matemáticas e de Computação (ICMC). Universidade de São Paulo (USP). São Carlos , SP, Brasil
Vinculado ao auxílio:13/07375-0 - CeMEAI - Centro de Ciências Matemáticas Aplicadas à Indústria, AP.CEPID
Assunto(s):Aprendizado computacional

Resumo

Nos últimos anos, grandes avanços têm ocorrido na área de inteligência artificial (AI). Diferentes tipos de aplicações a diferentes setores tecnológicos tem sido desenvolvidos. Em especial, uma classe de algoritmos chamada de deep learning (DL, aprendizagem profunda) vêm se destacando na área de AI. Entre as aplicações de DL que têm demostrado grande capacidade, o reconhecimento e classificação de imagens, reconhecimento de voz e simulação de jogadores em jogos atingiu o status de estado da arte. Apesar desse rápido sucesso, muitos desenvolvimentos ainda têm que ser alcançados como, por exemplo, nas questões relacionadas com interpretabilidadee representabilidade, que estão no cerne do futuro sucesso do DL. Essas questões estão diretamente relacionadas a melhoria dos métodos e no aumento de confiança dos algoritmos em relação ao usuário. Neste projeto, serão investigadas e desenvolvidas técnicas de interpretabilidade dos algoritmos de DL. Aspectos intrínsecos ao DL como hierarquia, geração de diferentes representações, composição de elementos simples em elementos zomplexos e abstração crescente dos dados irão guiar o desenvolvimento de tais técnicas. Para isso, ferramentas teóricas e computacionais serão empregadas com o objetivo de criar novas rotas de interpretação para o DL. Entre esses, será desenvolvido um método híbrido que incorpore a capacidade dos algoritmos de DL e outras redes de fácil interpretação. Ademais, uma aplicação no campo da astronomia será desenvolvida visando estimar o redshift de galáxias a partir de dados fotométricos. Estimar o redshift de galáxias é fundamental para a estimativa de parâmetros em modelos astronômicos. O emprego de algoritmos de DL se torna vantajoso para esse problema devido a grande quantidade de dados fotométricos e a presença de ruídos e falhas inerentes a esses dados. (AU)

Publicações científicas
(Referências obtidas automaticamente do Web of Science e do SciELO, por meio da informação sobre o financiamento pela FAPESP e o número do processo correspondente, incluída na publicação pelos autores)
ALCOBACA, EDESIO; MASTELINI, SAULO MARTIELLO; BOTARI, TIAGO; PIMENTEL, BRUNO ALMEIDA; CASSAR, DANIEL ROBERTO; DE LEON FERREIRA DE CARVALHO, ANDRE CARLOS PONCE; ZANOTTO, EDGAR DUTRA. Explainable Machine Learning Algorithms For Predicting Glass Transition Temperatures. ACTA MATERIALIA, v. 188, p. 92-100, APR 15 2020. Citações Web of Science: 0.

Por favor, reporte erros na lista de publicações científicas escrevendo para: cdi@fapesp.br.