O que é Deep Learning

PCs baratos podem gerar mundos virtuais exuberantes. Supercomputadores podem simular a formação de galáxias. Até o telefone na sua mão é mais capaz do que os computadores mais poderosos do mundo há apenas algumas décadas.

Mas até recentemente, pedir a um computador para identificar um pássaro em uma foto – uma tarefa que uma criança pode fazer – e os sistemas mais avançados tropeçam.

Não mais. Novos algoritmos de redes neurais , acesso a vastas quantidades de dados e poderosas GPUs convergiram. O resultado é uma revolução chamada ” aprendizado profundo “.

Grande Avanço Profundo

O potencial é vasto. Pesquisadores usam o aprendizado profundo para detectar células cancerígenas . Categorizar corais em recifes ameaçados . Para mapear as ligações entre os neurónios no cérebro . Nenhuma tecnologia é tão transformadora agora como esta.

“A tecnologia de aprendizagem profunda está ficando muito boa – e isso aconteceu muito rápido”, diz Jonathan Cohen, diretor de engenharia da NVIDIA. “Problemas que as pessoas supunham que nunca seriam resolvidas – ou que não seriam resolvidas tão cedo – estão sendo resolvidas todos os dias.”

O aprendizado profundo refere-se a algoritmos – receitas de processamento de dados passo a passo – para que as máquinas de ensino vejam os padrões. Isso dá aos computadores recursos incomuns. Tal como a capacidade de reconhecer a fala e traduzi-lo para outro idioma em tempo real.

Melhor que o humano

Esta é uma grande mudança.

Apenas alguns anos atrás, os computadores lutavam com tarefas que, para as pessoas, são simples. Uma referência importante: o Desafio Visual de Reconhecimento Visual em Escala Ampla do ImageNet. Para competir, as equipes criam sistemas que atribuem um dentre mil possíveis rótulos descritivos a um conjunto de 100.000 imagens. Em 2011, os participantes identificaram objetos erroneamente cerca de um quarto do tempo.

Um ano depois, uma equipe equipada com GPU da Universidade de Toronto, liderada por Geoffrey Hinton, reduziu pela metade a taxa de erro. E recentemente, a Microsoft Research reduziu a taxa de erro para menos de 5%. Isso é melhor do que os humanos podem fazer.

Então, como funciona o aprendizado profundo? Começa por “treinar” uma rede neural artificial. Isso envolve alimentar computadores poderosos com muitos exemplos de dados não estruturados, como imagens, vídeo e fala.

Por que é chamado Deep Learning?

Com o aprendizado profundo, uma rede neural aprende muitos níveis de abstração. Eles variam de conceitos simples para complexos. É isso que coloca o “profundo” no aprendizado profundo. Cada camada categoriza algum tipo de informação, refina e passa para a próxima.

A aprendizagem profunda permite que uma máquina use esse processo para construir uma representação hierárquica. Assim, a primeira camada pode procurar por arestas simples (os pesquisadores de visão computacional chamam esses “filtros Gabor”). A próxima pode procurar por coleções de arestas que formam formas simples, como retângulos ou círculos. O terceiro pode identificar recursos como olhos e narizes. Depois de cinco ou seis camadas, a rede neural pode reunir esses recursos. O resultado: uma máquina que pode reconhecer rostos.

As GPUs são ideais para isso, acelerando um processo que poderia levar um ano ou mais para apenas algumas semanas ou dias. Isso porque as GPUs realizam muitos cálculos de uma só vez – ou em paralelo. E uma vez que um sistema é “treinado”, com GPUs, cientistas e pesquisadores podem colocar esse aprendizado para funcionar.

Esse trabalho envolve tarefas que antes eram consideradas impossíveis. O reconhecimento de fala é um aplicativo. Assim é a tradução de voz em tempo real de um idioma para outro. Outros pesquisadores estão construindo sistemas que analisam o sentimento nas conversas nas mídias sociais.

Estamos apenas arranhando a superfície. É por isso que os pesquisadores das principais universidades do mundo inteiro estão correndo para colocar o aprendizado profundo para funcionar. Assim são o Facebook, a Microsoft, o Twitter e o Yahoo e uma série de startups.

Be the first to comment

Leave a Reply