Temos assistido a algumas demonstrações impressionantes que atestam a evolução dos sistemas de inteligência artificial: já vimos o AlphaGo a ser criativo contra um dos melhores jogadores do mundo de Go; já vimos o IBM Watson a fazer diagnósticos complexos em apenas alguns segundos; já vimos carros que aprendem a conduzir sozinhos, mesmo estando parados; e também já vimos como o AlphaZero aprendeu a ser um grão-mestre em xadrez, shogi e Go em menos de 24 horas.

Mas o que é que estes projetos têm em comum? Pertencem todos a grandes tecnológicas, sendo que três deles até são comuns à Alphabet, a empresa-mãe da Google. Acontece que a inteligência artificial e as suas subcamadas, sobretudo o machine learning, estão a ficar cada vez mais democratizadas.

Siga o Future Behind: Facebook | Twitter | Instagram

O mais recente exemplo neste sentido vem justamente da Google, uma das empresas líderes em inteligência artificial. A gigante de Mountain View anunciou que as suas unidades de processamento tensor [TPU na sigla em inglês], peças de hardware especificamente concebidas para tarefas de machine learning, vão estar disponíveis através da cloud para programadores e investigadores de todo o mundo.

Durante vários anos a Google manteve os benefícios dos TPU apenas para si: estes processadores concebidos a pensar na melhor otimização possível para tarefas de aprendizagem automática têm sido um dos grandes segredos para alguns dos avanços por si conseguidos na área de inteligência artificial. Por exemplo, a empresa tanto usa os TPU para processar imagens do serviço Google Photos, como usa o hardware para tarefas mais fora da caixa, caso do AlphaGo.

Os TPU da Google foram revelados em 2016 e na altura já a empresa estava a usá-los há um ano, nos seus próprios centros de dados. Na prática a Google usou-se como estudo de caso para promover as unidades de processamento que tinha desenvolvido.

O que têm de especial os TPU? São circuitos integrados desenhados especificamente para uma tarefa, neste caso a aprendizagem automática. Por outras palavras, são processadores que conseguem extrair sentido de um grande volume de dados, sendo que esse ‘sentido’ varia consoante os modelos matemáticos específicos que lhe são conferidos.

Agora os TPU da Google vão estar acessíveis através de um modelo cloud. A gigante de Mountain View diz que cada cloud TPU consegue debitar 180 teraflops de performance e garantir 64GB de largura de banda, tudo otimizado ao máximo para tarefas de machine learning.

O objetivo da tecnológica é permitir que investigadores, programadores e empresas consigam desenvolver projetos de machine learning num curto espaço de tempo, acelerando assim a inovação em diferentes segmentos de mercado. A Google vai cobrar 6,5 dólares, o equivalente a 5,3 euros, por cada hora de aluguer de um TPU.

Ainda em 2018 a gigante dos motores de busca pretende concretizar mais um passo importante na democratização das ferramentas de machine learning: a Google vai disponibilizar uma rede modular de TPU na cloud, dando a possibilidade de aumentar exponencialmente a capacidade de processamento e acelerar ainda mais o desenvolvimento de projetos na área de machine learning.

Mas como é óbvio, a Google não é a única empresa a tentar colocar nas mãos de mais pessoas as ferramentas certas para que possam apostar em machine learning e inteligência artificial. Isto acontece porque todos têm a beneficiar: a Google e outras empresas vão ficando mais inteligentes à medida que mais produtos são criados sob as suas plataformas.

Titan V

Durante largos anos a Nvidia foi sinónimo quase exclusivo de placas gráficas para videojogos. Também foi muito neste sentido que a empresa trabalhou, o que resultou num grande domínio no mercado dos computadores com unidades gráficas dedicadas, deixando para segundo plano a AMD.

Mas os avanços tecnológicos feitos nas unidades de processamento gráfico (GPU na sigla em inglês), sobretudo na cada vez melhor relação entre desempenho e consumo energético, tornaram as placas gráficas apelativas para um grupo mais variado de consumidores.

Uma dessas áreas é a inteligência artificial. A Nvidia tem feito uma grande aposta neste segmento e tem concretizado parcerias com várias empresas, sobretudo no sector automóvel, como a Continental e a Toyota, mas também com gigantes de outras áreas, casos da Baidu, da General Electric e da HP.

Isto porque as novas arquiteturas gráficas da Nvidia são boas opções para trabalhos de machine learning. De tal forma que a mais recente e mais potente placa gráfica da empresa norte-americana nem sequer é para gamers – um verdadeiro sinal dos tempos.

Chama-se Titan V, consegue garantir 110 teraflops de poder de processamento, tem 12GB de memória dedicada, 5.120 núcleos CUDA e 640 núcleos tensor. À semelhança dos TPU da Google, é um equipamento criado de raiz para responder a necessidades específicas de machine learning, deep learning e inteligência artificial.

Acontece que a mais poderosa GPU de sempre tem um preço a condizer – a Nvidia Titan V custa 3.000 dólares, o equivalente a 2.500 euros. Apesar de este ser um preço avultado para um utilizador individual, se pensarmos que o investimento pode ser feito por uma empresa ou por uma universidade para explorar novos projetos de IA, então pagar 2.500 euros para ter o seu próprio ‘cérebro’ de machine learning pode não ser assim tão caro.

Recuperar o tempo perdido

A Google e a Nvidia têm claramente abordagens diferentes: a Google quer dar acesso remoto a plataformas de machine learning, a Nvidia está a possibilitar que esse trabalho possa ser cada vez mais feito junto da fonte. Isto acaba por ser positivo, pois traz diversidade no formato de abordagem e dá liberdade aos investigadores, programadores e empresas para trabalhar nas condições que considerarem mais ideais.

Também parece claro que poucas empresas terão condições para replicar o modelo da Nvidia, pelo que serão os modelos de cloud computing os mais concorridos. Quem também está a seguir esta estratégia é a Amazon.

Recentemente, através de uma reportagem da publicação Wired, ficámos a saber que os esforços da Amazon em inteligência artificial são relativamente recentes. Em 2012 a empresa apercebeu-se de que o futuro passaria obrigatoriamente pela IA e que os seus trabalhos nesta área estavam aquém dos de outras gigantes norte-americanas. Pior: a Amazon nem sequer conseguia ser apelativa o suficiente na hora do recrutamento.

Através de um grande investimento a nível interno e de uma mudança de cultura de trabalho, os frutos da Amazon na área da inteligência artificial começaram a aparecer. A assistente digital Alexa e a família de equipamentos Amazon Echo são apenas a face mais visível deste sucesso.

A recuperação do tempo perdido também está a ser feito junto da comunidade de machine e deep learning. No final de 2017 a Amazon lançou a plataforma SageMaker que garante integração com os Amazon Web Services, um dos serviços cloud mais populares do mundo.

Segundo a descrição da própria Amazon, o SageMaker “é um serviço de aprendizagem automática end-to-end que possibilita aos cientistas de dados, programadores e especialistas em aprendizagem automática construir, treinar e alojar de forma rápida modelos de aprendizagem automática em escala”.

Traduzindo por outras palavras, a Amazon propõe aos interessados uma solução ‘chave-na-mão’ para trabalhos de machine learning dentro do ambiente AWS.

Os programadores podem usar algoritmos para criar modelos de treino que depois serão aplicados a um determinado volume de dados, podem acompanhar a evolução registada em termos de aprendizagem automática na plataforma e no final podem lançar ferramentas de machine learning que podem ser integradas por outros programadores ou empresas.

Uma das principais vantagens dos modelos cloud explorados pela Google e pela Amazon é a flexibilidade e capacidade de escala que dão aos seus utilizadores. Se um determinado projeto estiver a correr de feição e o objetivo é aumentar a capacidade de aprendizagem automática, então só é preciso adquirir os recursos disponibilizados pelas grandes tecnológicas.

Imagine as plataformas da Google, Nvidia e Amazon como a fase inicial das lojas de aplicações: aos poucos os programadores começaram a experimentar com o conceito de mobile, surgiram serviços e empresas que revolucionaram com base nesse conceito – como a Uber – e dez anos depois o mobile está completamente enraizado na vida das pessoas.

Portanto se aqueles exemplos que demos no início do texto já surpreenderam, consegue imaginar o que ainda está para vir?

Banner Patreon Future Behind

Sem mais artigos