2016-12-21

CLOUD

As nuvens preparam-se para aprender: cloud e machine learning

A opinião do Prof. Henrique Carreiro da edição de dezembro do IT Channel, que nos dá uma visão daquilo que poderemos esperar para o mercado de processadores no futuro

As nuvens preparam-se para aprender: cloud e machine learning

Qual será a utilidade de um processador com 48 cores? É essa a pergunta que a Qualcomm espera que os potenciais clientes para o seu Centric 2400 possam começar a responder em breve quando o colocarem em máquinas de produção.

A Qualcomm é conhecida sobretudo como a empresa que produz os processadores usados na maioria dos smartphones das gamas média e alta, com exceção dos da Apple. Virtualmente todos os fabricantes neste segmento no mercado Android utilizam alguma versão de Snapdragon; muitos competem mesmo para ser os primeiros a apresentar os telefones com as versões mais recentes — caso da Google, com o Pixel Phone, que usa o Snapdragon 821.

A Qualcomm sabe que tem à sua frente uma árdua tarefa para colocar um processador baseado em ARM no datacenter. Esta é uma área onde a quota de mercado pertence a 99 por cento à Intel, ao contrário da dos smartphones que utilizam, virtualmente todos, processadores com arquitetura ARM. Mas para as empresas que comercializam serviços de cloud, muitas delas também, não por coincidência, atores no mercado da mobilidade, a motivação para usar um processador ARM no datacenter pode ser a mesma que no telefone: o baixo consumo de energia dos processadores ARM, comparados com os da Intel.

E, sabendo que o principal custo de operação de um datacenter de cloud é, precisamente, o energético, o argumento para a mudança pode tomar muita força. É provável que a Qualcomm conte também com o foco cada vez maior dos fornecedores de serviços cloud em workloads especializados como machine learning. Os processadores ARM combinam bem com os processadores gráficos como os da NVidia, ela própria um actor significativo no mercado ARM e a apostar cada vez mais em plataformas de machine learning/deep learning com a sua plataforma de desenvolvimento DiGiTS.

Os processadores gráficos são hoje usados para acelerar os processos de aprendizagem em machine learning. Um consórcio de fabricantes que inclui precisamente a NVidia, para além da IBM e da AMD, entre outros, anunciou no passado mês de outubro uma especificação, designada Open CAPI, para aumentar os níveis de desempenho das interfaces que permitirão acelerar as elevadas transferências inerentes às aplicações de análise de dados e machine learning. A Intel, previsivelmente, ficou de fora, por opção própria — o consórcio não esconde que o seu objetivo é substituir as interfaces dominadas pelo líder do mercado. As aplicações de machine learning são a porta de entrada dos processadores com base em ARM no datacenter.

A Intel está longe de perder o jogo — quando muito, perderá quota de mercado. Mas a posição dos jogadores muda tão rapidamente que qualquer será necessário, precisamente, fazer previsões com base em machine learning para antevermos a evolução desta área.

 

Henrique Carreiro,

Docente de cloud computing e mobilidade empresarial na Nova Information Management School

IT CHANNEL Nº 105 MARÇO 2024

IT CHANNEL Nº 105 MARÇO 2024

VER EDIÇÕES ANTERIORES

O nosso website usa cookies para garantir uma melhor experiência de utilização.