[weglot_switcher]

‘Machine Learning’, um dos maiores desafios da tecnologia

Este conceito já existe há mais de 50 anos, mas só recentemente começou a ser aplicado, de forma global, à indústria.
31 Dezembro 2018, 19h00

Machine Learning é, atualmente, uma das áreas mais fascinantes da tecnologia e pode ser definido como um subconjunto de Inteligência Artificial, que permite dotar os computadores com capacidade de aprender sem que sejam explicitamente programados para isso. O método de aprendizagem envolve a utilização de algoritmos matemáticos e modelos probabilísticos, que são depois utilizados para fazer previsões tendo por base outros conjuntos de dados semelhantes.

O conceito foi utilizado pela primeira vez em 1959 pelo investigador Arthur Samuel numa experiência que envolvia ensinar máquinas a jogar “Damas” e que é, ainda hoje, considerado por muitos o primeiro sistema de Machine Learning, explica ao Jornal Económico Luís Silva, diretor de Cloud & Enterprise Microsoft Portugal. Na última década, assistimos a um crescimento massivo da utilização desta tecnologia, sendo que a maioria de nós a utiliza diariamente em atividades que vão desde uma simples pesquisa na Internet, até mediante o recurso a assistentes virtuais como a Cortana ou a Apple Siri.

“Apesar de alguns conceitos terem já quase 60 anos, só recentemente tivemos capacidade para processar grandes volumes de dados num curto espaço de tempo e só também agora assistimos a avanços significativos nas redes neuronais e Deep Learning que permitiram relacionar e obter informações absolutamente impressionantes. É possível, por exemplo, utilizar Machine Learning como forma de otimizar as operações através de manutenções preditivas e a construção de poderosos motores de recomendações, que permitem fornecer aos clientes conteúdos relevantes e adequados às suas necessidades, através da utilização de dados históricos e algoritmos que estão continuamente a aprender com base nas interações. O Machine Learning tem vindo gradualmente a ser adotado em praticamente todas as indústrias, com centenas de casos de utilização diferentes que incluem Cibersegurança, automatização de operações nas áreas de fabrico, veículos autónomos, negociação financeira, contratação, manutenções preditivas e robótica, entre muitas outras”, diz Luís Silva, diretor de Cloud & Enterprise Microsoft Portugal.

Este conceito já existe há mais de 50 anos, mas só recentemente começou a ser aplicado, de forma global, à indústria. “Este tipo de sistema vai permitir a empresas de diversos verticais de negócio automatizar e melhorar processos externos e internos. Por exemplo, melhorar o suporte que damos ao cliente ou reduzir custos em tarefas que são repetitivas. Empresas que não invistam neste tipo de tecnologias correm o risco de serem ultrapassadas pelos seus competidores e perderem mercado”, explica João Freitas, CTO da DefinedCrowd.

O processamento de um volume elevado de informação torna inevitável um poder computacional que corresponda aos requisitos. “Por um lado, a disrupção digital traz-nos tecnologia com uma capacidade crescente e, por outro lado, a introdução de técnicas de Big Data abre-nos uma janela de possibilidades que vai desde a integração de dados em real-time ao relacionamento de petabytes de informação. Do ponto de vista ético surgem também grandes necessidades de regulação sobre as capacidades de autoaprendizagem dos algoritmos”, acrescenta Nuno Costa, associated partner da EY.

Copyright © Jornal Económico. Todos os direitos reservados.