A inteligência artificial (IA) se tornou parte integrante de praticamente todos os segmentos da indústria de tecnologia. A sua adoção tem causado impacto em aplicativos, ferramentas de desenvolvimento, plataformas de computação, sistemas de gerenciamento de banco de dados, middleware, ferramentas de gerenciamento e monitoramento – quase tudo em TI.
De fato, a IA está sendo usada para melhorar a IA. Mas quais mudanças nos principais usos, ferramentas, técnicas, plataformas e padrões de IA estão reservadas para o próximo ano? Confira o que veremos em 2020.
GPUs continuarão dominando a aceleração da IA
Os aceleradores de hardware de IA se tornaram a principal frente de batalha competitiva em alta tecnologia. Mesmo que as tecnologias rivais, como CPUs, FPGAs e unidades de processamento de rede neural, ganhem participação em dispositivos de borda, as GPUs permanecerão no jogo graças ao seu papel central em ambientes de aplicativos de nuvem à edge, como veículos autônomos e cadeias de suprimentos industriais.
As ofertas baseadas em GPU líderes de mercado da Nvidia parecem preparadas para um crescimento e adoção em 2020. No entanto, na próxima década, várias tecnologias que não são de GPU – incluindo CPUs, ASICs, FPGAs e unidades de processamento de rede neural – aumentarão suas vantagens de desempenho, custo e eficiência de energia para várias aplicações de ponta.
A cada ano que passa, a Nvidia atrai mais concorrência. Os benchmarks de IA padrão do setor se tornarão uma frente de batalha competitiva. À medida que o mercado de IA amadurece e as plataformas de computação disputam a distinção de ser o mais rápido, mais escalável e ter o menor custo no manuseio de cargas de trabalho, os benchmarks padrão do setor ganharão importância.
No ano passado, os benchmarks da MLPerf adquiriram maior competitividade, pois todos, da Nvidia ao Google, se gabavam do seu desempenho superior. Em 2020, os benchmarks de IA se tornarão uma estratégia de entrada no mercado importante em um segmento que só crescerá mais comoditizado ao longo do tempo.
Com o passar da década, os resultados do benchmark MLPerf figurarão nas estratégias de posicionamento dos fornecedores de soluções sempre que os recursos de alto desempenho orientados por IA forem essenciais.
Uma corrida de dois cavalos
As estruturas de modelagem de IA são os ambientes principais nos quais os cientistas de dados constroem e treinam gráficos computacionais conduzidos estatisticamente. Em 2020, a maioria dos especialistas provavelmente usará alguma mistura de TensorFlow e PyTorch na maioria dos projetos, e essas duas estruturas estarão disponíveis na maioria das bancadas comerciais.
Conforme a década avança, as diferenças entre essas estruturas diminuirão com a valorização da paridade de recursos em detrimento da forte diferenciação funcional. Da mesma forma, mais fornecedores de ferramentas de IA disponibilizarão plataformas de modelagem independentes da estrutura, o que pode oferecer uma nova vida para estruturas mais antigas que correm o risco de serem extintas.
Acelerar a disseminação de plataformas de modelagem de IA abertas é a adoção pela indústria de várias camadas de abstração – como Keras e ONNX – que permitirão que um modelo construído no front-end de uma estrutura seja executado em qualquer back-end da estrutura suportada.
No final da década, será quase irrelevante qual ferramenta de modelagem de front-end você usa para criar e treinar seu modelo de aprendizado de máquina. Não importa onde você construa sua IA, o pipeline de ciência de dados de ponta a ponta automaticamente formatará, compilará, contará com container e o servirá para uma execução ideal em qualquer lugar, da nuvem à borda.
IA baseada em SaaS reduzirá a demanda por cientistas de dados
No ano passado, assistimos à maturação das ofertas de aprendizado de máquina como serviço da AWS, Microsoft, Google, IBM e outros. À medida que essa tendência se intensifica, mais usuários corporativos contam com provedores de nuvem como esses para fornecer mais recursos de IA sem a necessidade de manter equipes internas de ciência de dados. Até o final de 2020, os fornecedores de SaaS se tornarão predominantes no processamento de linguagem natural, análise preditiva e outros aplicativos de IA, bem como ferramentas de serviços e devops de plataforma.
As empresas que mantêm iniciativas internas de IA automatizarão mais os trabalhos de ciência de dados, reduzindo assim a necessidade de contratar novos especialistas.
IA corporativa mudará para a experimentação contínua no mundo real
Toda iniciativa de transformação digital depende da alavancagem dos modelos de aprendizado de máquina mais adequados. Isso requer experimentação no mundo real, na qual processos baseados em IA testam modelos alternativos de aprendizado de máquina e promovem automaticamente aqueles que atingem o resultado desejado. Até o final de 2020, a maioria das empresas implementará testes no mundo real em todos os processos de negócios voltados para o cliente e de back-end.
À medida que os usuários corporativos recorrem aos provedores de nuvem para ferramentas de IA, recursos como os lançados recentemente pela AWS- estúdios de iteração de modelos, ferramentas de rastreamento de experimentos com vários modelos e tabelas de classificação de monitoramento de modelos – se tornarão padrão em todos os ambientes de aplicativos de negócios baseados em IA 24×7. Ao longo da década, os recursos de automação e devops baseados em IA gerarão uma prática recomendada universal de otimização de processos.
IA automatizará a função de modelagem central
As redes neurais são o coração da IA moderna. Em 2020, será disseminada uma metodologia orientada por IA para automatizar a prática de criar e otimizar redes neurais para os propósitos pretendidos. Conforme a pesquisa em arquitetura neural ganha adoção, ela aumentará a produtividade dos cientistas de dados, orientando suas decisões sobre a criação de seus modelos em algoritmos estabelecidos de aprendizado de máquina, como regressão linear. Com o avanço da década, essa e outras abordagens permitirão devops de IA contínuos por meio da automação de ponta a ponta.
Interfaces de conversação orientadas por IA eliminam a necessidade de aplicação prática na maioria dos aplicativos
A compreensão da linguagem natural baseada em IA se tornou incrivelmente precisa. As pessoas estão rapidamente usando as “mãos livres” em seus celulares e outros dispositivos. À medida que as interfaces de conversação ganham espaço, os usuários criam mais textos por meio de entradas de voz. Até o final de 2020, mais textos, tweets e outras informações verbais serão renderizados pelos assistentes de voz orientados por IA incorporados em dispositivos de todos os tipos.
Ao longo da década, os assistentes de voz e a interface de conversação se tornarão um recurso padrão dos produtos em todos os segmentos da economia global.
Diretores jurídicos exigirão transparência de ponta a ponta da IA
A IA está se tornando um fator de risco mais saliente em aplicativos corporativos. Conforme as empresas enfrentam um aumento nas ações judiciais por preconceitos socioeconômicos, violações de privacidade e outros impactos de aplicativos orientados por IA, os diretores jurídicos exigirão uma trilha de auditoria completa que revele como os modelos de aprendizado de máquina usados nos aplicativos corporativos foram construídos, treinados e gerenciados.
Até o final de 2020, os diretores jurídicos da maioria das empresas exigirão que as suas equipes de ciência de dados registrem automaticamente todas as etapas do pipeline de aprendizado de máquina, além de gerar uma explicação em linguagem clara de como cada modelo gera inferências automatizadas. Ao longo da década, a falta de transparência integrada se tornará um fator predominante na negação de financiamentos de projetos de IA.
Finalmente, podemos assumir com segurança que os pedidos de regulamentação dos recursos baseados em IA em todos os produtos – especialmente aqueles que usam informações de identificação pessoal – crescerão nos próximos anos.
Além da ênfase crescente na transparência dos dispositivos de IA, é muito cedo para dizer qual o impacto que esses mandatos futuros terão na evolução das plataformas, ferramentas e tecnologias subjacentes.
Fonte: CIO