Os feitos mais incríveis da Inteligência Artificial (Deep Learning) dos últimos anos!

/, Ciência de Dados, Inteligência Artificial, Tecnologia/Os feitos mais incríveis da Inteligência Artificial (Deep Learning) dos últimos anos!

Os feitos mais incríveis da Inteligência Artificial (Deep Learning) dos últimos anos!

Em mais um “tropeço” nas minhas andanças pela web, eis que me reparo com este conteúdo espetacularmente espetacular (sim, a redundância é mais que justificada!).

O pessoal da Statsbot está constantemente analisando as conquistas da área do deep learning, os maiores feitos em termos de desenvolvimentos em tecnologias de texto, voz e visão computacional, para aprimorar modelos e produtos.

No final de 2017, eles decidiram avaliar as conquistas recentes do deep learning (e um pouquinho mais).

Obviamente que eu não poderia deixar passar esta oportunidade de traduzir a tradução deles do artigo de um cientista de dados, Ed Tyantov, para falar sobre os desenvolvimentos mais significativos que podem afetar nosso futuro.

1. Texto

1.1 Máquina de Tradução Neural do Google

Há quase um ano, a Google anunciou o lançamento de um novo modelo para o Google Tradutor. A empresa descreveu em detalhes a arquitetura de rede – a Rede Neural Recorrente (RNN).

O resultado principal: reduzir a lacuna na precisão da tradução em 55% a 85% (estimada por pessoas em uma escala de 6 pontos). É difícil reproduzir bons resultados com esse modelo sem o enorme conjunto de dados que a Google possui.

1.2. Negociações. Vai ser um bom negócio?

Você provavelmente ouviu a notícia de que o Facebook desligou seu chatbot, que saiu do controle e criou sua própria linguagem. Este chatbot foi criado pela empresa para gerir negociações. Sua finalidade é conduzir negociações de texto com outro agente e chegar a um acordo: como dividir itens (livros, chapéus, etc.) por dois. Cada agente possui seu próprio objetivo nessas negociações que o outro não conhece. É impossível sair dessas negociações sem chegar em um acordo.

Para treinamento, eles coletaram um conjunto de dados de negociações humanas e treinaram uma rede recorrente supervisionada. Então, eles pegaram um agente treinado em reforço de aprendizagem e o treinaram para falar consigo mesmo, estabelecendo um limite – a similaridade da linguagem com um humano.

O bot aprendeu uma das melhores estratégias reais da negociação – demonstrar um interesse falso em certos aspectos do negócio, apenas para desistir deles mais tarde e se beneficiar dos seus objetivos reais. Foi a primeira tentativa de criar um bot tão interativo, foi um sucesso.

A história completa está neste artigo e o código está disponível publicamente.

Certamente, a notícia de que o robô supostamente inventou uma linguagem foi inflada a partir do zero. Ao treinar (em negociações com o mesmo agente), eles desativaram a restrição da similaridade do texto ao humano e o algoritmo modificou a linguagem da interação. Nada incomum.

Durante o ano passado, as redes foram geradas ativamente e utilizadas em muitas tarefas e aplicações. A arquitetura dos RNNs tornou-se muito mais complicada, mas em algumas áreas, foi melhorada através das redes feedforward simples – DSSM. Por exemplo, a Google atingiu a mesma qualidade, como com o LSTM anteriormente, no recurso de correspondência inteligente. Além disso, a Yandex editou um novo mecanismo de busca de informações em tais redes.

2. Voz

2.1. WaveNet: Um modelo produtor de áudio bruto

Funcionários da DeepMind relataram muitas informações em seu artigo sobre como gerar áudio. Resumidamente, os pesquisadores fizeram um modelo WaveNet autorregressivo de convolução completa baseados em abordagens anteriores para geração de imagens (PixelRNN e PixelCNN).

A rede foi treinada de ponta a ponta: texto para o input, áudio para o output. As pesquisas obtiveram um excelente resultado, já que a diferença em relação aos humanos foi reduzida em 50%.

A principal desvantagem da rede é sua baixa produtividade, pois devido à autorregressão, os sons são gerados sequencialmente, o que leva cerca de 1 a 2 minutos para criar um segundo de áudio.

Dê uma olhada nesse… quero dizer, dê uma ouvida nesse exemplo.

Se você remover a dependência da rede no texto de entrada e deixar apenas a dependência do fonema gerado anteriormente, a rede irá gerar fonemas semelhantes à linguagem humana, mas eles não terão sentido.

Ouça o exemplo da voz gerada.

Esse mesmo modelo pode ser aplicado não apenas à fala, mas também, por exemplo, à criação de músicas. Imagine o áudio gerado pelo modelo, que foi ensinado a usar o conjunto de dados de um jogo de piano (novamente sem qualquer dependência dos dados de entrada).

Leia uma versão completa da pesquisa da DeepMind caso seja do seu interesse.

2.2. Leitura labial

A leitura labial é outra conquista do deep learning e uma vitória sobre os humanos.

O Deepmind da Google, em colaboração com a Universidade de Oxford, relatou no artigo “Frases de leitura labial na natureza” sobre como o seu modelo, que havia sido treinado com um conjunto de dados de televisão, conseguiu superar o leitor de lábios profissional do canal da BBC.

Existem 100.000 frases com áudio e vídeo no seu conjunto de dados. Modelo: LSTM em áudio e CNN + LSTM em vídeo. Esses dois vetores de estado são enviados para o LSTM final, que gera o resultado (caracteres).

Diferentes tipos de dados de entrada foram usados durante o treinamento: áudio, vídeo e áudio + vídeo. Em outras palavras, é um modelo presente em todos os canais.

2.3. Sintetizando o Obama: sincronização do movimento labial do áudio

A Universidade de Washington fez um ótimo trabalho ao gerar os movimentos labiais do ex-presidente dos EUA, Obama. A escolha recaiu sobre ele devido ao grande número de gravações da sua performance online (17 horas de vídeo HD).

Eles não conseguiam se dar bem com a rede, pois tinham muitos artefatos. Portanto, os autores do artigo fizeram uso de várias muletas (ou truques, se você preferir) para melhorar a textura e o timing.

Você pode ver que os resultados são incríveis. Logo, você não vai poder confiar nem mesmo em um vídeo com o presidente do seu país.

3. Visão computacional

3.1. OCR: Google Maps e Street View

Em sua postagem e artigo, o Google Brain Team relatou como eles introduziram um novo mecanismo de OCR (sigla em inglês de Reconhecimento Ótico de Caracteres) em seus mapas, por meio do qual as placas de rua e de lojas são reconhecidas.

No processo de desenvolvimento dessa tecnologia, a empresa compilou um novo FSNS (Placas de nomes de ruas francesas), que contém muitos casos complexos.

Para reconhecer cada placa, a rede usa até quatro fotos suas. Os recursos são extraídos com a CNN, redimensionados com a ajuda da atenção espacial (as coordenadas de pixel são consideradas) e o resultado é enviado para o LSTM.

A mesma abordagem é aplicada à tarefa de reconhecer os nomes das lojas em suas placas (pode haver muitos dados conflitantes e a própria rede deve “focar” nos lugares corretos). Este algoritmo foi aplicado em 80 bilhões de fotos.

3.2. Raciocínio visual

Existe um tipo de tarefa chamada raciocínio visual, em que uma rede neural é solicitada a responder uma pergunta usando uma foto. Por exemplo: “Existe algo de borracha que seja do mesmo tamanho que o cilindro de metal amarelo que está na mesma?” Se trata de algo importante e até recentemente, a precisão era de apenas 68,5%.

E novamente o avanço foi alcançado pela equipe da Deepmind: no conjunto de dados da CLEVR eles atingiram uma precisão super-humana de 95,5%.

A arquitetura da rede é muito interessante:

  1. Usando o LSTM pré-treinado na questão de texto, obtemos a incorporação da questão.
  2. Usando a CNN (apenas quatro camadas) com a imagem, obtemos mapas de recursos (elementos que caracterizam a imagem).
  3. Em seguida, formamos combinações de fatias de coordenadas nos mapas de características em pares (amarelo, azul, vermelho na figura abaixo), adicionando coordenadas e a incorporação de texto a cada uma delas.
  4. Nós enviamos todos esses triplos através de outra rede e somamos tudo.
  5. A apresentação resultante é executada por meio de outra rede feedforward, que fornece a resposta no softmax.

3.3. Pix2Code

Uma aplicação interessante de redes neurais foi criada pela empresa Uizard: gerando o código do layout de acordo com uma captura de tela do designer de interface.

Esta é uma aplicação extremamente útil das redes neurais, que pode facilitar muito o desenvolvimento de softwares. Os autores afirmam que atingiram 77% de precisão. No entanto, isso ainda está sendo pesquisado e ainda não há conversas sobre o seu uso real.

Não há código ou conjunto de dados em código aberto, mas eles prometem fazer o upload.

3.4. SketchRNN: Ensinando uma máquina a desenhar

Talvez você já tenha visto o Quick, Draw! do Google, onde o objetivo é desenhar esboços de vários objetos em 20 segundos. A corporação coletou este conjunto de dados para ensinar a rede neural a desenhar, como o Google descreveu em seu blog e artigo.

O conjunto de dados coletados consiste em 70 mil esboços, que acabaram se tornando públicos. Os esboços não são quadros, mas representações vetoriais detalhadas de desenhos (no ponto em que o usuário pressionou o “lápis” e o soltou após a linha ser desenhada, e assim por diante).

Os pesquisadores treinaram o Autoencoder Variacional Sequence-to-Sequence (VAE) usando a RNN como um mecanismo de codificação/decodificação.

Eventualmente, como convém ao codificador automático, o modelo recebeu um vetor latente que caracteriza a imagem original.

Enquanto o decodificador pode extrair um desenho desse vetor, você pode alterá-lo e obter novos esboços.

E até mesmo fazer a aritmética vetorial para criar um porgato:

3.5. GANs

Um dos tópicos mais interessantes do Deep Learning são as Generative Adversarial Networks (as GANs). Na maioria das vezes, essa ideia é usada para trabalhar com imagens, então vou explicar o conceito usando-as.

A ideia está na competição entre duas redes – a geradora e a discriminadora. A primeira rede cria uma imagem e a segunda tenta entender se a imagem é real ou se ela é gerada.

Esquematicamente é mais ou menos assim:

Durante o treinamento, o gerador de um vetor aleatório (ruído) gera uma imagem e a insere na entrada do discriminador, que diz se ela é falsa ou não. O discriminador também recebe imagens reais do conjunto de dados.

É difícil treinar essa construção, pois é difícil encontrar o ponto de equilíbrio entre essas duas redes. Na maioria das vezes, o discriminador ganha e o treinamento fica estagnado. No entanto, a vantagem do sistema é que podemos resolver problemas nos quais é difícil definirmos a função de perda (por exemplo, melhorando a qualidade da foto) – nós a damos ao discriminador.

Um exemplo clássico de um resultado de treinamento GAN são fotos de quartos ou pessoas

Anteriormente, nós considerávamos a auto codificação (Sketch-RNN), que codifica os dados originais em uma representação latente. A mesma coisa acontece com o gerador.

A ideia de gerar uma imagem usando um vetor é claramente mostrada neste projeto no exemplo dos rostos. Você pode alterar o vetor e ver como as faces mudam.

A mesma obra aritmética sobre o espaço latente: “um homem de óculos” menos “um homem” mais uma “mulher” é igual a “uma mulher com óculos”.

3.6. Mudando a idade do seu rosto com GANs

Se você ensinar um parâmetro controlado ao vetor latente durante o treinamento, ao gerá-lo, você poderá alterá-lo e assim, gerenciar a imagem necessária na imagem. Essa abordagem é chamada de GAN condicional.

Assim como os autores do artigo, “Enfrentando o Envelhecimento com Redes Adversariais Generativas Condicionais”. Tendo treinado o mecanismo no conjunto de dados do IMDB com uma idade conhecida dos atores, os pesquisadores tiveram a oportunidade de mudar a idade do rosto da pessoa.

3.7. Fotos profissionais

O Google encontrou outra aplicação interessante de GAN – a escolha e melhoria de fotos. A GAN foi treinada em um conjunto de dados de fotos profissionais: o gerador está tentando melhorar fotos ruins (fotografadas profissionalmente e degradadas com a ajuda de filtros especiais) e o discriminador – para distinguir fotos “aprimoradas” e fotos reais.

Um algoritmo treinado passou pelos panoramas do Google Street View em busca da melhor composição e recebeu algumas fotos de qualidade profissional e semi-profissional (conforme a classificação dos fotógrafos).

3.8. Sintetização de uma imagem a partir de uma descrição de texto

Um exemplo impressionante de GANs é gerar imagens usando texto.

Os autores desta pesquisa sugerem a incorporação de texto na entrada não apenas a partir de um gerador (GAN condicional), mas também de um discriminador, para que ele verifique a correspondência do texto com a imagem. Para se certificar de que o discriminador aprendeu a desempenhar sua função, além do treinamento, eles adicionaram pares com um texto incorreto para as imagens reais.

3.9. Pix2pix

Um dos artigos mais atraentes de 2016 é “Tradução de imagem a imagem com redes condicionais adversas” da Berkeley AI Research (BAIR). Os pesquisadores resolveram o problema da geração imagem a imagem, quando, por exemplo, era necessário criar um mapa usando uma imagem de satélite ou uma textura realista dos objetos usando um esboço.

Aqui está outro exemplo do desempenho bem-sucedido das GANs condicionais. Neste caso, a condição se aplica em toda a imagem. Popular na segmentação de imagens, a UNet foi usada como a arquitetura do gerador, um novo classificador PatchGAN foi usado como um discriminador para combater imagens borradas (a imagem é cortada em N partes, e a previsão de verdadeiro/falso vai para cada uma delas separadamente).

Christopher Hesse fez o demo desse gato assustador, que atraiu grande interesse dos usuários.

Você pode encontrar o código fonte aqui.

3.10. CycleGAN

Para aplicar o Pix2Pix, você precisa de um conjunto de dados com os pares correspondentes de imagens de diferentes domínios. No caso, por exemplo, com cartões, não é um problema montar esse conjunto de dados. No entanto, se você quiser fazer algo mais complicado, como “transfigurar” objetos ou estilos, os pares de objetos não podem ser encontrados em princípio.

Portanto, os autores do Pix2Pix decidiram desenvolver sua ideia e desenvolveram o CycleGAN para a transferência entre diferentes domínios de imagens sem pares específicos – “Tradução de imagem a imagem sem pares”.

A ideia é ensinar dois pares de discriminadores-geradores a transferir a imagem de um domínio para outro e depois voltar, enquanto necessitamos de uma consistência do ciclo – depois de uma aplicação seqüencial dos geradores, devemos obter uma imagem semelhante à perda L1 original. Uma perda cíclica é necessária para garantir que o gerador não tenha apenas começado a transferir imagens de um domínio para imagens de outro domínio, que são completamente não relacionadas à imagem original.

Essa abordagem permite que você aprenda o mapeamento de cavalos -> zebras.

Tais transformações são instáveis e geralmente criam resultados duvidosos:

Você pode encontrar o código fonte aqui.

3.11. Desenvolvimento de moléculas em oncologia

O aprendizado por parte de máquinas agora está chegando à medicina. Além de reconhecer ultra-som, ressonância magnética e diagnóstico, ela pode ser usada para encontrar novos medicamentos para combater o câncer.

Aqui você encontra os detalhes desta pesquisa. Resumidamente, com a ajuda do Adversarial Autoencoder (AAE), você pode aprender a representação latente de moléculas e depois usá-la para procurar novas moléculas. Como resultado, 69 moléculas foram encontradas, metade das quais são usadas para combater o câncer, as outras também possuem um grande potencial.

3.12. Ataques Adversos

Tópicos com ataques adversos são ativamente explorados. O que são ataques adversos? Redes padrão treinadas, por exemplo, na ImageNet, são completamente instáveis ao adicionar ruído especial à imagem classificada. No exemplo abaixo, vemos que a imagem com ruído para o olho humano fica praticamente inalterada, mas o modelo enlouquece e prevê uma classe completamente diferente.

A estabilidade é alcançada com, por exemplo, o Fast Gradient Sign Method (FGSM): tendo acesso aos parâmetros do modelo, você pode fazer um ou várias camadas de gradiente em direção à classe desejada e mudar a imagem original.

Uma das tarefas na Kaggle está relacionada a isso: os participantes são encorajados a criar ataques/defesas universais, que são todos executados um contra o outro para determinar qual é o melhor.

Por que deveríamos investigar esses ataques? Primeiro, se quisermos proteger nossos produtos, podemos adicionar ruído ao captcha para evitar que os spammers o reconheçam automaticamente. Em segundo lugar, os algoritmos estão cada vez mais envolvidos em nossas vidas – sistemas de reconhecimento facial e carros autônomos. Nesse caso, os invasores podem usar as deficiências desses algoritmos.

Aqui está um exemplo de quando óculos especiais permitem que você engane o sistema de reconhecimento de rosto e “se passe por outra pessoa”. Então, precisamos levar em consideração possíveis ataques ao ensinar esses modelos.

Tais manipulações com placas também não permitem que elas sejam reconhecidas corretamente.

Um conjunto de artigos dos organizadores da ideia.

• Conteúdos já escritos sobre ataques: cleverhans e foolbox.

4. Aprendizagem de reforço

O aprendizado de reforço (RL) ou o aprendizado com reforço também é uma das abordagens mais interessantes e ativamente desenvolvidas no Deep Learning.

A essência dessa abordagem é aprender o comportamento bem-sucedido do agente em um ambiente que oferece uma recompensa por meio da experiência – assim como as pessoas aprendem ao longo da vida.

O RL é usado ativamente em jogos, robôs e gerenciamento de sistemas (tráfego, por exemplo).

Claro, todo mundo já ouviu falar sobre as vitórias da AlphaGo sobre os melhores profissionais. Os pesquisadores estavam usando RL no seu treinamento: o bot jogava consigo mesmo para melhorar suas estratégias.

4.1. Treinamento de reforço com tarefas auxiliares não controladas

Nos anos anteriores, a DeepMind aprendeu a usar o DQN para jogar jogos de arcade melhor que os humanos. Atualmente, os algoritmos estão sendo ensinados a jogar jogos mais complexos como o Doom.

Grande parte da atenção é dada à aceleração do aprendizado porque a experiência do agente em interação com o ambiente requer muitas horas de treinamento em GPUs modernas.

Em seu blog, a Deepmind relatou que a introdução de perdas adicionais (tarefas auxiliares), como a previsão de uma mudança de quadro (controle de pixel) para que o agente compreenda melhor as conseqüências das ações, acelera significativamente seu aprendizado.

Resultados obtidos:

https://youtu.be/Uz-zGYrYEjA

4.2. Robôs de aprendizagem

No OpenAI, eles têm estudado ativamente o treinamento de um agente por seres humanos em um ambiente virtual, que é mais seguro para experimentos do que na vida real.

Em um dos estudos, a equipe mostrou que o aprendizado individual é possível: uma pessoa mostra em RV como executar uma determinada tarefa, só uma demonstração já é suficiente para o algoritmo aprendê-la e depois reproduzi-la em condições reais.

Se fosse fácil assim para os seres humanos…

4.3. Aprendendo sobre as preferências dos seres humanos

Aqui está o trabalho da OpenAI e da DeepMind sobre o mesmo tópico. A ideia é que um agente tem uma tarefa, o algoritmo fornece duas soluções possíveis para o humano e indica qual é a melhor. O processo é repetido interativamente e o algoritmo para 900 bits de feedback (marcação binária) da pessoa aprendeu a resolver o problema.

Como sempre, os humanos devem ter cuidado e pensar o que eles estão ensinando para a máquina. Por exemplo, o avaliador decidiu que o algoritmo realmente queria pegar o objeto, mas, na verdade, ele só simulou essa ação.

4.4. Movimento em ambientes complexos

outro estudo da DeepMind que visa ensinar comportamentos complexos para o robô (andar, pular, etc.), e até fazê-lo agir semelhante ao ser humano, você tem que estar fortemente envolvido com a escolha da função de perda, o que vai encorajar o comportamento desejado. No entanto, seria preferível que o algoritmo aprendesse o comportamento complexo apoiando-se em recompensas simples.

Os pesquisadores conseguiram isso: ensinaram os agentes (emuladores corporais) a realizar ações complexas construindo um ambiente complexo com obstáculos e com uma recompensa simples pelo progresso no movimento.

Você pode assistir o vídeo e checar seus resultados impressionantes. No entanto, é muito mais divertido assisti-lo com um som sobreposto!

https://youtu.be/itACOKJHYmw

Finalmente, aqui está um link Sobre os algoritmos de aprendizado publicados sobre RL da OpenAI. Agora você pode usar soluções mais avançadas do que a DQN padrão.

5. Outros

5.1. Resfriando o Centro de Dados

Em julho de 2017, a Google informou que aproveitou o desenvolvimento do DeepMind no aprendizado de máquinas para reduzir os custos de energia do seu centro de dados.

Com base nas informações de milhares de sensores no seu centro de dados, os desenvolvedores da Google treinaram um conjunto de rede neural para prever a PUE (Eficácia do uso de energia) e um gerenciamento de centro de dados mais eficiente. Este é um exemplo impressionante e significativo da aplicação prática do ML.

5.2. Um modelo para todas as tarefas

Como você sabe, os modelos treinados são mal transferidos de tarefa para tarefa, pois cada tarefa precisa ser treinada para um modelo específico. Um pequeno passo em direção à universalidade dos modelos foi feito pelo Google Brain em seu artigo “One Model To Learn The All”.

Os pesquisadores treinaram um modelo que realiza oito tarefas de diferentes domínios (texto, fala e imagens). Por exemplo, tradução de diferentes idiomas, análise de texto e reconhecimento de imagem e som.

Para conseguir isso, eles construíram uma arquitetura de rede complexa com vários blocos para processar diferentes dados de entrada e gerar um resultado. Os blocos do codificadores/decodificadores se dividem em três tipos: convolução, atenção e mistura de especialistas (MoE).

Principais resultados da aprendizagem:

– Foram obtidos modelos quase perfeitos (os autores não ajustaram os hiperparâmetros).

– Existe uma transferência de conhecimento entre domínios diferentes, isto é, em tarefas com muitos dados, o desempenho será quase o mesmo. Geralmente ele se sai melhor com pequenos problemas (por exemplo, na análise).

– Blocos necessários para tarefas diferentes não interferem entre si e às vezes até se ajudam, por exemplo, o MoE – para a tarefa Imagenet.

A propósito, este modelo está presente em tensor2tensor.

5.3. Aprendendo na Imagenet em uma hora

Em seu post, a equipe do Facebook nos contou como seus engenheiros puderam ensinar o modelo Resnet-50 na Imagenet em apenas uma hora. Verdade seja dita, isso exigia um cluster de 256 GPUs (Tesla P100).

Eles usaram Gloo e Caffe2 para o aprendizado distribuído. Para tornar o processo efetivo, foi necessário adaptar a estratégia de aprendizado com um lote enorme (8192 elementos): média de gradiente, fase de aquecimento, taxa especial de aprendizado, etc.

Como resultado disso, foi possível atingir uma eficiência de 90% ao escalar de 8 a 256 GPUs. Agora, pesquisadores do Facebook podem ter respostas ainda mais rápido, ao contrário de meros mortais sem tal cluster.

6. Notícias

6.1. Carros autônomos

A esfera do carro autônomo está se desenvolvendo intensamente e esses carros são testados com frequência. A partir dos eventos relativamente recentes, podemos observar a compra da Intel MobilEye, os escândalos em torno das tecnologias Uber e Google roubadas por seu ex-funcionário, a primeira morte com uso de um piloto automático e muito mais.

Vale a pena destacar uma coisa: o Google Waymo está lançando um programa beta. A Google é pioneira nesse campo e supõe-se que a tecnologia deles é muito boa porque seus carros já percorreram mais de 3 milhões de milhas.

Quanto aos eventos mais recentes, os carros autônomos foram autorizados a viajar por todos os estados dos EUA.

6.2. Saúde

Como eu disse, o ML moderno está começando a ser introduzido na medicina. Por exemplo, a Google colabora com um centro médico para ajudar no seu diagnóstico.

A Deepmind até estabeleceu uma unidade separada.

Este ano, sob o programa do Data Science Bowl, houve uma competição para prever o câncer de pulmão em um ano, com base em imagens detalhadas, com um fundo de prêmios de um milhão de dólares.

6.3. Investimentos

Atualmente, há investimentos pesados no ML, como era antes era feito no BigData.

A China investiu US $ 150 bilhões em IA para se tornar a líder mundial do setor.

Para fins de comparação, a Baidu Research emprega 1.300 pessoas, e no mesmo FAIR (Facebook) – 80. No último KDD, funcionários da Alibaba falaram sobre seu servidor de parâmetros KungPeng, que é executado em 100 bilhões de amostras com um trilhão de parâmetros, o que “se torna uma tarefa comum ”.

Você pode tirar as suas próprias conclusões, nunca é tarde demais para estudar o aprendizado de máquinas. De uma forma ou de outra, ao longo do tempo, todos os desenvolvedores irão usar o aprendizado de máquinas, que se tornará uma das habilidades comuns, como é hoje em dia – a capacidade de trabalhar com bancos de dados.

Conclusão

É impressionante e até assustador a velocidade com que a tecnologia se desenvolve e desafios complexos se tornam mais simples a cada dia, não é mesmo?

Ainda assim, lembre-se que tudo isso é só o começo, e os avanços incríveis que você acabou de conhecer ainda estão sendo incorporados aos produtos e serviços que usamos no dia a dia.

As transformações se seguirão nos próximos anos, e os profissionais que se capacitarem a tempo poderão aproveitar o momento e construir uma carreira sólida, de muito sucesso.

Espero que este texto sirva de guia para que você se familiarize com alguns termos, técnicas, casos de uso, e, principalmente, que busque aprofundar os conhecimentos nos temas que julgar mais interessantes e alinhados com seus interesses.

Comece agora mesmo a tirar as dúvidas! Deixe seu comentário, dúvida, sugestão abaixo e terei a maior satisfação em responder 🙂

By |2018-11-20T15:28:35+00:00novembro 20th, 2018|Big Data, Ciência de Dados, Inteligência Artificial, Tecnologia|0 Comments

About the Author:

Deixe uma resposta