A inteligência artificial deixou de ser um termo abstrato para estar presente em praticamente todas as áreas da sociedade, incluindo, claro, os mercados de ações. Nesta entrada do Glossário da FundsPeople explicamos em que consiste esta tecnologia e as diferentes formas de a aplicar.
O que é?
Em termos simples, a Inteligência Artificial é a simulação da inteligência humana por máquinas. Os programas informáticos que utilizam grandes quantidades de dados e cálculos são treinados para realizar tarefas como a tomada de decisões e a resolução de problemas com uma intervenção humana mínima. Os algoritmos de Inteligência Artificial costumam basear-se em regras e são construídos através de um processamento interativo para reconhecer padrões e fazer previsões. A evolução de tecnologias como a nuvem, a computação e o big data contribuíram para que a Inteligência Artificial fosse mais rápida, barata e acessível.
Que tipos existem?
Num white paper publicado pela Goldman Sachs no passado mês de março, intitulado Generative AI - Part I: Laying Out the Investment Framework, os autores do estudo explicam que a Inteligência Artificial é um conceito amplo que engloba vários subgrupos, como a aprendizagem automática (machine learning), as redes neuronais (neural networks), a aprendizagem profunda (deep learning) e o processamento da linguagem natural (natural language processing - NLP). Todas estas são mudanças destacadas dentro da Inteligência Artificial, detalhadas no trabalho académico realizado pela empresa americana.
Aprendizagem automática
Tal como indicam no white paper, a Inteligência Artificial permite que as máquinas aprendam por si próprias, treinando a partir de conjuntos de dados de um modelo. Os algoritmos são treinados para fazer previsões e identificar padrões aprendendo com dados históricos. Estes algoritmos são criados utilizando linguagem de programação de machine learning.
Um exemplo simples de algoritmo de machine learning é o YouTube, que sugere um vídeo baseando-se nas anteriores visitas de uma pessoa. O processo de ensinar o algoritmo a identificar padrões começa por lhe fornecer dados de treino, que podem ser conjuntos de dados rotulados ou não rotulados.
Os modelos de aprendizagem automática são treinados utilizando uma destas duas técnicas: aprendizagem supervisionada ou não supervisionada. O supervisionada é uma técnica semelhante à aprendizagem humana: é apresentado a um computador ou máquina um conjunto de treino que consiste num grande volume de conjuntos de dados rotulados. Por sua vez, com a aprendizagem automática não supervisionada, o algoritmo é treinado para aprender a identificar padrões a partir de conjuntos de dados não estruturados.
Após introduzir os dados no algoritmo de machine learning, verifica-se se os resultados previstos e os resultados coincidem. Se a previsão não é exata, o algoritmo é treinado várias vezes até se obter o resultado desejado. O processo de formação iterativo permite, em última instância, que os algoritmos de machine learning aprendam continuamente e produzam resultados mais precisos ao longo do tempo.
- Aprendizagem automática supervisionada
Trata-se da aprendizagem automática baseada no treino supervisionado de um modelo. Os algoritmos são treinados utilizando conjuntos de dados estruturados e rotulados. O modelo é primeiro treinado com grandes volumes de valores de entrada correspondentes e valores de saída esperados, sendo depois aproveitado para prever as saídas baseando-se nos dados de teste. Por exemplo, para treinar um modelo de machine learning para reconhecer a imagem de um gato, o modelo é treinado primeiro com milhões de imagens de gatos e outros animais para aprender a distinguir características como a cor, o tamanho, a forma, etc. Quando o modelo estiver bem treinado, pode identificar um gato. As aplicações incluem deteções de fraude, a separação de imagens, o diagnóstico médico, …
- Aprendizagem automática não supervisionada
Ao contrário da anterior, estes modelos de machine learning não requerem supervisão e são treinados com conjuntos de dados não rotulados. O modelo identifica padrões, semelhanças e diferenças a partir dos dados de entrada para obter uma resposta de saída. As aplicações mais comuns destes modelos são a deteção de anomalias.
- Aprendizagem por reforço
É semelhante à aprendizagem automática sem supervisão, mas reforçada com um feedback loop automático que melhora o rendimento do algoritmo. No modelo não há conjuntos de dados classificados. É treinado com base em padrões e tendências com uma camada adicional de feedback que reforça o algoritmo sempre que é gerada a saída correta, fortalecendo assim o modelo com cada tentativa.
Redes neuronais (neural networks)
Funcionam de forma semelhante aos neurónios do cérebro humano. Tal como os seres humanos, processam a informação através de uma ampla e complexa rede de neurónios, uma rede neuronal criada artificialmente que funciona com base num sistema de múltiplos nós que processam e filtram a informação em múltiplas etapas. Os dados fluem por uma rede neuronal artificial (RNA) através de um processo feed-forward ou algoritmo de retropropagação. As redes neuronais feed-forward processam os dados unidirecionalmente, passando os dados do nó de entrada para o de saída.
A camada inicial de uma RNA é semelhante ao nervo ótico humano, que recebe os dados em bruto. Cada nó posterior é um centro de conhecimento individual que filtra e classifica os dados em cada etapa. A saída da camada anterior serve de entrada ao nó seguinte, uma vez que cada um prevê um resultado e o seguinte avalia se a saída anterior era correta. A retropropagação permite que os dados fluam através de várias vias diferentes, atribuindo o peso mais elevado à via que produz as repostas mais precisas e pesos mais baixos às vias neuronais com resultados mais débeis.
Ao aproveitar estes ciclos contínuos de feedback, as redes neuronais artificiais melhoram a sua análise preditiva. Os modelos de RNA podem ser treinados utilizando técnicas como a aprendizagem supervisionada, a aprendizagem não supervisionada e a aprendizagem por reforço.

Aprendizagem profunda (deep learning)
A aprendizagem automática tradicional requer mais intervenção humana para determinar as corretas entradas de dados e a conceção das características que o software de machine learning deve analisar, o que limita a criatividade do algoritmo. Os algoritmos de aprendizagem profunda, por outro lado, aprendem através da observação de dados não estruturados e são sobrepostos com redes neuronais artificias que tentam simular melhor o comportamento humano. Aprendem de forma independente a identificar características e a dar prioridade aos atributos dos dados.
A principal diferença entre o machine learning tradicional e a aprendizagem em profundidade é o uso de redes neuronais artificiais para treinar o algoritmo em vez da intervenção humana. Deste modo, avança o uso de técnicas de aprendizagem profunda em relação à aprendizagem automática tradicional.
Por exemplo, para treinar um algoritmo que identifique a imagem de um gato a partir de um grande conjunto de imagens de animais, um ser humano teria de dizer ao algoritmo de machine learning para identificar características como a forma da cauda do animal, a orelha, a cor do pelo, o número de patas, etc. No entanto, para treinar um algoritmo de aprendizagem profunda, a RNA processaria o conjunto de imagens subjacentes, determinaria as características que devem ser avaliadas e a ordem de prioridade em que devem fazê-lo para gerar o resultado mais preciso.
Processamento da linguagem natural (natural language processing- NLP)
Antes apenas se podia comunicar com um programa informático através de código. Com a evolução do NLP, as máquinas podem comunicar com os humanos na sua linguagem natural. O Processamento da Linguagem Natural permite aos computadores interpretar o discurso, medir o sentimento e ler textos. Para que as máquinas possam entender a linguagem humana, a NLP utiliza duas técnicas: a análise sintática e a análise semântica.
A análise sintática identifica a estrutura e a relação entre as palavras de uma frase e a análise semântica foca-se no significado das palavras e na compreensão do contexto da frase. Os algoritmos de NLP indexam as consultas em linguagem humana e convertem-nas em linguagem de máquina através dos seguintes processos: tokenização, que decompõe o texto em unidades semânticas mais pequenas; remoção de palavras com preposições e artigos que não fornecem informação adicional; lemmatization e stemming, que ajudam a categorizar e a converter as palavras na sua raiz (por exemplo, a palavra melhor seria transformada em bom), e, por último, etiquetagem de partes do discurso, que ajuda a etiquetar palavras de acordo com o seu contexto gramatical como substantivos, verbos, sinais de pontuação, etc.
Graças a estes passos, os computadores são capazes de compreender, analisar e traduzir o texto e discurso humanos. As técnicas de NLP são utilizadas para treinar algoritmos tradicionais de aprendizagem automática e aprendizagem profunda.
