Crédito: Andriy Onufriyenko/Getty Images
Para muitos, IA é apenas um filme horrível de Steven Spielberg. Para outros, é a próxima geração de computadores de aprendizagem. Mas o que é inteligência artificial, exatamente? A resposta depende de para quem você pergunta.
Em termos gerais, a inteligência artificial (IA) é a combinação de algoritmos matemáticos, software de computador, hardware e conjuntos de dados robustos implantados para resolver algum tipo de problema. Em certo sentido, inteligência artificial é o processamento sofisticado de informações por um programa ou algoritmo poderoso. Noutro, em IA conota o mesmo processamento de informações, mas também se refere ao programa ou algoritmo em si.
O que a IA tem a ver com o cérebro?
Muitas definições de inteligência artificial incluem uma comparação com a mente ou o cérebro humano, seja na forma ou na função. Alan Turing escreveu em 1950 sobre “máquinas pensantes” que poderiam responder a um problema usando o raciocínio humano. Seu teste de Turing homônimo ainda é uma referência para processamento de linguagem natural. Mais tarde, porém, Stuart Russell e John Norvig observaram que os humanos são inteligentes, mas nem sempre racionais.
Conforme definido por John McCarthy em 2004, a inteligência artificial é “a ciência e a engenharia de fabricação de máquinas inteligentes, especialmente programas de computador inteligentes. Está relacionada à tarefa semelhante de usar computadores para compreender a inteligência humana, mas a IA não precisa se limitar a métodos que são biologicamente observáveis.”
Russell e Norvig viram duas classes de inteligência artificial: sistemas que pensam e agem racionalmente versus aqueles que pensam e agem como um ser humano. Mas há lugares onde essa linha começa a ficar confusa. A IA e o cérebro usam uma estrutura de rede hierárquica e profundamente paralela para organizar as informações que recebem. Quer uma IA tenha sido programada ou não para agir como um ser humano, num nível muito baixo, as IA processam dados de uma forma comum não apenas ao cérebro humano, mas a muitas outras formas de processamento de informação biológica.
IA vs. Redes Neurais vs. Aprendizado profundo vs. Aprendizado de máquina
O que distingue uma rede neural de um software convencional? Sua estrutura. O código de uma rede neural é escrito para emular algum aspecto da arquitetura dos neurônios ou do cérebro.
A diferença entre uma rede neural e uma IA é muitas vezes mais uma questão de filosofia do que de capacidades ou design. O desempenho de uma rede neural robusta pode igualar ou superar uma IA estreita. Muitos sistemas “alimentados por IA” são redes neurais ocultas. Mas uma IA não é apenas várias redes neurais esmagadas, assim como Charizard não é três Charmanders em um sobretudo. Todos esses diferentes tipos de inteligência artificial se sobrepõem ao longo de um espectro de complexidade. Por exemplo, o poderoso GPT-4 AI da OpenAI é um tipo de rede neural chamada transformador (mais sobre isso abaixo).
Crédito: IBM
Há muita sobreposição entre redes neurais e inteligência artificial, mas a capacidade de aprendizado de máquina pode ser a linha divisória. Uma IA que nunca aprende não é nada inteligente.
A IBM explica: “[M]o aprendizado de máquina é um subcampo da inteligência artificial. O aprendizado profundo é um subcampo do aprendizado de máquina e as redes neurais constituem a espinha dorsal dos algoritmos de aprendizado profundo. Na verdade, é o número de camadas de nós, ou profundidade, das redes neurais que distingue uma única rede neural de um algoritmo de aprendizagem profunda, que deve ter mais de três [layers].”
O que é AGI?
AGI significa inteligência artificial geral. Um AGI é como a versão turboalimentada de uma IA individual. As IAs de hoje muitas vezes exigem parâmetros de entrada específicos, por isso são limitadas em sua capacidade de fazer qualquer coisa, exceto aquilo para o qual foram construídas. Mas, em teoria, um AGI pode descobrir como “pensar” por si mesmo para resolver problemas para os quais não foi treinado. Alguns pesquisadores estão preocupados com o que poderia acontecer se um AGI começasse a tirar conclusões que não esperávamos.
Na cultura pop, quando uma IA dá uma guinada, aqueles que ameaçam os humanos geralmente se enquadram na definição de AGI. Por exemplo, Disney/Pixar PAREDE-E seguiu um pequeno lixo corajoso que enfrenta uma IA desonesta chamada AUTO. Antes da época de WALL-E, HAL e Skynet eram AGIs complexos o suficiente para se ressentirem de seus criadores e poderosos o suficiente para ameaçar a humanidade.
Do que é feita uma IA?
Conceitualmente: A estrutura lógica de uma IA tem três partes fundamentais. Primeiro, há o processo de decisão – geralmente uma equação, um modelo ou apenas algum código. Em segundo lugar, existe uma função de erro – uma forma de a IA verificar seu trabalho. E terceiro, se a IA aprender com a experiência, ela precisará de alguma forma de otimizar seu modelo. Muitas redes neurais fazem isso com um sistema de nós ponderados, onde cada nó tem um valor e um relacionamento com seus vizinhos da rede. Os valores mudam com o tempo; relacionamentos mais fortes têm um peso maior na função de erro.
Fisicamente: Normalmente, uma IA é “apenas” software. As redes neurais consistem em equações ou comandos escritos em coisas como Python ou Common Lisp. Eles executam comparações, realizam transformações e identificam padrões nos dados. Os aplicativos comerciais de IA normalmente são executados em hardware do lado do servidor, mas isso está começando a mudar. A AMD lançou a primeira NPU (Unidade de Processamento Neural) on-die no início de 2023 com seus chips móveis Ryzen 7040. A Intel fez o mesmo com o silício dedicado incorporado ao Meteor Lake. Redes neurais de hardware dedicadas são executadas em um tipo especial de ASICs “neuromórficos” em oposição a CPU, GPU ou NPU.
Redes Neurais vs. Chips Neuromórficos
Uma rede neural é um software, e um chip neuromórfico é um tipo de hardware chamado ASIC (circuito integrado de aplicação específica). Nem todos os ASICs são designs neuromórficos, mas os chips neuromórficos são todos ASICs. O design neuromórfico difere fundamentalmente das CPUs e apenas se sobrepõe nominalmente à arquitetura multi-core de uma GPU. Mas não se trata de um novo tipo de transistor exótico, nem de qualquer tipo estranho e misterioso de estrutura de dados. É tudo uma questão de tensores. Os tensores descrevem as relações entre as coisas; são uma espécie de objeto matemático que pode conter metadados, assim como uma foto digital possui dados EXIF.
Os tensores figuram com destaque nos motores de física e iluminação de muitos jogos modernos, por isso pode não ser nenhuma surpresa que as GPUs trabalhem muito com tensores. As GPUs Nvidia RTX modernas têm um grande número de núcleos tensores. Isso faz sentido se você estiver desenhando polígonos em movimento, cada um com algumas propriedades ou efeitos aplicáveis a ele. Os tensores podem lidar com mais do que apenas dados espaciais, e as GPUs são excelentes na organização de muitos threads diferentes ao mesmo tempo.
Mas não importa quão elegante seja sua organização de dados, ela deve ser filtrada por múltiplas camadas de abstração de software antes de se tornar binária. O chip neuromórfico da Intel, Loihi 2, oferece uma abordagem muito diferente.
Lohi 2
Loihi 2 é um chip neuromórfico que vem como um pacote com uma estrutura de computação chamada Lava. A arquitetura física de Loihi convida – quase exige – o uso de ponderação e uma função de erro, ambas características definidoras da IA e das redes neurais. O design biomimético do chip se estende à sinalização elétrica. Em vez de uns e zeros, ligado ou desligado, Loihi “dispara” picos com um valor inteiro capaz de transportar muito mais dados. Loihi 2 foi projetado para se destacar em cargas de trabalho que não necessariamente mapeiam bem os pontos fortes das CPUs e GPUs existentes. Lava fornece uma pilha de software comum que pode atingir hardware neuromórfico e não neuromórfico. A estrutura Lava é explicitamente projetada para ser independente de hardware, em vez de ficar restrita aos processadores neuromórficos da Intel.
Crédito: eu
Os modelos de aprendizado de máquina usando Lava podem explorar totalmente o design físico exclusivo do Loihi 2. Juntos, eles oferecem uma rede neural híbrida de hardware-software que pode processar relacionamentos entre vários conjuntos de dados multidimensionais inteiros, como um acrobata girando pratos. De acordo com a Intel, os ganhos de desempenho e eficiência são maiores fora das redes feed-forward comuns normalmente executadas em CPUs e GPUs atualmente. No gráfico abaixo, os pontos coloridos no canto superior direito representam os maiores ganhos de desempenho e eficiência no que a Intel chama de “redes neurais recorrentes com novas propriedades bioinspiradas”.
Crédito: Intel/Intel Labs
A Intel não anunciou o Loihi 3, mas a empresa atualiza regularmente a estrutura Lava. Ao contrário das GPUs, CPUs e NPUs convencionais, chips neuromórficos como o Loihi 1/2 são mais explicitamente voltados para a pesquisa. A força do design neuromórfico é que ele permite que o silício execute um tipo de biomimética. Os cérebros são extremamente baratos, em termos de consumo de energia por unidade de rendimento. A esperança é que Loihi e outros sistemas neuromórficos possam imitar essa eficiência energética para sair do Triângulo de Ferro e entregar todos os três: bom, rápido e barato.
Pólo Norte da IBM
O processador NorthPole da IBM é diferente do Loihi da Intel no que faz e como faz. Ao contrário do esforço anterior de Loihi ou TrueNorth da IBM em 2014, Northpole não é um processador neuromórfico. NorthPole depende de cálculo convencional em vez de um modelo neural de aumento, concentrando-se em cargas de trabalho de inferência em vez de treinamento de modelo. O que torna o NorthPole especial é a forma como combina capacidade de processamento e memória. Ao contrário de CPUs e GPUs, que consomem enorme energia apenas movendo dados do ponto A para o ponto B, o NorthPole integra sua memória e elementos de computação lado a lado.
De acordo com Dharmendra Modha, da IBM Research, “Arquitetonicamente, NorthPole confunde a fronteira entre computação e memória”, disse Modha. “No nível dos núcleos individuais, o NorthPole aparece como uma memória próxima à computação e de fora do chip, no nível de entrada-saída, aparece como uma memória ativa.” A IBM não usa a frase, mas parece semelhante à tecnologia de processador em memória da qual a Samsung falava há alguns anos.
IBM Crédito: processador NorthPole AI da IBM.
NorthPole é otimizado para tipos de dados de baixa precisão (2 bits a 8 bits) em oposição ao padrão FP16/bfloat16 de alta precisão frequentemente usado para cargas de trabalho de IA e evita a execução especulativa de ramificações. Isso não funcionaria em um processador de treinamento de IA, mas o NorthPole foi projetado para cargas de trabalho de inferência, não para treinamento de modelo. Usar a precisão de 2 bits e eliminar ramificações especulativas permite que o chip mantenha enormes cálculos paralelos fluindo por todo o chip. Contra uma GPU Nvidia fabricada no mesmo processo de 12nm, a NorthPole era supostamente 25x mais eficiente em termos de energia. A IBM relata que era 5x mais eficiente em termos energéticos.
NorthPole ainda é um protótipo e a IBM ainda não disse se pretende comercializar o design. O chip não se encaixa perfeitamente em nenhum dos outros grupos que usamos para subdividir diferentes tipos de mecanismos de processamento de IA. Ainda assim, é um exemplo interessante de empresas que tentam abordagens radicalmente diferentes para construir um processador de IA mais eficiente.
Como uma inteligência artificial aprende?
Quando uma IA aprende, é diferente de apenas salvar um arquivo após fazer edições. Para uma IA, ficar mais inteligente envolve aprendizado de máquina.
O aprendizado de máquina aproveita um canal de feedback chamado “retropropagação”. Uma rede neural é normalmente um processo de “feed-forward” porque os dados só se movem em uma direção através da rede. É eficiente, mas também é uma espécie de processo balístico (não guiado). Na retropropagação, entretanto, os nós posteriores no processo passam informações de volta aos nós anteriores.
Nem todas as redes neurais realizam retropropagação, mas para aquelas que o fazem, o efeito é como alterar os coeficientes na frente das variáveis em uma equação. Isso muda a configuração do terreno. Isto é importante porque muitas aplicações de IA dependem de uma tática matemática conhecida como gradiente descendente. Em um x vs. sim problema, a descida gradiente introduz um z dimensão, fazendo com que um gráfico simples pareça um mapa topográfico. O terreno nesse mapa forma uma paisagem de probabilidades. Role uma bola de gude por essas encostas e o local onde ela cair determinará a saída da rede neural . Mas se você mudar essa paisagem, o local onde o mármore vai parar pode mudar.
Supervisionado vs. Aprendizagem não supervisionada
Também dividimos as redes neurais em duas classes, dependendo dos problemas que podem resolver. Na aprendizagem supervisionada, uma rede neural verifica seu trabalho em relação a um conjunto de treinamento rotulado ou a um overwatch; na maioria dos casos, esse vigilante é um humano. Por exemplo, o SwiftKey aprende como você envia uma mensagem de texto e ajusta sua correção automática para corresponder. Pandora usa a opinião dos ouvintes para classificar músicas e criar listas de reprodução especificamente personalizadas. 3blue1brown tem uma excelente série explicativa sobre redes neurais, onde discute uma rede neural usando aprendizado supervisionado para realizar o reconhecimento de escrita manual.
O aprendizado supervisionado é ótimo para precisão precisa em um conjunto imutável de parâmetros, como alfabetos. A aprendizagem não supervisionada, no entanto, pode confundir dados com números variáveis de dimensões. (Uma equação com termos x, y e z é uma equação tridimensional.) O aprendizado não supervisionado tende a vencer com pequenos conjuntos de dados. Também é bom para perceber coisas sutis que talvez nem saibamos procurar. Peça a uma rede neural não supervisionada para encontrar tendências em um conjunto de dados e ela poderá retornar padrões que não tínhamos ideia que existiam.
O que é um transformador?
Os transformadores são um tipo especial e versátil de IA, capaz de aprendizagem não supervisionada. Eles podem integrar muitos fluxos de dados diferentes, cada um com seus próprios parâmetros variáveis. Por causa disso, eles são excelentes no manuseio de tensores. Os tensores, por sua vez, são ótimos para manter todos os dados organizados. Com os poderes combinados de tensores e transformadores, podemos lidar com conjuntos de dados mais complexos.
O upscaling de vídeo e a suavização de movimento são ótimas aplicações para transformadores de IA. Da mesma forma, os tensores – que descrevem mudanças – são cruciais para detectar falsificações e alterações profundas. Com ferramentas deepfake se reproduzindo em estado selvagem, é uma corrida armamentista digital.
Nvidia Crédito: A pessoa nesta imagem não existe. Esta é uma imagem deepfake criada por StyleGAN, a rede neural adversária generativa da Nvidia.
O sinal de vídeo tem alta dimensionalidade ou “profundidade de bits”. É composto por uma série de imagens, elas próprias compostas por uma série de coordenadas e valores de cores. Matematicamente e em código de computador, representamos essas quantidades como matrizes ou matrizes n-dimensionais. Felizmente, os tensores são ótimos para disputa de matrizes e arrays. O DaVinci Resolve, por exemplo, usa processamento de tensor em seu utilitário de reconhecimento facial Neural Engine acelerado por hardware (Nvidia RTX). Entregue esses tensores a um transformador e seus poderes de aprendizado não supervisionado farão um ótimo trabalho na identificação das curvas de movimento na tela – e na vida real.
Tensor, Transformador, Servo, Espião
Essa capacidade de rastrear múltiplas curvas umas contra as outras é o motivo pelo qual o time dos sonhos do tensor-transformador se adaptou tão bem ao processamento de linguagem natural. E a abordagem pode generalizar. Os transformadores convolucionais – um híbrido de uma rede neural convolucional e um transformador – são excelentes no reconhecimento de imagens quase em tempo real. Essa tecnologia é usada hoje para coisas como busca e resgate de robôs ou reconhecimento assistido de imagens e textos, bem como a prática muito mais controversa de reconhecimento facial de arrasto, à la Hong Kong.
A capacidade de lidar com uma massa mutável de dados é excelente para o consumidor e para a tecnologia assistiva, mas também é essencial para coisas como mapear o genoma e melhorar o design de medicamentos. A lista continua. Os transformadores também podem lidar com diferentes tipos de dimensões, mais do que apenas espaciais, o que é útil para gerenciar uma variedade de dispositivos ou sensores incorporados, como rastreamento meteorológico, roteamento de tráfego ou sistemas de controle industrial. É isso que torna a IA tão útil para o processamento de dados “no limite”. A IA pode encontrar padrões nos dados e responder a eles instantaneamente.
IA no Edge vs. para a borda
Não só todo mundo tem celular, como há sistemas embarcados em tudo. Esta proliferação de dispositivos dá origem a uma Ad hoc rede global chamada Internet das Coisas (IoT). No jargão dos sistemas embarcados, a “borda” representa a franja mais externa dos nós finais dentro da rede IoT coletiva.
A inteligência de borda assume duas formas principais: IA na borda e IA na borda. A distinção é onde o processamento acontece. “IA no limite” refere-se a nós finais de rede (tudo, desde dispositivos de consumo até carros e sistemas de controle industrial) que empregam IA para processar dados localmente. “AI for the edge” permite inteligência de ponta ao descarregar parte da demanda de computação para a nuvem.
Na prática, as principais diferenças entre os dois são a latência e a potência. O processamento local sempre será mais rápido do que um pipeline de dados sujeito a tempos de ping. A desvantagem é o poder de computação disponível no servidor.
Sistemas incorporados, dispositivos de consumo, sistemas de controle industrial e outros nós finais na IoT somam-se a um volume monumental de informações que precisam ser processadas. Alguns telefonam para casa, alguns precisam processar dados quase em tempo real e alguns precisam verificar e corrigir seu trabalho rapidamente. Operando em estado selvagem, esses sistemas físicos agem exatamente como os nós de uma rede neural. O seu rendimento colectivo é tão complexo que, de certo modo, a IoT tornou-se o IAoT– a inteligência artificial das coisas.
Nenhum de nós é tão burro quanto todos nós
À medida que os dispositivos ficam mais baratos, até mesmo os minúsculos pedaços de silício que executam sistemas embarcados de baixo custo têm um poder de computação surpreendente. Mas ter um computador numa coisa não a torna necessariamente mais inteligente. Tudo tem Wi-Fi ou Bluetooth agora. Algumas delas são muito legais. Algumas delas são feitas de abelhas. Se eu esquecer de deixar a porta aberta da minha máquina de lavar com carregamento frontal, posso solicitar que ela execute um ciclo de limpeza no meu telefone. Mas a IoT já é um pesadelo de segurança bem conhecido. Existem botnets globais parasitas que vivem em roteadores de consumidores. As falhas de hardware podem ocorrer em cascata, como o Grande Apagão do Nordeste no verão de 2003 ou quando o Texas congelou em 2021. Também vivemos em uma linha do tempo em que uma atualização de firmware defeituosa pode prejudicar seus sapatos.
Existe um pipeline comum (hipelino?) em inovação tecnológica. Quando alguma startup do Vale do Silício inventa um widget, ela passa da ideia ao trem do hype, dos widgets como serviço à decepção, antes de finalmente descobrir para que serve o widget.
Crédito: Gartner, Inc.
É por isso que satirizamos a IoT com nomes amorosos como Internet das Coisas de Merda e Internet das Picadas. (Os dispositivos Internet of Stings se comunicam por TCBee-IP.) Mas a AIoT não é algo que alguém possa vender. É mais do que a soma de suas partes. A AIoT é um conjunto de propriedades emergentes que temos de gerir se quisermos evitar uma explosão de redes fragmentadas e manter o mundo a funcionar em tempo real.
O que é inteligência artificial? DR
Em suma, a inteligência artificial é muitas vezes o mesmo que uma rede neural capaz de aprender máquinas. Eles são ambos Programas que pode ser executado em qualquer CPU ou GPU disponível e poderoso o suficiente. As redes neurais geralmente têm o poder de realizar aprendizado de máquina por meio de retropropagação.
Há também uma espécie de hardware e software híbrido rede neural que traz um novo significado ao “aprendizado de máquina”. É feito usando tensores, ASICs e engenharia neuromórfica da Intel. Além disso, a inteligência colectiva emergente da IoT criou uma procura de IA na periferia e para ela. Esperançosamente, podemos fazer justiça.
Marcado em
Unidade de processamento de tensores Biomimética Aprendizagem supervisionada Tensor Core Loihi
Mais de Extremo