Início ANDROID O momento que iniciou a revolução da IA

O momento que iniciou a revolução da IA

22
0

Lee Sedol enfrentou AlphaGo em 2016

Foto AP/Ahn Young-joon/Alamy

A primeira vez que AlphaGo revelou todo o seu poder, provocou uma reação visceral. Lee Sedol, o maior jogador do mundo do antigo jogo de tabuleiro chinês Go, parece cada vez mais preocupado com o poder da inteligência artificial. Uma multidão silenciosa no centro de Seul, na Coreia do Sul, mal conseguia prender a respiração. Lee e dezenas de milhões de pessoas que assistiam em casa perceberam imediatamente que essa IA era diferente das IAs anteriores.

Isso não apenas supera Lee, mas ele faz isso com um talento quase humano. “AlphaGo é realmente intuitivo”, disse o cofundador do Google, Sergey Brin Novo Cientista em 2016, logo após o AlphaGo fazer 3-0. “Ele faz movimentos lindos. Ele até cria movimentos mais bonitos do que imaginávamos.”

A série terminou com a vitória do sistema AlphaGo do Google DeepMind por 4-1. Lee disse que ficou “chocado”.

Já se passou uma década desde aquele momento decisivo para AlphaGo e IA em geral. Admirar a IA é uma experiência comum com o sucesso de grandes modelos de linguagem como o ChatGPT. AlphaGo foi, em muitos aspectos, nosso primeiro vislumbre do que estava por vir. Dez anos depois, qual é o legado do AlphaGo e a tecnologia atingiu seu potencial?

“O atual modelo de linguagem grande é, em alguns aspectos, diferente do AlphaGo, mas na verdade existe um conjunto fundamental de tecnologias que não mudaram”, disse Chris Maddison na Universidade de Toronto, que fazia parte da equipe original do AlphaGo.

A tecnologia subjacente são as redes neurais – estruturas matemáticas inspiradas no cérebro e escritas em código. Historicamente, a criação de um motor de jogo envolveria humanos escrevendo as regras a serem seguidas em diferentes situações. Com as redes neurais, as máquinas aprendem sozinhas.

Mas mesmo com redes neurais, quebrar o Go é difícil. O antigo jogo chinês, que exige que dois jogadores movam fichas pretas e brancas para ganhar território num tabuleiro de 19 por 19, permite 10171 posição possível. Para efeito de comparação, existem apenas 1080 átomos em todo o universo observável.

A descoberta veio de Maddison e seus colegas que tentaram recriar a intuição dos jogadores humanos treinando uma rede neural para prever o próximo movimento mais forte com base em milhões de movimentos de jogos reais. Os jogadores humanos, claro, não precisam de jogar tantos jogos para desenvolverem a sua intuição, mas também nunca o conseguiriam – uma vantagem distinta para a IA.

AlphaGo também não se limita a aprender com jogadores humanos; ele pode jogar milhões de partidas contra si mesmo para aprimorar suas habilidades. “Ao aprender através deste jogo, ele pode descobrir novos conhecimentos e superar as habilidades dos jogadores no nível humano”, disse ele. Empurre para conhecer Kohli no Google DeepMind.

O sistema final que derrotou Lee era mais complexo que o modelo inicial de Maddison, mas a mensagem principal era simples: as redes neurais funcionam. “AlphaGo mostra definitivamente que as redes neurais podem reconhecer padrões melhor do que os humanos. Eles basicamente têm uma intuição que supera os humanos”, disse Noam Brown no OpenAI.

Outro alfa

Então, o que aconteceu a seguir? Depois do AlphaGo, os pesquisadores do Google DeepMind e de IA começaram a aplicar essas lições fundamentais em aplicações do mundo real, como matemática e biologia. Um dos exemplos mais marcantes disto é o AlphaFold, uma IA que pode prever a aparência das proteínas no espaço tridimensional a partir da sua composição química, muito melhor do que qualquer programa concebido pelo homem, e que valeu à equipa por detrás dele o Prémio Nobel da Química.

Recentemente, outra IA baseada em rede neural, AlphaProof, obteve medalha de ouro na Olimpíada Internacional de Matemática, um prestigiado teste de matemática para estudantes, que impressiona matemáticos. “Você não só pode ganhar inteligência além dos níveis humanos em um jogo, mas também pode ganhar essa experiência em aplicações científicas importantes”, disse Kohli.

A lógica por trás da IA ​​estilo AlphaGo e usada para modelos de linguagem grandes (LLM) como ChatGPT é semelhante. A primeira etapa, chamada de pré-treinamento, envolve alimentar grandes quantidades de dados humanos em uma rede neural, como um jogo completo de Go, ou toda a Internet, no caso do LLM. A segunda etapa, chamada de pós-treinamento, vê a rede melhorar por meio de uma técnica chamada aprendizagem por reforço, que mostra à IA como é o sucesso e permite que ela saiba como alcançá-lo.

Para o AlphaGo, isso significa deixá-lo jogar contra si mesmo milhões de vezes até encontrar a melhor estratégia vencedora. Para AlphaFold, trata-se de dizer à IA como é uma proteína dobrada com sucesso e deixá-la descobrir as regras. Para ChatGPT, ele informa a outras pessoas quais modelos fornecem melhores respostas, um processo chamado aprendizado de reforço a partir de feedback humano, ou fornece uma solução para um problema específico, como em matemática ou codificação, e permite que ele determine a melhor maneira de “raciocinar” uma solução, retornando a saída para si mesmo, semelhante à forma como os humanos pensam em voz alta.

No entanto, isso também tem pontos fracos. As redes neurais são, em muitos aspectos, caixas pretas. Apesar das tentativas de descobrir como funcionam, muitos deles são demasiado grandes e complexos para serem compreendidos a um nível básico.

Quando AlphaGo acertou seu agora famoso movimento 37, o público inicialmente pensou que a IA havia enlouquecido, mas à medida que o jogo avançava ficou claro que foi um golpe de mestre estratégico. No entanto, os engenheiros do Google DeepMind não puderam perguntar ao AlphaGo por que fizeram o que fizeram, e pode ter sido um erro, cujo motivo também não saberemos.

“Esses modelos fornecerão respostas e não saberemos se é uma visão genial ou uma alucinação”, disse Kohli. “Ainda estamos trabalhando ativamente para resolver essas questões.”

Uma grande parte da realização do AlphaGo é a riqueza de dados disponíveis para apoiar o modelo e uma definição clara de sucesso. Portanto, faz sentido que os campos onde a IA tem mais sucesso hoje em dia sejam aqueles em que ambas as condições são verdadeiras, diz Maddison, como a matemática e a programação, onde é fácil determinar e verificar o que é certo ou errado. “As semelhanças entre estas abordagens dizem-nos algo e quais são as matérias-primas necessárias para o progresso.”

Tópico:

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui