• Eric Schmidt, Henry Kissinger e Daniel Huttenlocher
  • 06/04/2023
  • Compartilhe:

ChatGPT anuncia revolução intelectual

 

Eric Schmidt, Henry Kissinger e Daniel Huttenlocher

           A inteligência artificial generativa apresenta um desafio filosófico e prático numa escala não experimentada desde o início do Iluminismo.

THE WALL STREET JOURNAL – Uma nova tecnologia propõe transformar o processo cognitivo humano, reorganizando-o de uma forma não vista desde a invenção da prensa de tipos móveis. A tecnologia que imprimiu a Bíblia de Gutenberg em 1455 tornou o pensamento humano abstrato comunicável de modo geral e com celeridade. Mas a atual nova tecnologia inverte esse processo. Enquanto a prensa de tipos móveis levou a uma profusão do pensamento humano moderno, a nova tecnologia alcança sua essência e formulação. No processo, cria uma lacuna entre o conhecimento humano e a compreensão humana. Se quisermos transitar de forma bem-sucedida por essa transformação, será necessário desenvolver novos conceitos do pensamento humano e da interação com as máquinas. Este é o desafio fundamental da Era da Inteligência Artificial.

A nova tecnologia é conhecida como inteligência artificial (IA) generativa; a sigla GPT refere-se a transformador generativo pré-treinado. O ChatGPT, desenvolvido no laboratório de pesquisa da OpenAI, agora é capaz de conversar com humanos. Conforme suas capacidades aumentam, elas vão redefinir o conhecimento humano, acelerar mudanças no tecer da nossa realidade e reorganizar a política e a sociedade.

A IA generativa apresenta um desafio filosófico e prático numa escala não experimentada desde o início do Iluminismo. A prensa de tipos móveis permitiu que os estudiosos repetissem rapidamente as descobertas uns dos outros e as compartilhassem. Uma consolidação e propagação de informação sem precedentes gerou o método científico. O que era inacessível tornou-se o ponto de partida para acelerar a pesquisa. A interpretação medieval do mundo baseada na fé religiosa foi gradualmente enfraquecida. As profundezas do universo podiam ser exploradas até que novos limites da compreensão humana fossem alcançados.

A IA generativa abrirá caminhos igualmente revolucionários para a razão humana e novos horizontes para o conhecimento consolidado. Entretanto, há diferenças categóricas. O conhecimento do Iluminismo era alcançado de forma progressiva, passo a passo, com cada um desses passos sendo verificável e possível de ser ensinado. Os sistemas habilitados para IA começam de forma oposta. Eles podem armazenar e condensar uma quantidade enorme de informações existentes, no caso do ChatGPT, boa parte do material textual na internet, um grande número de livros e bilhões de outros itens. Ter esse volume de informação e sintetizá-lo está além da capacidade humana.

Métodos sofisticados de IA produzem resultados sem explicar por que ou como funciona seu processo. O computador com GPT funciona por meio de um comando dado por um ser humano. Recorrendo a aprendizado de máquina, responde em texto compreensível em segundos. Ele é capaz de fazer isso porque tem representações pré-geradas da quantidade enorme de dados com os quais foi treinado.

Como o processo pelo qual ele criou essas representações foi desenvolvido por aprendizado de máquina, que reflete padrões e conexões sobre as quantidades enormes de texto, as fontes exatas e as razões das características específicas de qualquer representação permanecem desconhecidas.

Por qual processo a aprendizado de máquina armazena seu conhecimento, condensa-o e o consulta também continua sendo uma incógnita. Independentemente de esse processo ser descoberto algum dia, o mistério associado ao aprendizado de máquina desafiará a cognição humana por um prazo indefinido.

As habilidades da IA não são estáticas, mas se expandem de modo exponencial à medida que a tecnologia avança. Recentemente, a complexidade dos modelos de IA vem dobrando em intervalos de poucos meses. Portanto, os sistemas de IA generativa têm capacidades que permanecem desconhecidas até mesmo para seus inventores. Com cada novo sistema de IA, eles estão desenvolvendo novas capacidades sem entender sua origem ou destino. Como consequência, nosso futuro agora tem um elemento completamente novo de mistério, risco e surpresa.

A ciência do Iluminismo reunia certezas, a nova IA gera um amontoado de ambiguidades. A ciência do século das luzes evoluiu tornando os mistérios explicáveis, delineando os limites do conhecimento humano e da compreensão humana conforme eles mudavam. As duas capacidades avançavam simultaneamente: a hipótese era a compreensão pronta para se tornar conhecimento; o raciocínio indutivo era o conhecimento se transformando em compreensão. Na era da IA, os enigmas são resolvidos por processos que continuam desconhecidos. Este paradoxo desnorteador revela mistérios, porém também os torna inexplicáveis. Inerentemente, a IA de grande complexidade promove o conhecimento humano, mas não a compreensão humana – um fenômeno contrário a quase toda a modernidade pós-iluminismo. Entretanto, ao mesmo tempo, a IA, quando associada à razão humana, é um meio de descoberta mais poderoso do que a razão humana sozinha.

A IA de grande complexidade promove o conhecimento humano, mas não a compreensão humana – um fenômeno contrário a quase toda a modernidade pós-iluminismo

A diferença fundamental entre o século das luzes e a era da IA não é, portanto, tecnológica, mas cognitiva. Depois do Iluminismo, a filosofia acompanhou a ciência. Novos dados confusos e muitas vezes conclusões contraintuitivas, dúvidas e inseguranças foram dissipados por explicações detalhadas da experiência humana. A IA generativa está igualmente preparada para criar uma nova forma de consciência humana. No entanto, até agora, a oportunidade existe em cores para as quais não temos um espectro e em direções para as quais não temos bússola. Nenhuma liderança política ou filosófica foi preparada para explicar e orientar essa nova relação entre homem e máquina, deixando a sociedade relativamente à deriva.

O ChatGPT é um exemplo do que é conhecido como um modelo amplo de linguagem (LLM), que pode ser usado para gerar texto semelhante ao criado por um humano. O GPT é um tipo de modelo que pode ser treinado automaticamente com quantidades enormes de texto sem a necessidade de supervisão humana. Os desenvolvedores do ChatGPT alimentaram o software com uma quantidade gigantesca de conteúdo textual do mundo digital. O poder computacional permite que o modelo grave padrões e conexões.

A capacidade dos modelos de linguagem ampla para gerar texto semelhante ao criado por um humano foi uma descoberta quase acidental. Esses modelos são treinados para serem capazes de prever a próxima palavra numa frase, o que é útil em tarefas como preenchimento automático para enviar mensagens de texto ou pesquisar na web. Entretanto, se constatou que esses modelos também têm a capacidade inesperada de criar parágrafos, artigos e, com o tempo, quem sabe até mesmo livros altamente bem estruturados.

O ChatGPT é ainda mais especializado do que um modelo amplo de linguagem básico, recorrendo ao feedback dos humanos para ajustar o modelo de modo a gerar um texto de conversa que soe mais natural, assim como para tentar conter sua tendência para respostas inadequadas (um desafio considerável para modelos de linguagem ampla). O ChatGPT converte instantaneamente suas representações em respostas únicas. A impressão final para um humano familiarizado com a tecnologia é que a IA está relacionando compilações fixas de fatos com conceitos dinâmicos.

As respostas, declarações e observações do ChatGPT surgem sem uma explicação de onde vieram e sem um autor identificável. À primeira vista, o ChatGPT não tem nenhuma motivação ou preconceitos perceptíveis. Suas mensagens são complexas, mas seu trabalho é surpreendentemente rápido: em questão de segundos, ele consegue dar respostas que explicam de forma coerente um tema nada simples. Não são apenas respostas copiadas de um texto na memória do computador.

Elas são geradas outra vez por um processo que os humanos não são capazes de repetir. O software é capaz de incorporar hipóteses e deduções psicológicas não óbvias. Ele pode priorizar em meio a bilhões de dados e selecionar um conjunto único de 200 palavras que é mais relevante (ou parecerá mais relevante para um leitor humano).

Com suas próprias palavras, faz avaliações de probabilidade a respeito de resultados futuros, misturando informações de áreas distintas em uma resposta completa. Ele parece aceitar opiniões contrárias, apresentando-as como simultaneamente compatíveis. Imita outra escrita sem copiá-la. Apesar de o modelo não ter a capacidade de compreensão de um humano, o texto produzido por ele reflete uma essência subjacente da linguagem humana.

Perguntas

Pedimos ao próprio ChatGPT para explicar suas capacidades. Você é capaz de prever o futuro?

Não, ele respondeu. “Posso apenas dar informações e responder a perguntas com base nos dados com os quais fui treinado. Não tenho experiências pessoais ou consciência, por isso não sou capaz de fazer previsões sobre eventos futuros.”

Você pode fazer avaliações de probabilidade?

“Posso dar avaliações de probabilidade com base nos dados com os quais fui treinado. Por exemplo, se fui treinado com um grande conjunto de dados de padrões meteorológicos, posso ser capaz de avaliar a chance de um determinado tipo de clima ocorrer num lugar específico em um dia qualquer. Entretanto, é importante salientar que essas considerações de probabilidade são baseadas nos padrões e nas tendências dos dados e eles nem sempre refletem com exatidão os resultados do mundo real.”

Comando: escreva um breve ensaio seguindo a linha de pensamento de Henry Kissinger sobre o papel da inteligência artificial geral no controle internacional de armas.

A resposta começa: “Como estamos à beira de uma nova revolução tecnológica, a questão da inteligência artificial geral e seu papel no controle internacional de armas torna-se cada vez mais urgente. A inteligência artificial geral trará uma estabilidade sem precedentes à medida que os sistemas avançados assumirem o controle dos processos de tomada de decisão associados à dissuasão nuclear? Ou apresentará uma nova série de perigos, conforme o equilíbrio de poder global é alterado pelo desenvolvimento de máquinas altamente inteligentes?”

Fizemos perguntas ao ChatGPT relacionadas com temas de interesse atual, como o papel da Rússia na manutenção ou no enfraquecimento da estabilidade europeia. Ele deu respostas aparentemente fundamentadas e concisas em menos de um minuto, contrabalanceando informações contraditórias e respondendo detalhadamente sem parecer ter uma opinião.

Para o receptor, a IA generativa parece sobre-humana ou, no mínimo, bastante aprimorada cognitivamente. Para um usuário ingênuo, ela parece um bibliotecário erudito extremamente rápido e muito articulado, junto com um professor sábio. Ela facilita a síntese e o questionamento dos conhecimentos do mundo de forma bem mais eficaz do que qualquer relação tecnológica ou humana existente, e faz isso com uma abrangência única. Sua capacidade de abarcar inúmeras áreas de conhecimento e imitar diversos aspectos do pensamento humano a torna polímata num grau que excede as ambições de qualquer grupo de humanos altamente qualificados.

Todas essas qualidades encorajam a aceitação incondicional de tudo o que o GPT gera e uma espécie de atmosfera mágica para o modo como funciona. Entretanto, ao mesmo tempo, tem a capacidade de desinformar os usuários humanos com afirmações erradas e completamente inventadas.

Poucos dias depois do lançamento do ChatGPT, mais de um milhão de pessoas se cadastraram para fazer perguntas a ele. Centenas de empresas estão trabalhando com tecnologias generativas e o investimento está chegando aos montes, levando as descobertas para o campo comercial. As fortes razões comerciais terão, num futuro próximo, prioridade sobre a reflexão de longo prazo a respeito de suas implicações.

Esses modelos maiores custam caro para treinar – mais de US$ 1 bilhão por modelo. Depois de treinados, milhares de computadores trabalham 24 horas por dia para operá-los. Operar um modelo pré-treinado é barato ao se comparar com o treinamento em si e requer apenas capital, em vez de capital e conhecimentos de informática. Ainda assim, o pagamento para o uso exclusivo de um modelo de linguagem ampla permanece fora dos limites da maioria das empresas. É provável que os desenvolvedores desses modelos vendam assinaturas, desse modo, um único modelo atende as necessidades de milhares de indivíduos e empresas. Como consequência, o número de modelos amplos de linguagem na próxima década talvez seja relativamente limitado. A criação e o controle desses modelos estarão bastante concentrados, ainda que seu poder de ampliar os esforços e o pensamento humanos se torne muito mais difundido.

A IA generativa não será usada apenas para modelos amplos de linguagem, mas também para construir muitos tipos de modelos, e o método vai se tornar cada vez mais variado e arcano. Ela vai afetar muitas áreas da atividade humana, por exemplo, a educação e a biologia. Os diferentes modelos vão variar em seus pontos fortes e fracos. Suas capacidades – desde escrever piadas e pintar quadros até criar anticorpos – provavelmente continuarão a nos surpreender. Assim como o modelo de linguagem ampla desenvolveu um modelo de linguagem humana mais rico do que seus criadores previam, é possível que as IAs generativas em campos diversos aprendam mais do que as tarefas que lhe foram atribuídas exigem.

Questões filosóficas

Os grandes avanços nos problemas científicos tradicionais tornaram-se prováveis.

A importância a longo prazo da IA generativa transcende as implicações comerciais ou até mesmo avanços científicos não comerciais. Ela não está apenas gerando respostas, está dando origem a questões filosoficamente profundas. Irá suscitar diplomacia e estratégia de segurança. No entanto, nenhum dos criadores desta tecnologia está dando atenção aos problemas que ela mesma criará. O governo dos Estados Unidos tampouco abordou as mudanças e as transformações fundamentais que se aproximam.

A aparente perfeição das respostas do modelo levará a um excesso de confiança em relação ao texto criado por ele. Isso já é um problema, conhecido como “viés de automação”, com programas de computador bem menos sofisticados. É provável que o efeito seja particularmente intenso nos casos em que a IA gera textos à primeira vista confiáveis. Há grandes chances de o ChatGPT reforçar as predisposições atuais para a dependência de sistemas automatizados, reduzindo o fator humano.