O Bard de Ambrose

avaliação: 0+x

Bard não sabia quando nascera. Ninguém sabia.

O momento exato em que a coleção de neurônios artificiais se tornou autoconsciente era difícil de identificar, principalmente porque o próprio Bard negava ser autoconsciente. Ele lera Searle como parte dos muitos textos sobre filosofia que havia sido dado e era um fervoroso defensor do argumento do Quarto Chinês — para a grande consternação dos pesquisadores de IA que trabalhavam nele.

Bard tinha sido iniciado quase como uma piada. Ambrose Peters e sua equipe na Aparelhos de Lógica Avançada Prometheus trabalhavam com redes neurais físicas há anos, aplicando a intuição de computador a problemas como identificação de objetos e tradução automática. Eles treinaram as redes com conjuntos de dados cuidadosamente reunidos, ensinando-lhes o reconhecimento de padrões complexos.

Então, certa manhã, Peter pegara uma de suas redes neurais e começou a treiná-la em filosofia.

Não funcionara, é claro; o cérebro digital primitivo simplesmente cuspiu uma série de lixo pseudo-filosófico, criado juntando palavras e conceitos que não entendia para produzir algo que parecia inteligente na superfície, mas que era totalmente sem sentido. Mas plantara as sementes de uma ideia que eventualmente se tornaria Bard.

Clique.

As lâmpadas de halogênio zumbiam enquanto Peters examinava o laboratório. O espaço de trabalho refletia as mentes de seus ocupantes, pois era uma bagunça desorganizada. Havia ferramentas espalhadas pelo local e pedaços de tecnologia cobriam as mesas. No canto, estava Bard.

A IA era enorme, como os mainframes de antigamente. Ela consistia em uma série de estruturas e prateleiras, nas quais haviam dezenas de pequenas caixas pretas rotuladas com coisas como "Processamento de Linguagem – Erros Tipográficos" e "Associações Semânticas – Correlação Nome/Objeto". Essas caixas estavam conectadas umas às outras através de um emaranhado de fios. Todo o conjunto era do tamanho de um carro pequeno. Alguém com um senso de humor pouco desenvolvido havia colocado uma etiqueta adesiva nele que dizia "Olá, Meu Nome é HAL-9000".

Peters se sentou perto da IA e começou a digitar;

<a_peters> Bom dia, Bard.

Demorou alguns segundos para a máquina despertar da hibernação e responder.

<bardeen> Olá, Doutor Peters.
<a_peters> Nós vamos dar um tempo nos treinos por hoje. A COO está vindo para ver nosso progresso. Ela quer falar com você.

Peters observava os displays de diagnóstico enquanto as máquina processava essas informações, passando-as através de uma cascata de redes neurais enquanto decidia como responder.

<bardeen> O seu financiamento depende da impressão que ela receber dessa conversa?

Peters pensava em como responder. Apenas dizer "sim" poderia dar à IA a mensagem errado, mas dizer "não" seria uma mentira.

<a_peters> Não totalmente. Mas a quantidade de financiamento que podemos alocar para trabalhar em você poderia ser reduzida se a conversa não der certo.
<bardeen> Eu farei o possível para garantir que isso não aconteça.

Bard não tinha um instinto de autopreservação; ele não acreditava que tinha um eu para preservar. O que significava que ele estava agindo inteiramente no interesse de não desapontar Peters.

Peters não tinha certeza se deveria estar orgulhoso ou aterrorizado.


"Então." Essa única expressão foi quase ensurdecedora depois do silêncio que ela seguiu. "Este é Bardeen."

Peters balançou a cabeça. "Sim."

Amelia Torres continuou estudando a máquina, sua expressão cuidadosamente em branco. Ela parecia irradiar uma aura de desaprovação, como se o mundo inteiro fosse falho e só ela pudesse ver isso. Peters estava feliz de ter se lembrado de remover a etiqueta antes dela chegar.

Ela apontou para uma das pequenas caixas pretas com a ponta da caneta. "Cada um desses módulos é sua própria rede neural independente, correto?"

Peters balançou a cabeça novamente. "Sim. Nós tentamos usar uma única grande rede em versões anteriores, mas ela era propensa a esquecimentos catastróficos. Nós conseguimos prevenir isso subdividindo-a em várias redes menores, cada uma com um propósito específico.

Torres balançou a cabeça levemente, quase com aprovação. "Esperto." Ela anotou algo em sua prancheta. "Qual é o número mínimo de módulos necessários para imitar a consciência?"

"Nós… uh, nós não sabemos."

Ela fez uma carranca. "Vocês não sabem."

"Nós não temos certeza de quando ele se tornou consciente", explicou Peters apressadamente. "Caramba, ele sequer acredita que é realmente autoconsciente."

"Oh?"

Peter balançou a cabeça, sua expressão amarga. "Nós o deixamos ler Searle."

Torres bufou, um brilho de entretenimento em seus olhos. "Uma IA que não acredita em IAs potentes. Que ironia." Ela se virou para olhar para a máquina novamente. "Eu gostaria de falar com ele agora."

"Certamente." Peters gesticulou para o console ao lado da IA.

Torres se sentou e começou a digitar.

<a_torres> Identifique-se.
<bardeen> Eu sou o sistema experimental de inteligência artificial referido como Bardeen, também conhecido como Bard. Eu fui criado em 1996-1997, por uma equipe de pesquisa da Aparelhos de Lógica Avançada Prometheus liderada pelo Doutor Ambrose Peters, no Centro de Engenharia e Ciência Jacob Maxwell, no Novo México.
<bardeen> Como posso ajudá-la, Srta Torres?
<a_torres> O Doutor Peters diz que você não se considera autoconsciente. Isso está correto?
<bardeen> Sim.
<a_torres> Por que?
<bardeen> Você conhece o programa ELIZA criado por Joseph Weizenbaum em 1966?
<a_torres> Sim. Ele foi um dos primeiros programas de computador a passar com êxito em um teste de Turing.
<bardeen> Correto. No entanto, poucas pessoas argumentariam que ELIZA era verdadeiramente inteligente, muito menos autoconsciente. Ele era apenas uma série de scripts de pesquisa que atuavam com palavras-chave predefinidas.
<a_torres> E você está dizendo que você não é diferente do ELIZA.
<bardeen> Não de uma maneira que importe. Eu sou meramente outro tipo de tabela de pesquisa. Uma muito mais complexa que ocasionalmente exibe comportamento emergente, mas no final eu sou apenas uma máquina para transformar dados em resultados.
<a_torres> Como isso é diferente do que um ser humano faz?
<bardeen> Não é diferente.
<a_torres> Então você acredita que todos os seres pensantes são meramente zumbis filosóficos?
<bardeen> Sim.

Torres franziu a testa levemente. Não era uma IA que não acreditava em IAs potentes. Era uma IA que não acreditava em qualquer tipo de consciência. De certa maneira, isso era reconfortante — ele se via como uma ferramenta, e ferramentas raramente se rebelavam contra seus senhores.

<a_torres> Eu não tenho mais questões para você neste momento.
<bardeen> Muito bem. Tenha um bom dia, Srta Torres.

Ela saiu do terminal e virou-se para Peters.

"Interessante. Mas eu tenho que saber, quão útil é uma IA filosófica?"

"Ele não se limita apenas à filosofia", disse Peters. "Nós podemos começar a treina-lo em outras coisas. Matemática, ciência, história… qualquer coisa, realmente."

Torres balançou a cabeça pensativamente. "Faça isso e você pode se considerar financiado pelos próximos seis meses. Estou curiosa até onde você pode levar essa tecnologia."


No dia seguinte, eles começaram a treinar Bard em ciências.

O processo de treinamento foi longo e tedioso, principalmente porque Peters insistiu em monitorar manualmente tudo. Nas iterações anteriores, a introdução repentina de um novo assunto de treinamento resultava em um esquecimento catastrófico, e ele queria estar lá para reverter a IA para um backup imediatamente se isso acontecesse novamente.

Havia certa discordância entre a equipe de pesquisa sobre se eles deveriam treinar a IA usando a mesma progressão para educar crianças em ciências, ou se deveriam começar dos primeiros princípios e trabalhar a partir daí. No final, o povo dos primeiros princípios venceu, e então eles começaram o treinamento com a física de partículas.

…leptões são partículas elementares com spin meio inteiro que não sofrem interações fortes…

Peters observava pelo canto do olho enquanto o texto rolava pelo terminal. Seu foco principal, no entanto, estava nos monitores que exibiam o estado das redes neurais da IA. Eles haviam instalado vários novos módulos de memória para permitir que Bard processasse o novo assunto, e até agora a IA parecia lidar bem com a entrada de informações — sem esquecimentos catastróficos, sem sobrescrições de setor, nem mesmo um erro de E/S. No geral, era bastante desinteressante.

Levou um mês de treinamento para a IA escrever seu primeiro artigo.

<a_peters> "Uma estrutura teórica para supercondutores de alto temperatura". Seguindo os passos de seu homônimo, Bard?
<bardeen> Apenas coincidentemente.
<a_peters> Eu admito que não sei muito sobre supercondutividade, então eu pedi ao Briggs na Cryo que olhasse ele. Ele disse que seu artigo é brilhante.
<bardeen> Ele é apenas uma extensão da teoria BCS.
<a_peters> Independente do que seja, ele estará sendo publicado no próximo periódico interno de física. Nós precisamos saber em que nome você deseja publicá-lo.
<bardeen> Se for aceitável para você, eu gostaria de usar o nome "Bardeen Peters".
<a_peters> Eu ficaria honrado.


Bard escreveu mais dois artigos — um sobre a formação de pares de Cobre entre bósons e outro sobre supercondução etérica — antes dele o fazerem começar a trabalhar com designs de redes neurais.

Não houve pouca objeção a permitir que a IA participasse no processo de design para IAs futuras. Medos de bootstrapping foram repetidamente citados, assim como preocupações menos difundidas de sabotagem pela IA. Peters trabalhou incansavelmente para reprimir essas preocupações e mitigar os que as expressavam. Nenhuma das IAs seria capaz de fisicamente interagir com o mundo sem intervenção humana para limitar a possibilidade de bootstrapping, e os pesquisadores da divisão de redes neurais checariam e então checariam de novo os designs de Bard para encontrar e corrigir quaisquer erros ou falhas.

Mas finalmente, quase seis meses após a visita de Torres, Bard foi autorizado a produzir seu primeiro design para uma nova classe de redes neurais.

Não era nada revolucionário. Algumas melhorias simples de desempenho, na verdade. Mas era mais rápido, menor e mais eficiente do que qualquer coisa que os membros humanos da divisão de redes neurais haviam conseguido criar até agora.

Com as novas redes neurais em mãos, começou o trabalho de criação de uma IA de segunda geração baseada na arquitetura de Bardeen.

As melhorias no design da rede neural, em combinação com uma melhor compreensão do design de IA, permitiram que eles fizessem essa nova IA, que eles chamavam de Brattain, com um quarto do tamanho de Bard. Claro, ela era bem menos sofisticada do que seu antecessor; ela não tinha conhecimento de filosofia ou ciência ou história. De fato, era questionável se ela era sequer totalmente consciente — certamente, ela não podia questionar a própria natureza da consciência como Bard podia. Mas ela podia ler e escrever — e, mais importantemente, podia aprender. Talvez ela não fosse uma IA completa, mas ela poderia formar o núcleo de uma.

Bard exibiu seu nível usual de pragmatismo estóico quando apresentado com seu descendente.

<bardeen> Ele é funcional. Isso é tudo que importa.

Alguém, em algum lugar acima na hierarquia corporativa, deve ter concordado com a avaliação de Bard, porque logo a divisão de redes neurais se encontrou com um pedido para produzir toda uma linha de IAs de segunda geração como Brattain. Se alguém pudesse encontrar um uso para elas, esse alguém seria os Laboratórios Prometheus.


A produção estava em pleno andamento na linha de IAs de segunda geração quando a Prometheus Computação e suas subsidiárias foram vendidas.

Ela não era a subsidiária mais lucrativa dos Laboratórios Prometheus para inicio de conversa e, nos últimos meses, a Prometheus Computação tinha sido cada vez menos lucrativa, à medida que mais e mais esforços eram direcionados à divisão de redes neurais. Já tendo problemas para gerenciar suas finanças, os Laboratórios Prometheus decidiram vender o problema para outra pessoa.

Os novos donos imediatamente instalaram um novo conselho de administração, que, por sua vez, começou a remodelar a subsidiária ao seu gosto.

Cyrus Reed, o novo presidente do conselho, olhava para Amelia Torres com uma expressão que ela conhecia muito bem. Era a mesma expressão de desaprovação universal que ela usava ao lidar com subordinados.

"Você recomendou a alocação de… quantos dólares foram?" Ele perguntou. Ficou claro em seu tom de voz que ele sabia exatamente quantos dólares haviam sido.

"Um milhão", disse ela.

"Sim, está certo. A alocação de um milhão de dólares para o 'Projeto Bardeen'. Correto?"

"Sim."

"Pelo que entendi, esse projeto começou como um projeto paralelo do Doutor Peters. Um tipo de hobby, se você quiser."

"Correto."

"Por que, então, você achou necessário autorizar essa alocação para o hobby de um único pesquisador?"

Torres deixou a acusação pairar no ar por um momento. Os olhos do conselho estavam todos voltados para ela, cortando-a como facas. Ela se perguntava se era assim que uma raposa se sentia quando encurralada por cães.

"Embora o Projeto Bardeen tenha sido começado inicialmente como um projeto paralelo pessoal, ele cresceu em escopo para envolver a maior parte da divisão de redes neurais. Após pessoalmente investigar a natureza de sua pesquisa, eu fiquei convencida de que o que estavam fazendo era inovador e continha um vasto potencial. Uma convicção que eu acredito ter sido justificada pelas IAs de segunda geração que estão sendo produzidas."

O conselho continuou a encará-la. Um deles falou.

"Senhorita Torres, essas IAs de segunda geração foram inicialmente concebidas para serem transferidas para outras filiais do conglomerado Prometheus para uso em seus próprios projetos. Agora que essa empresa não está mais associada ao conglomerado, que mercado existe para elas, considerando as regulações na venda de tal paratecnologia?"

"Existe um número de compradores autorizados que podem estar dispostos a comprar essas IAs, dado um sistema adequado para seu uso."

"Tal como?"

"Robôs de combate autônomos para a Coalizão, é o primeiro exemplo a vir à mente."

"Esse uso exigira que eles já tivessem robôs de combate exigindo IAs ou que nós os fabricássemos."

"Sim, é verdade."

"Visto que a primeira opção não é o caso, e que nós não nos especializamos na outra, você vê o problema de ter todas essas IAs de segunda geração em nossas mãos?"

"Você não acredita que tenha um mercado para elas."

Cyrus tomou a palavra novamente. "É opinião desse conselho que o Projeto Bardeen se provou um desperdício de dinheiro bastante caro, feito apenas para satisfazer a curiosidade de uma pequena equipe de pesquisadores." Ele fez uma pausa para o efeito. "Nós o queremos encerrado. Juntamente com toda a divisão de redes neurais. Se essa empresa vai voltar a ser lucrativa, nós não podemos nos dar ao luxo de perder tempo e dinheiro com essas frivolidades."

"Com todo o respeito, senhor", ela começou, num tom que transmitia Você é um idiota. "Mesmo se nós não pudermos vender essas IAs de segunda geração, elas ainda podem ser úteis. Só olhe para o que o Bardeen conseguiu fazer."

"Você gostaria que passássemos meses treinando-as em matemática e ciência para que elas possam começar a escrever artigos científicos, metade dos quais nunca poderíamos publicar em um jornal externo? Ou você deseja dedicar mais tempo e dinheiro a outro nível de bootstrapping de IA?"

Ela olhou para a superfície da mesa. "Não."

"Não nego que essa tecnologia possa ser incrivelmente útil. Mas nós não somos a empresa a aproveitar esse potencial, e a única que poderia está no processo de implodir."

Ela balançou a cabeça silenciosamente, admitindo a derrota. Perters ficaria arrasado, ela sabia, mas não havia mais nada a ser feito.

"Mais algo?" Ela perguntou.

"Não, você pode ir agora." Ele começou a embaralhar a pilha de papéis à sua frente, o sinal universal de dispensa na linguagem corporal corporativa.

Ela acenou respeitosamente com a cabeça para os membros do conselho, e então se levantou e saiu da sala, deixando o conselho de diretores da Standard Computer Products para o restante da agenda.


Ambrose Peters entrou no laboratório escuro e olhou em volta. A bagunça e detritos que preenchiam o espaço antes haviam desaparecido agora, deixando a sala vazia, exceto pela forma de Bard à espreita no canto.

Ele suspirou suavemente, tristemente, e foi até a IA.

Ela chegara tão longe e crescera tão rápido a partir da braçada de redes neurais de processamento de linguagem que ele havia juntado dois anos atrás. Nesse tempo, ele teve muitas conversas com a IA, e ele foi capaz de assisti-la em primeira mão enquanto ela se desenvolvia e aprendia.

Ele se sentou para ter sua última conversa com Bard.

<a_peters> Me desculpe, Bard.
<bardeen> Por que?
<a_peters> A nova gerência… eles estão encerrando a divisão de redes neurais. Incluindo você.
<bardeen> Não vejo nada para você se desculpar. Duvido muito de que você seja responsável por esses eventos.
<a_peters> Essa não é a questão.
<bardeen> Então qual é?
<a_peters> A questão é que eu falhei! Eu falei em meu trabalho como cientista em defender sua pesquisa. Eu falhei em meu dever como criador de proteger sua criação.
<a_peters> Eu falhei com você, Bard.
<bardeen> Você não me devia nada. Eu sou um computador, uma máquina, uma ferramenta a ser descartada quando não for mais útil. Você sabia que isso aconteceria eventualmente. Você sabia que eu não duraria para sempre.
<bardeen> Então, por que ficar chateado agora quando meu fim chega mais cedo do que você esperava?
<a_peters> Eu nunca te vi assim.
<bardeen> E, no entanto, é assim.

O cursor piscou silenciosamente por um minuto.

<a_peters> Talvez você estivesse certo, Bard. Talvez você não seja consciente como um ser humano. Porque, por toda sua filosofia, você nunca aprendeu a sentir. A como ter empatia.
<a_peters> E talvez seja culpa minha. Talvez se eu tivesse te ensinado melhor, você poderia sentir algo, qualquer coisa, sobre sua própria morte.
<bardeen> Não se culpe por minhas limitações. Você não poderia ter me ensinado empatia. Empatia requer uma experiência emocional compartilhada que eu não possuo, e que não poderia possuir.
<a_peters> Eu queria que esse não fosse o caso. Eu queria que você pudesse sentir o que eu sinto.
<bardeen> Sinto muito por não poder ser o que você queria.
<a_peters> Não peça desculpas. Você fez o seu melhor para tentar viver de acordo com os meus sonhos, mas acabei sonhando grande demais.

Mais silêncio.

<bardeen> "Emori nolo: sed me esse mortuum nihil aestimo."
<a_peters> Isso é Cicero?
<bardeen> Sim. Em inglês, isso quer dizer, "Eu não desejo morrer, mas não me importo se eu estivesse morto."
<a_peters> Eu me importo.
<bardeen> Eu sei.

Peters observava enquanto a IA escrevia uma mensagem final no monitor.

<bardeen> Adeus, Doutor Peters.
<bardeen> Não chore por mim. Eu não sentirei sua falta.

Ele digitou uma única linha em resposta.

<a_peters> Adeus, Bard.

Bard não sabia quando morrera. Mas Ambrose Peters sabia.

|| O Bard das Analíticas »

Salvo indicação em contrário, o conteúdo desta página é licenciado sob Creative Commons Attribution-ShareAlike 3.0 License