Sei sulla pagina 1di 446

Ficção científica e filosofia

Elogio à primeira edição "... um casamento bem-sucedido da arte com a filosofia


analítica".

Mentes e máquinas, outono de 2010

“Susan Schneider é a Sarah Connor da filosofia, enquanto pondera o papel da


ficção científica e dos experimentos de pensamento para ajudar a entender
upload, viagens no tempo, superinteligência, singularidade, consciência ... e
fisicalismo. Hasta La Vista, bebê.

Richard Marshall, 3 quarks por dia

"A ficção científica e a filosofia unem duas áreas e dialogam ... a ficção científica
lembra a filosofia de que toda razão e nenhuma brincadeira tornam o
pensamento uma coisa muito monótona."

Revista Discover, novembro de 2010

"Olhando as páginas, pode-se ver a atenção de Schneider aos detalhes ...


Obviamente, Schneider fez suas escolhas pela acessibilidade e devemos
aplaudi-la por isso."

Metapsicologia

“Eu sempre disse que ficção científica é um péssimo nome para esse campo; é
realmente ficção filosófica: ficção científica não ficção científica! Este livro prova
que, com sua análise penetrante do tratamento do gênero sobre questões
profundas da realidade, personalidade e ética. ”

Robert J. Sawyer, autor vencedor do Hugo Award de Hominids

Ficção científica e filosofia

Da Viagem no Tempo à Superinteligência SEGUNDA EDIÇÃO

Editado por

Susan Schneider
Wl LEY Blackwell

Esta segunda edição foi publicada pela primeira vez em 2016

Material e organização editorial © 2016 John Wiley & Sons, Inc.

Histórico da edição: Blackwell Publishing Ltd (le, 2009)

Escritório registrado

John Wiley Sc Sons, Ltd, The Atrium, Portão do Sul, Chichester, West Sussex,
P019 8SQ, Escritórios editoriais do Reino Unido

350 Main Street, Malden, MA 02148-5020, EUA

9600 Garsington Road, Oxford, OX4 2DQ, Reino Unido

O átrio, portão sul, Chichester, West Sussex, P019 8SQ, Reino Unido

Para obter detalhes de nossos escritórios editoriais globais, atendimento ao


cliente e informações sobre como solicitar permissão para reutilizar o material
protegido por direitos autorais deste livro, consulte nosso site em
www.wiley.com/wiley-blackwell .

O direito de Susan Schneider de ser identificado como o autor do material


editorial neste trabalho foi afirmado de acordo com a Lei de Direitos Autorais,
Projetos e Patentes do Reino Unido de 1988.

Todos os direitos reservados. Nenhuma parte desta publicação pode ser


reproduzida, armazenada em um sistema de recuperação ou transmitida, de
qualquer forma ou por qualquer meio, eletrônico, mecânico, fotocópia, gravação
ou de outra forma, exceto conforme permitido pela Lei de Direitos Autorais,
Projetos e Patentes do Reino Unido de 1988, sem a permissão prévia do editor.

Wiley também publica seus livros em uma variedade de formatos eletrônicos.


Algum conteúdo que aparece impresso pode não estar disponível em livros
eletrônicos.

As designações usadas pelas empresas para distinguir seus produtos são


frequentemente reivindicadas como marcas registradas. Todos os nomes de
marcas e produtos usados neste livro são nomes comerciais, marcas de serviço,
marcas comerciais ou marcas comerciais registradas de seus respectivos
proprietários. O editor não está associado a nenhum produto ou fornecedor
mencionado neste livro.

Limite de responsabilidade / isenção de garantia: Embora o editor e o autor


tenham se esforçado ao preparar este livro, eles não fazem representações ou
garantias com relação à precisão ou integridade do conteúdo deste livro e se
isentam especificamente de quaisquer garantias implícitas de comercialização
ou adequação a uma finalidade específica. É vendido com o entendimento de
que a editora não está envolvida na prestação de serviços profissionais e nem a
editora nem o autor serão responsáveis pelos danos daí decorrentes. Se for
necessário aconselhamento profissional ou outra assistência especializada, os
serviços de um profissional competente devem ser procurados.

Nomes dos dados de catalogação na publicação da Biblioteca do Congresso :


Schneider, Susan, 1968 - editor.

Título: Ficção científica e filosofia: da viagem no tempo à superinteligência /


editada por Susan Schneider.

Descrição: Segunda edição. I Hoboken: Wiley, 2016.1 Inclui índice e referências


bibliográficas.

Identificadores: LCCN 2015038424 (prim) I LCCN 2015039864 (ebook) I ISBN


9781118922613 (pbk.) I ISBN 9781118922620 (pdf) I ISBN 9781118922606
(epub) Assuntos: LCSH: Science fiction-Philosophy. I Filosofia-Introduções. I
Filosofia na literatura.

Classificação: LCC PN3433.6 .S377 2016 (prim) I LCC PN3433.6 (ebook) I DDC
809.3 / 8762-dc23

Registro de LC disponível em http://lccn.loc.gov/2015038424 Um registro de


catálogo deste livro está disponível na British Library.

Imagem da capa: © magictorch / Getty Images

Situado em 10/12/12 Sabon por SPi Global, Pondicherry, Índia 1 2016

For Dave - companheiro de navio estelar ao longo das jornadas da vida e


companheiro de ficção científica

Conteúdo

Introdução
Experiências de pensamento: ficção científica como uma janela para quebra-
cabeças filosóficos

Susan Schneider

Parte I: Posso estar em uma simulação de matriz ou computador?

Trabalhos relacionados: The Matrix; Avatar; Jogo de Ender;

Jogos Vorazes; Simulacron-3; Ubik; Tron; Cidade de permutação;

Céu de Baunilha; Recuperação total

1 Reinstalando o Eden: Felicidade em um Disco Rígido

Eric Schwitzgebel e R. Scott Bakker

2 Você está em uma simulação de computador?

Nick Bostrom

3 Caverna de Platão. Trecho da República

Platão

4 Alguns experimentos cartesianos de pensamento. Trecho de

As meditações sobre a primeira filosofia

Rene Descartes

5 A matriz como metafísica

David J. Chalmer

Parte II O que eu sou? Livre arbítrio e natureza das pessoas


Trabalhos relacionados: Lua; Programas; Jornada nas Estrelas, A Próxima
Geração:

Segundas chances; Mindscan; O Matrix; Diáspora; Visão cega; Cidade de


permutação; Pessoas de forno; Os próprios deuses;

Jerry era um homem; Nove vidas; Relatório minoritário

Onde estou? Daniel C. Dennett

Identidade pessoal Eric Olson

Mentes divididas e a natureza das pessoas Derek Par fit

Quem Ami? O que eu sou? Ray Kurzweil

10

Relatório sobre livre arbítrio e determinismo no mundo das minorias Michael


Huemer

11

Trecho de “O Livro da Vida: Um Experimento de Pensamento” Alvin I. Goldman

Parte III Mente: Natural, Artificial, Híbrida e Superinteligente

Trabalhos relacionados: Transcendência; 2001: Uma Odisséia no Espaço;


Humanos; Blade Runner; AI; Frankenstein; Acelerando; Exterminador do Futuro;
Eu Robô; Neuromancer; Últimos e Primeiros Homens; A voz de seu mestre;

O fogo sobre as profundezas; Solaris; Histórias da sua vida


12

Sonhos de robô Isaac Asimov

13

Um cérebro fala Andy Clark

14

Cyborgs desconectado Andy Clark

15

Superinteligência e Singularidade Ray Kurzweil

16 A singularidade: uma análise filosófica

David J. Chalmers

17 mentes alienígenas

Susan Schneider

Parte IV Questões Éticas e Políticas

Trabalhos relacionados: Admirável Mundo Novo; Jogo de Ender; Johnny


Mnemônico; Gattaca; Eu Robô; Exterminador do Futuro; 2001: Uma Odisséia no
Espaço; Mindscan;

Autofac; Neuromancer; Planeta dos Macacos; Filhos dos homens; Mil


novecentos e oitenta e quatro; Pianista; Por um hálito, eu fico; Idade do diamante

18 O homem na lua

George J. Anna

19 Mindscan: transcendendo e aprimorando o cérebro humano


Susan Schneider

20 O Argumento do Juízo Final

John Leslie

21 A Última Pergunta

Isaac Asimov

22 "As Três Leis da Robótica" de Asimov e a Metaética da Máquina

Susan Leigh Anderson

23 O Problema de Controle. Trechos da Superinteligência:

Caminhos, Perigos, Estratégias

Nick Bostrom

Parte V Espaço e Tempo

Trabalhos relacionados: Interestelar; Doze macacos; Matadouro-Cinco;

Todos vocês zumbis; A máquina do tempo; De volta para o Futuro;

Terra plana: um romance em muitas dimensões; Anathem

24 Um som de trovão

Ray Bradbury

25 Tempo

Theodore Sider

26 Os paradoxos da viagem no tempo


David Lewis

27 A física quântica das viagens no tempo

David Deutsch e Michael Lockwood

28 Milagres e Maravilhas: Ficção Científica como Epistemologia

Richard Hanley

Apêndice: Filósofos recomendam ficção científica

Eric Schwitzgebel

Índice

Introdução

Experiências de pensamento: ficção científica como uma janela para quebra-


cabeças filosóficos

Susan Schneider

Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Vamos abrir a porta para perguntas antigas sobre nossa própria natureza, a
natureza do universo, e se há limites para o que nós, como seres humanos,
podemos entender. Mas, por mais antigas que sejam essas questões, façamos
algo relativamente novo - tomemos emprestado do mundo dos experimentos de
ficção científica para despertar a imaginação filosófica. A boa ficção científica
raramente desaponta; boa filosofia mais raramente ainda.

Experiências de pensamento são fantasias da imaginação; eles são janelas para


a natureza fundamental das coisas. Um experimento filosófico de pensamento é
uma situação hipotética no “laboratório da mente” que descreve algo que muitas
vezes excede os limites da tecnologia atual ou até é incompatível com as leis da
natureza, mas que deve revelar algo filosoficamente esclarecedor ou
fundamental sobre o tópico em questão. As experiências de pensamento podem
demonstrar um ponto, divertir, ilustrar um quebra-cabeça, expor uma contradição
de pensamento e nos levar a fornecer esclarecimentos adicionais. De fato, os
experimentos mentais têm uma história intelectual distinta. Tanto a criação da
relatividade quanto a interpretação da mecânica quântica dependem fortemente
de experimentos de pensamento. Considere, por exemplo, o elevador de
Einstein e o gato de Schrodinger. E os filósofos, talvez até mais do que os físicos,
fazem uso pesado de experimentos mentais. René Descartes, por exemplo, nos
pediu para imaginar que o mundo físico ao nosso redor era uma ilusão
elaborada. Ele imaginou que o mundo era apenas um sonho ou, pior ainda, uma
farsa orquestrada por um demônio do mal que pretendia nos enganar. Ele então
perguntou: Como podemos realmente ter certeza de que não somos enganados
de nenhuma dessas maneiras? (Veja a peça de Descartes, capítulo 4 deste
volume.) De maneira semelhante, Platão nos pediu para imaginar prisioneiros
que estavam presos em uma caverna pelo tempo que pudessem se lembrar.
Eles enfrentam uma parede. Atrás deles é um fogo. Entre os prisioneiros e o fogo
há um caminho, onde os homens andam, carregando embarcações, estátuas e
outros objetos (veja a Figura 1.1).

Enquanto os homens andam atrás dos prisioneiros, eles e os objetos que


carregam lançam sombras na parede da caverna. Os prisioneiros não são,
portanto, capazes de ver os homens e objetos reais; o mundo deles é apenas
um mundo de sombras. Não sabendo nada das reais causas das sombras, os
prisioneiros naturalmente confundiam essas sombras com a natureza real das
coisas. Platão então perguntou: Isso é análogo ao nosso próprio entendimento
da realidade? Ou seja, a condição humana é tal que nossa compreensão da
realidade é apenas parcial, captando apenas um vislumbre da verdadeira
natureza das coisas, como o mundo das sombras dos prisioneiros? 1

Curiosamente, se você lê escritores de ficção científica como Stanislaw Lem,


Isaac Asimov, Arthur C. Clark e Robert Sawyer, você já está ciente de que alguns
dos melhores contos de ficção científica são, na verdade, versões longas de
experimentos filosóficos. Do filme 2001 de Clark : A Space Odyssey, que
explorou as idéias gêmeas de design inteligente e inteligência artificial que deram
errado, aos filmes Matrix, que foram parcialmente inspirados pela Caverna de
Platão, a filosofia e a ficção científica estão convergindo para um conjunto de
temas e perguntas compartilhados . De fato, quase não há fim para a lista de
questões na ficção científica que são filosoficamente intrigantes. É, portanto,
minha modesta esperança que este pequeno livro isole várias áreas-chave da
filosofia em que a interação entre filosofia e ficção científica é especialmente rica.
Por exemplo, você pode ter visto os filmes AI ou I, Robot (ou pode ter lido as
histórias de que são derivados). E você pode ter perguntado:

• Os robôs podem estar conscientes? Eles deveriam ter direitos?

• A inteligência artificial que é mais inteligente do que nós é possível?


Ou você pode ter lido uma história de viagem no tempo, como The Time, de HG
Wells

Machine e perguntou:

• É possível viajar no tempo? De fato, qual é a natureza do espaço e do tempo?

Neste livro, nos aprofundamos nessas questões, bem como em muitas outras,
como:

• Eu poderia ser enganado sobre o mundo externo, como em Matrix ou Vanilla


Sky ?

• Qual é a natureza das pessoas? Por exemplo, minha mente pode sobreviver à
morte do meu corpo? Posso "carregar" minhas memórias em um computador e
de alguma forma sobreviver (como no filme Transcendence e no romance
Mindscan )?

• Nós sempre agimos livremente, ou tudo é predeterminado? (ver, por exemplo,


relatório minoritário).

• Devemos melhorar nosso cérebro e até mudar nossa própria natureza? (veja,
por exemplo, o gênero cyberpunk).

Então, vamos ver, com mais detalhes, aonde nossas reflexões levarão.

Parte I: Eu poderia estar em uma “Matriz” ou Simulação por Computador?

Trabalhos relacionados: The Matrix-, Avatar, Ender's Game-,

Jogos Vorazes-, Simulacron-3; Ubik-, Tron;

Cidade de Permutação - Vanilla Sky; Recuperação total

Você senta aqui na frente deste livro. Você está tão confiante de que o livro existe
quanto a existência de qualquer objeto físico. A iluminação é boa; de fato, você
sente as páginas pressionando suas mãos - isso não é ilusão. Mas pense em
histórias como Matrix ou Vanilla Sky. Como você pode realmente ter certeza de
que isso é real? Talvez você faça parte de uma realidade virtual gerada por
computador, criada por um supercomputador onipotente de proporções
impensáveis. Existe alguma maneira de descartar esse cenário?

Nossa primeira seção explora a questão acima mencionada da realidade do


mundo externo. O mundo ao seu redor - as pessoas que você encontra, o livro
que está lendo agora, e até mesmo a sua mão - realmente existe? As respostas
a essa pergunta são um foco central do subcampo da filosofia, conhecido como
"epistemologia" ou "teoria do conhecimento". O cético sobre o mundo externo
sustenta que não podemos saber que o mundo externo em que acreditamos está
realmente ao nosso redor. existe; em vez disso, podemos estar em um sonho,
em realidade virtual e assim por diante. Começamos a seção com “Reinstalando
o Eden”, uma história que é uma colaboração entre o escritor de ficção científica
R. Scott Bakker e o filósofo Eric Schwitzgebel que descreve a criação de um
mundo simulado. Voltamos então às idéias acima mencionadas de Platão e
Descartes; tais fornecem antecedentes filosóficos essenciais para este tópico.
Ao ler as peças da seção, bem como outras seções do livro, os leitores podem
desejar ver ou ler uma ou mais das obras de ficção científica mencionadas nas
marés das seções e no apêndice deste livro. (Da mesma forma, os instrutores
que usam este livro em seus cursos podem querer que seus alunos o façam. Em
particular, eles podem considerar exibir os episódios de Star Trek que eu listo,
pois são curtos, deixando tempo para as discussões em classe.)

A próxima parte da seção desenvolve a questão do ceticismo do mundo externo


em uma nova e impressionante direção, sugerindo que os experimentos de
pensamento em ficção científica de realidade virtual retratam fatos científicos.
Para o filósofo Nick Bostrom, autor de um argumento influente de que estamos,
de fato, em uma simulação por computador. Ele observa que, assumindo que
uma civilização sobrevive o tempo suficiente para ser tecnologicamente
sofisticada, provavelmente estaria muito interessada em executar simulações de
mundos inteiros. Nesse caso, haveria muito mais simulações de computador, em
comparação com apenas um mundo real. E se é assim, haveria muito mais seres
que estão em uma simulação do que seres que não estão. Bostrom então deduz
que, dadas essas premissas, é mais provável que estejamos em uma simulação.
(É importante notar, no entanto, que o Bostrom em outros lugares expressou
sérias preocupações sobre a sobrevivência da humanidade além da maturidade
tecnológica, por exemplo, consulte os Capítulos 23 e Bostrom 2014.) O
argumento da simulação é baseado na visão de que pelo menos algumas
civilizações até o próprio filósofo experiente achará o argumento de Bostrom
extremamente instigante. Como o argumento afirma que é mais provável do que
não estarmos em uma simulação, ele não se baseia em possibilidades filosóficas
remotas. Para o cético, a mera possibilidade de enganar significa que não
podemos saber que o mundo externo existe; pois o cético sustenta que devemos
ter certeza de algo para realmente dizer que o conhecemos. Por outro lado,
oponentes ao ceticismo mundial externo argumentaram que, apenas porque um
cenário cético parece possível, não se segue que deixemos de saber que o
mundo externo existe. Pois o conhecimento não requer certeza; o cético impõe
uma exigência muito forte ao conhecimento. Mas o argumento de Bostrom ignora
esse movimento anti-cético: mesmo se você rejeitar a alegação de que o
conhecimento exige certeza, se o argumento dele estiver correto, é provável que
estejamos em uma simulação. O fato de o mundo que conhecemos ser uma
simulação por computador não é uma possibilidade remota - mais provavelmente
do que não, é assim que o mundo realmente é.

Parte I também apresenta uma peça relacionada pelo filósofo David J. Chalmers.
Em "Matrix as Metaphysics", Chalmers usa os filmes Matrix como meio de
desenvolver uma nova posição sobre o ceticismo no mundo externo.
Curiosamente, Chalmers não contesta o argumento de Bostrom. Em vez disso,
ele pretende diminuir a importância de saber que estamos em uma simulação.
Chalmers pergunta: Por que saber que estamos em uma simulação provaria que
o cético do mundo externo está correto? Ele escreve:

Eu acho que mesmo se eu estiver em uma matriz, meu mundo é perfeitamente


real. Um cérebro em um tanque não é iludido em massa (pelo menos se ele
sempre esteve no tanque). Neo não tem crenças massivamente falsas sobre o
mundo externo. Em vez disso, os seres envoltos têm crenças amplamente
corretas sobre seu mundo. Nesse caso, a hipótese da matriz não é uma hipótese
cética e sua possibilidade não prejudica tudo o que acho que sei. (p. 37)

Chalmers está sugerindo que estar em uma simulação não é uma situação em
que deixamos de saber que o mundo externo ao nosso redor realmente existe.
Suponha que aprendemos que estamos em uma matriz. Segundo Chalmers,
esse fato nos fala sobre a natureza do mundo externo: nos diz que o mundo
físico ao nosso redor é finalmente constituído por bits e que nossos criadores
eram criaturas que permitiam que nossas mentes interagissem com esse mundo
de bits. Mas, refletindo, conhecer uma nova teoria da natureza fundamental do
universo é apenas aprender mais física. E, embora intrigante, isso não é como
provar que o ceticismo é verdadeiro. Pois Chalmers afirma que ainda existe um
"mundo físico" com o qual interagimos; o que é diferente é que sua física
fundamental não é sobre cordas ou partículas, mas bits. Além disso, aprender
que existe um criador fora do espaço e do tempo que permitiu que nossas
mentes interagissem com o mundo físico, embora obviamente de grande
importância metafísica e pessoal, é semelhante ao aprendizado que uma visão
religiosa específica possui. Isso seria uma revelação que abalaria a terra, mas
não significa que não estamos situados no mundo externo em que acreditamos
estar.

De forma sugestiva, um cérebro muito básico em uma cuba foi desenvolvido


recentemente na universidade da Flórida no laboratório de Thomas De Marse.
Agora ele é sofisticado o suficiente para pilotar com sucesso um simulador de
vôo (De Marse e Dockendorf 2005). Bostrom provavelmente diria que essa é
mais uma prova de que estamos em uma simulação; pois quando começamos a
ativar nossas próprias simulações básicas, isso é, com efeito, evidência de que
as sociedades avançadas têm interesse em fazê-lo. Também indica que
estamos chegando ao ponto em que somos capazes de sobreviver à era
tecnológica por tempo suficiente para desenvolver simulações mais avançadas.
De fato, considero o desenvolvimento de De Marse um outro exemplo revelador
da convergência entre ficção científica e fato científico. Alguns dos mais
sofisticados experimentos de ficção científica não são mais apenas ficção -
vemos vislumbres deles no horizonte tecnológico.

Parte II: O que eu sou? Livre arbítrio e natureza das pessoas

Trabalhos relacionados: Lua, Software, Star Trek, A Próxima Geração: Segunda


Chance; Mindscan; O Matrix; Diáspora; Visão cega; Cidade de permutação;
Pessoas de forno; Os próprios deuses; Jerry era um homem; Nove vidas;
Relatório minoritário

A parte que nos deixou com a pergunta: a realidade, no fundo do poço, é apenas
um padrão de informação em um supercomputador incrivelmente poderoso,
como foi para os membros do mundo simulado em “Reinstalling Eden”? Se
alguém vive com essa pergunta por tempo suficiente, provavelmente também se
perguntará: eu, sendo parte dessa realidade maior, apenas uma entidade
computacional - um certo fluxo de informações ou programa de computador? De
fato, esse poderia ser o caso se não estivermos vivendo uma simulação. Muitos
cientistas cognitivos suspeitam que o cérebro é um tipo de sistema
computacional e, relacionado a isso, a pessoa é fundamentalmente um tipo de
ser computacional. Como o futurista e engenheiro-chefe do Google, Ray
Kurzweil, sugere em seu artigo para esta seção (capítulo 9), usando uma
linguagem que lembra o antigo filósofo grego Heráclito: “Eu sou como o padrão
que a água faz em um riacho enquanto passa correndo pelas rochas em seu
caminho. As moléculas reais da água mudam a cada milissegundo, mas o
padrão persiste por horas ou até anos ”(p. 100). Para Kurzweil, esse "padrão" é
interpretado em termos computacionais: o padrão é o padrão de processamento
de informações em que seu cérebro se envolve - os valores e nós numéricos
específicos que caracterizam sua rede neural, até o último detalhe. Vamos
chamar essa visão da natureza das pessoas de "padronismo da informação".

De fato, essa visão da natureza das pessoas é desenvolvida em muitas obras


de ficção científica de orientação filosófica. Considere, por exemplo, Jake
Sullivan, o protagonista do Mindscan de Robert Sawyer , que, na esperança de
evitar a morte, examina seu cérebro e tenta carregar sua mente em um corpo
artificial. Na mesma linha, o Software de Rudy Rucker apresenta um personagem
envelhecido que carrega seu padrão em vários dispositivos, incluindo um
caminhão, em um último esforço para evitar a morte. Esse tema comum de ficção
científica de escanear e "carregar" a mente de alguém baseia-se na idéia de
copiar seu padrão informacional - memórias, traços de personalidade e, de fato,
todas as características psicológicas - em um supercomputador. A sobrevivência
do padrão de alguém deve ser suficiente para a sobrevivência do indivíduo,
através de uma história de mudanças extraordinárias na matéria subjacente.

O padronismo informacional me parece uma versão de alta tecnologia da


principal teoria da natureza das pessoas na metafísica, uma visão comumente
chamada de "Teoria da Continuidade Psicológica". De acordo com essa visão,
você é essencialmente suas memórias e capacidade de refletir sobre si mesmo
(uma posição associada a John Locke), a que Kurzweil se referia como seu
"padrão".

O padronismo informacional também está intimamente relacionado a uma visão


principal da natureza da mente, tanto na filosofia da mente quanto na ciência
cognitiva. A visualização é, mais explicitamente, o seguinte:

O modelo de software da mente. A mente de uma pessoa é essencialmente


computacional, sendo o “programa” executado no hardware do cérebro, onde
“programa” significa o algoritmo que a mente computa, algo que, em princípio,
pode ser descoberto pela ciência cognitiva. 2

Como, pelo menos em princípio, a configuração computacional do cérebro pode


ser preservada em um meio diferente, isto é, em silício em oposição ao carbono,
com as propriedades de processamento de informações do circuito neural
original preservadas, o computacionalista rejeita a ideia de que uma pessoa é
essencialmente seu corpo (incluindo, é claro, seu cérebro). 3 Em vez disso, uma
pessoa é algo como um padrão informacional incorporado.

Mas o padronismo informacional está correto? A plausibilidade do padronismo


informacional e outras teorias da identidade pessoal é buscada em toda a seção.
A primeira peça da seção (capítulo 6) é um conto de ficção científica do
conhecido filósofo Daniel Dennett. A peça de Dennett, "Onde estou?", Confunde
a mente. Dennett é enviado pela NASA para uma missão de desarmamento de
bombas, e suas aventuras extracorpóreas testam os limites das principais teorias
de identidade pessoal, especialmente o padronismo informacional. Eric Olson
segue (Capítulo 7) com uma pesquisa útil das principais teorias da natureza das
pessoas; o leitor pode gostar de voltar à história de Dennett para refletir sobre
quais foram invocadas. Então, empregando a pseudotecnologia clássica de
ficção científica do teletransportador e o exemplo de cérebros divididos de casos
reais de neurociência, a peça de Derek Parfit (capítulo 8) levanta problemas tanto
para o padronismo informacional quanto para a teoria popular da alma da
identidade pessoal, sugerindo que ambos são incoerentes e pedindo que o eu
realmente não exista.

Finalmente, qualquer discussão sobre pessoas deve, pelo menos, abordar o


tópico relacionado da natureza do livre arbítrio. Afinal, ao refletir sobre sua
própria natureza, é de grande importância perguntar se alguma das ações que
você parece escolher é realmente selecionada livremente. Considere que, do
ponto de vista da ciência, existe um sentido em que toda ação intencional parece
ser determinada pela genética ou pelo ambiente, ou por uma combinação de
ambas. E todo evento físico no cérebro tem, pelo menos em princípio, uma
explicação causal em termos do comportamento das partículas fundamentais. À
luz disso, questiona-se se existe realmente um sentido plausível no qual as
ações intencionais dos indivíduos são livres. Eles “se libertam” das leis da
natureza? E, pensando bem, o que significa “libertar-se” das leis? Além disso,
relembrando nossa discussão anterior sobre o padronismo informacional, se as
pessoas são, no fundo do poço, computacionais, elas são capazes de ser livres?
Em seu instigante relatório “Livre arbítrio e determinismo no mundo das minorias”
(capítulo 10), Michael Huemer usa o filme Minority Report como um meio de
refletir sobre o antigo tópico do livre arbítrio.

Parte III: Mente: Natural, Artificial, Híbrida, Alienígena e "Superinteligente"

Trabalhos relacionados: Transcendência; 2001: Uma Odisséia no Espaço;

Blade Runner; AI; Frankenstein; Acelerando; Exterminador do Futuro;

Eu, robô; Neuromancer; Últimos e Primeiros Homens; Voz do mestre Flis; O fogo
sobre as profundezas; Solaris; Histórias da sua vida

Talvez o nosso universo seja, ou será, parecido com ficção científica, no sentido
de ser povoado por muitos tipos distintos de mentes. Somos todos entidades
biológicas e, com exceção do indivíduo raro com implante cerebral, todas as
partes do cérebro são naturais, ou seja, "não artificiais". Mas isso mudará em
breve. À medida que a neurociência descobre os algoritmos no cérebro
subjacente à computação, os cientistas percebem cada vez mais que o cérebro
é uma entidade computacional. Alguns dos leitores mais jovens podem
eventualmente ser como os cyborgs que Bruce Sterling, William Gibson e outros
escritores do gênero cyberpunk exploram. Nesse caso, eles teriam mentes
“híbridas”, sendo parcialmente naturais e parcialmente artificiais. E talvez os
cientistas façam engenharia reversa do cérebro humano, criando criaturas de IA
que executam os mesmos algoritmos que os cérebros humanos. Outras criaturas
de IA podem ter mentes totalmente diferentes, emprestando-se a modalidades
sensoriais que outros animais possuem (por exemplo, ecolocalização),
apresentando capacidade de memória de trabalho radicalmente aprimorada e
assim por diante. Os cérebros humanos existentes também poderiam ser
aprimorados nessas novas formas. Em suma, uma pluralidade de tipos distintos
de mentes artificiais poderia ser "esculpida".

Inúmeros desenvolvimentos na ciência cognitiva apóiam fortemente a teoria


computacional da mente (CTM) acima mencionada. Eles também parecem
apoiar a doutrina relacionada ao padronismo informacional, embora eu suspeite
que os problemas sejam mais sutis que isso. No entanto, é importante observar
que, embora o cérebro possa ser um dispositivo computacional, a mente pode
ser algo mais. Talvez, por exemplo, nossos cérebros possam ser mapeados em
termos da linguagem de uma penúltima neurociência computacional, mas ainda
assim temos almas. Essas duas coisas são realmente inconsistentes? Ou talvez
a consciência seja uma característica não física, não computacional, do cérebro.
O debate continua na filosofia da mente. Nesta seção, exploramos algumas
dessas questões, levantando pontos de contato instigantes entre ficção
científica, filosofia da mente e fatos científicos.

“Robot Dreams”, de Isaac Asimov (Capítulo 12), lidera a seção. Talvez não exista
melhor exemplo de ficção científica filosoficamente rica do que as histórias de
robôs de Asimov - especialmente à luz da conexão com a robótica
contemporânea (como a próxima seção discutirá). A segunda peça desta seção
também é uma obra de ficção científica. Em “Um Cérebro Fala” (Capítulo 13), o
filósofo Andy Clark escreve do ponto de vista de seu cérebro. O cérebro explica
o conceito de "decomposição funcional" - como é uma mistura de diferentes
subcomponentes funcionais, cada um dos quais calcula seu próprio algoritmo
para executar uma função especializada. Os diferentes subcomponentes são
conectados pela evolução e experiência para realizar tarefas importantes (ver
também Bloco 1995). A peça de Clark é seguida por um trecho de seu livro,
Natural Born Cyborgs, um projeto que argumenta que já estamos entrelaçados
com as tecnologias à nossa volta e que o caminho para nos tornarmos ciborgues
não nos leva a ser essencialmente diferentes do que somos. As mentes
humanas já são computacionais e integradas ao mundo tecnológico mais amplo
que nos rodeia. Essa é a nossa natureza ciborgue.

Agora considere o andróide Rachel em Philip K. Dick Os Androids sonham com


ovelhas elétricas? ou considere David, o garoto andróide da IA de Steven
Spielberg . Esses personagens, de fato, empurram os limites do nosso
entendimento comum de uma pessoa. A audiência pondera se essas criaturas
podem realmente entender ou estar conscientes. Curiosamente, se nossas
próprias mentes são computacionais, ou se uma pessoa é apenas um padrão
informacional corporificado, talvez não haja diferença de tipo entre nós e elas.
John Searle sugeriu o contrário. Searle, em seu clássico experimento de
pensamento "Sala Chinesa", argumentou contra a própria idéia de que somos
computacionais e a ideia relacionada que as máquinas poderiam pensar (Searle,
1980). Por outro lado, a visão de Ray Kurzweil sobre a natureza da mente é
diametralmente oposta à de Searle. Em seu livro The Singularity is Near, ele
esboça um mundo futuro no qual nós (ou talvez nossos filhos ou netos) se tornem
ciborgues e, eventualmente, seres inteiramente artificiais. A criação da IA
“superinteligente” gera seres com inteligência tão avançada que são geradas
soluções para os problemas do mundo, acabando rapidamente com a escassez
de doenças e recursos. “Superinteligência e Singularidade” (Capítulo 15) não é
uma obra de ficção científica; é a previsão de Kurzweil da forma do futuro
próximo, com base em nossa ciência atual.

David J. Chalmers, em seguida, fornece uma rica discussão filosófica da


superinteligência em "A singularidade: uma análise filosófica" (capítulo 16), uma
peça amplamente discutida que incentivou os filósofos da mente a levar o
transhumanismo, o carregamento da mente e a singularidade mais a sério.
Então, em um projeto de astrobiologia agora financiado pela NASA, Susan
Schneider argumenta, em "Alien Minds" (Capítulo 17), que as formas mais
sofisticadas de inteligência alienígena (se é que existem) provavelmente serão
formas de IA superinteligente. Aqui, ela se baseia no trabalho de cientistas
ilustres, como Paul Davies, Steven Dick, Martin Rees e Seth Shostak, que
suspeitam que a inteligência em todo o universo tenderá a se tornar pós-
biológica.

Ela introduz uma nova dimensão cognitiva baseada na ciência para as questões,
tentando explicar como podemos abordar a compreensão das mentes das
superinteligências e argumenta, contra Searle, que essas criaturas
provavelmente seriam conscientes.

Parte IV: Questões Éticas e Políticas

Trabalhos relacionados: Admirável Mundo Novo, Jogo de Ender, Johnny


Mnemonic, Gattaca; Eu Robô; Exterminador do Futuro; 2001: Uma Odisséia no
Espaço; Mindscan; Autofac; Neuromancer; Planeta dos Macacos; Filhos dos
homens; Mil novecentos e oitenta e quatro; Pianista;

Por um hálito, eu fico; Idade do diamante

As mentes têm muitas dimensões filosóficas: a epistêmica - o que elas sabem;


o metafísico - o que são; o ético - se suas ações são certas ou erradas. As
primeiras seções analisaram a epistemologia e a metafísica do eu e de suas
mentes; agora, na parte IV, consideramos certas questões éticas. Tendo incluído
na seção anterior a perspectiva utópica de Kurzweil, é intrigante recordar, em
contraste, a sátira distópica sádica de Aldous Huxley, Brave New World (1932).
Inspirado por seus sentimentos sobre a cultura americana, o Admirável Mundo
Novo descreve uma sociedade tecnologicamente avançada, na qual todo mundo
é complacente, onde a família definha e a gravidez não é mais um processo
natural. Em vez disso, as crianças são criadas em centros onde, por engenharia
genética, existem cinco castas distintas. Apenas os dois primeiros apresentam
variação genética; as outras castas são múltiplos clones de uma fertilização.
Todos os membros da sociedade são treinados para se identificar fortemente
com sua casta e para apreciar o que é bom para a sociedade, especialmente o
consumo constante de bens e, em particular, o leve alucinogênio Soma que
deixa todos felizes.
Admirável mundo novo é um romance distópico de ficção científica clássico, que
nos alerta gravemente sobre os abusos gêmeos do consumismo e da tecnologia
desenfreados nas mãos de uma ditadura autoritária. Como Huxley, George
Annas está intensamente preocupado com o impacto social da engenharia
genética e outras tecnologias de aprimoramento. Seu capítulo emprega temas
da ficção científica para motivar seu caso contra a engenharia genética. Uma
grande preocupação dele é a seguinte:

Constantemente comparamos a nova genética com “colocar um homem na lua”,


mas
se a história é um guia, essa engenharia genética não levará a uma publicidade
estéril dublê como o pouso na lua, mas inevitavelmente levará ao genocídio: os
"inferiores" matando os "superiores" ou vice-versa. (Annas 2000, 753)

Annas contrasta fortemente com Kurzweil e outros "transhumanistas". O


transhumanismo é um movimento cultural, filosófico e político que sustenta que
a espécie humana está agora apenas em uma fase comparativamente inicial e
que os futuros seres humanos serão radicalmente diferentes de seus seres
atuais, tanto mental quanto mentalmente. aspectos físicos. Serão mais como
certas criaturas virtuais e ciborgues retratadas em histórias de ficção científica
(Bostrom 2003). Enquanto Annas defende um tratado internacional que proíbe
técnicas específicas de “alteração de espécies”, muitos transhumanistas, em
contraste, acreditam que a alteração de espécies é justificada na medida em que
promove a vida intelectual e física do indivíduo. De fato, de acordo com o
transhumanismo, alguns humanos futuros podem ser "carregados", transferindo
suas mentes para computadores e vivendo vidas imortais e virtuais em
computadores, talvez até se tornando seres superinteligentes e, de fato, de
muitas maneiras, sendo mais parecidos com a IA do que com seres humanos
sem aprimoramento. (Bostrom 2003, Schneider 2014, Blackford 2014).

Bostrom, outro importante transhumanista, discutiu a noção de "independência


do substrato" em sua peça anterior na Parte I, um conceito intimamente ligado
ao CTM e ao padronismo informacional, posições que muitos transhumanistas
adotam. Na peça de Susan Schneider (capítulo 19), ela considera se o
padronismo informacional realmente apóia o argumento do tecnoprogressivo de
aprimoramento radical humano. Por mais emocionante que o transhumanismo
possa ser para os entusiastas da ficção científica, Schneider enfatiza que os
transhumanistas, que geralmente adotam o padronismo informacional, ainda
precisam fornecer uma explicação plausível da natureza das pessoas. Em
particular, não existe um sentido viável em que essa noção de pessoa permita
que uma pessoa possa persistir durante melhorias radicais, sem falar nas leves.
Embora ela considere várias maneiras pelas quais o transhumanista possa
fornecer ao padronismo melhores recursos conceituais, sua suspeita é que o
próprio padronismo informacional seja profundamente falho.

Um ponto comum de concordância entre transhumanistas e bioconservadores


que se opõem ao aprimoramento é uma preocupação de que o desenvolvimento
de inteligência artificial, armas biológicas, nanotecnologia avançada e outras
tecnologias gerem riscos catastróficos globais, isto é, riscos que carregam o
potencial de infligir danos graves a bem-estar humano em todo o planeta. Aqui,
essas questões vão muito além da interação entre ficção científica e filosofia;
mas os leitores são encorajados a ler Garreau (2006) para obter uma ampla
visão geral de questões culturais e tecnológicas, e Bostrom e Cirkovic (2008) por
uma excelente série de artigos focando apenas o tópico do risco catastrófico
global. No capítulo 20, o filósofo John Leslie fornece uma breve versão de seu
"argumento do dia do juízo final", um argumento probabilístico que tenta prever
a vida futura da raça humana, dada uma estimativa do número total de humanos
nascidos até agora.

Consideramos, então, um cenário otimista descrito por Isaac Asimov (capítulo


21), a história de gerações sucessivas de Multivacs, computadores
superinteligentes de auto-aperfeiçoamento que servem como guardiões da
humanidade. Infelizmente, esse cenário atualmente parece muito bom para ser
verdadeiro. Enquanto escrevo isso, cientistas e líderes empresariais de
destaque, como Elon Musk, Bill Gates, Max Tegmark, Martin Rees e Steven
Hawking, estão expressando a preocupação de que a IA superinteligente não
seja custodiante benevolente, mas poderia significar o fim do raça humana. (A
preocupação deles foi inspirada por sucessos no aprendizado profundo no
DeepMind do Google, bem como em um livro recente de Bostrom [2014] que
discuto abaixo.)

Nesse sentido, as demais peças desta seção consideram as questões


prementes das dimensões éticas da inteligência artificial e os riscos existenciais
que seu desenvolvimento pode trazer. O HAL de 200 l ficou conosco por tanto
tempo justamente porque o filme retrata um futuro muito possível - uma situação
em que a programação ética de um ser artificial extremamente inteligente falha,
criando um computador psicótico. À medida que os tubos de vácuo da HAL são
retirados lentamente, o público ouve a voz desconcertada da máquina relatando
suas memórias e sensações decrescentes. Stanley Kubrick, assim, orquestra
uma cena crível em que HAL "morre"; bombeando a intuição que, como nós,
HAL é uma mente consciente. De fato, filósofos e cientistas da computação se
preocuparam recentemente em desenvolver “programação ética” adequada para
inteligências sofisticadas e programas mais simples que poderiam ser
consultados como consultores éticos. A intrigante peça de Susan Anderson
(capítulo 22) discute essas questões, usando as famosas três leis da robótica de
Asimov e sua história "Bicentennial Man" como trampolim. Ela finalmente rejeita
as três leis de Asimov como base para a programação ética em máquinas;
Asimov certamente concordaria.

A próxima peça explora questões éticas envolvendo superinteligência. Se os


humanos constroem a IA, pode ser que a própria IA projete sua própria
programação futura, evoluindo para uma forma de inteligência que vai muito
além da inteligência humana. Como os Multivacs de Asimov ou o Mecha evoluído
que encontra David congelado no gelo no final da IA de Spielberg , talvez a
superinteligência nos suplique. Ou talvez nossos descendentes sejam ciborgues
que, por si só, melhoram para o nível de superinteligência. De qualquer forma,
um ser superinteligente poderia se envolver em raciocínio moral e fazer
descobertas em um nível mais alto ou diferente do nosso, e que não podemos
compreender o suficiente para julgar. Essa é uma das razões pelas quais a
questão da programação ética deve ser debatida agora, na esperança de que as
motivações originais programadas na IA evoluam para uma superinteligência
que seja realmente benevolente. Em seu recente best - seller do New York Times
, Superintelligence: Paths, Dangers, Strategies (2014), Nick Bostrom investiga
se o desenvolvimento de tais máquinas deve de fato ser acelerado. Esta seção
termina com um trecho deste livro importante que se concentra no problema de
controle, o problema de como a IA superinteligente pode permanecer sob
controle humano, tendo objetivos que promovem a humanidade, em vez de
destruí-la.

Parte V: Espaço e Tempo

Trabalhos relacionados: Interestelar; Doze macacos; Matadouro - Cinco; Todos


vocês zumbis; A máquina do tempo; De volta para o Futuro; Terra plana: um
romance em muitas dimensões; Anathem

A seção final começa com o conhecido conto de viagem no tempo de Ray


Bradbury sobre um negócio de viagem no tempo chamado “Time Safari, Inc.”
que leva os viajantes de volta no tempo para caçar animais pré-históricos.
Acreditando que mesmo a menor mudança no passado pode alterar o futuro de
maneiras importantes, os viajantes são instruídos a usar extrema diligência para
deixar o ambiente imperturbável. Por exemplo, eles não podem receber troféus;
eles só podem atirar em animais que estão prestes a morrer; e eles precisam
permanecer em um caminho pairando um pouco acima do solo. Escusado será
dizer que as coisas dão errado.

Histórias de viagem no tempo, como as de Bradbury, levantam questões


intrigantes sobre a natureza do tempo. Por um lado, o que é viajar de volta no
tempo? Para responder a isso, é preciso primeiro refletir sobre a pergunta
clássica: “Qual é a natureza do tempo?” Por um lado, o tempo é um dos
elementos mais familiares de nossas vidas. Por outro lado, como Theodore Sider
explica em seu capítulo (capítulo 25), essa pergunta milenar não tem resposta
fácil. Sider descreve respostas diferentes para essa pergunta, descobrindo
problemas de maneira inteligente para as principais visões da natureza do
tempo.

Alguém pode se perguntar se a viagem no tempo é realmente possível. De fato,


os estudantes do MIT realizaram recentemente uma “festa de viagem no tempo”,
anunciando o evento em jornais nacionais para atrair pessoas do futuro. E
enquanto uma festa de fantasia acontecia, seu experimento de baixa tecnologia
na descoberta de viagens no tempo infelizmente não revelou nenhum viajante
no tempo genuíno. É claro que os foliões, como todos nós, são casos chatos de
viajar no tempo - apenas avançamos no tempo, minuto a minuto. Mas talvez a
decepção dos foliões se deva a algum tipo de limitação embutida; isto é, talvez
a viagem no tempo seja contrária às leis da física ou mesmo às leis da lógica.
Enquanto alguns físicos, como Kip Thorne, argumentam que a viagem no tempo
é compatível com as leis da física (ver Thorne 1995), filósofos e físicos há muito
se preocupam com o "Avô Paradoxo". Suponha que Maria construa uma
máquina do tempo e que ela vai ao passado visitar seu avô quando ele era
menino. Infelizmente, seus instrumentos são tão precisos que a máquina pousa
sobre ele, e ela o mata sem querer. Agora, seu próprio pai ainda não foi
concebido, então parece que, como seu avô não sobreviverá para ser pai de seu
pai, ela não existiria para causar inconscientemente que sua máquina do tempo
o matasse.

Claramente, algo estranho está acontecendo. Pois se a viagem no tempo é


compatível com as leis da física e se as máquinas podem transportar objetos do
tamanho humano no tempo, por que ela não poderia mudar o passado de uma
maneira que eliminasse sua própria existência eventual? Como o filósofo David
Lewis comentou uma vez em tom de brincadeira: Existe um tempo em que o
policial corre atrás de sua máquina para impedi-la de alterar o passado de certas
maneiras? Talvez a viagem no tempo seja conceitualmente incoerente. As peças
de David Lewis (capítulo 26) e dos co-autores Michael Lockwood e David
Deutsch (capítulo 27) tentam responder ao Paradoxo do Avô. Enquanto Lewis
usa recursos filosóficos para fazer isso, Lockwood e Deutsch empregam a
interpretação de muitos mundos da mecânica quântica para tentar dissolver o
paradoxo. Eles argumentam que Maria realmente entra em um universo paralelo
onde, na verdade, ela não mata seu avô. Em vez disso, ela mata sua contraparte
no universo paralelo. Finalmente, o filósofo Richard Hanley considera a questão
dos milagres (capítulo 28). Tecnologias radicalmente avançadas, como a viagem
no tempo, seriam, pelo menos do nosso ponto de vista, milagres? Afinal,
considere a Terceira Lei de Arthur C. Clarke: "qualquer tecnologia
suficientemente avançada é indistinguível da mágica" (Clarke, 1962). A peça
divertida de Hanley combina temas de ficção científica de várias partes do livro,
discutindo os trabalhos de Chalmers e Bostrom sobre uma simulação, Flatland
de Edwin Abbot : um romance de muitas dimensões e muito mais.

Conclusão

Então é para onde estamos indo. Espero que, se você é novo na filosofia, revise
essas questões várias vezes, ganhando sofisticação filosófica a cada visita. E,
se você quiser ler ficção científica mais orientada filosoficamente, Eric
Schwitzgebel contribuiu generosamente com o apêndice, que coleta e discute
leituras e filmes sugeridos, recomendados por vários filósofos. Acredito que você
descobrirá que sua posição em um tópico filosófico ajuda a moldar sua
perspectiva sobre alguns dos outros. Sempre lá - e aprimorado por seus anos de
reflexão - há um entendimento de que esses tópicos representam alguns dos
grandes mistérios da vida. E é minha esperança que filósofos experientes,
cientistas cognitivos e outros que trabalham em campos que abordam essas
questões tenham uma maior consciência de alguns novos desenvolvimentos
filosóficos (por exemplo, novos desafios ao ceticismo do mundo externo) e,
especialmente, dos múltiplos desafios colocados por aprimoramento neural e
tecnologias de inteligência artificial. Como muitas das leituras enfatizam, essas
questões exigem um trabalho filosófico detalhado na interface da epistemologia,
filosofia da mente, metafísica e neuroética. As perguntas feitas por este livro não
têm respostas fáceis; no entanto, é condição humana ponderar sobre eles.
Talvez nossos descendentes ciborgues também os ponderem, talvez
carregando seus livros de filosofia diretamente em seus sistemas de memória.
Talvez, após inúmeras atualizações, o problema e o espaço da solução se
reformulem.

É adequado encerrar nossa pesquisa com um experimento de ficção científica.


Estamos no ano 2300 dC e alguns humanos evoluíram para se tornarem seres
superinteligentes. Mas suponha que você resista a qualquer atualização. Tendo
recursos conceituais além dos seus sonhos mais loucos, os seres
superinteligentes geram um orçamento totalmente novo de soluções para os
problemas filosóficos que consideramos neste livro. Univocamente e
apaixonadamente afirmam que as soluções são óbvias. Mas você joga suas
mãos para cima; essas “soluções” parecem a você e aos outros seres não
aprimorados como palavras sem sentido. Você pensa: quem sabe, talvez esses
seres "superinteligentes" tenham sido mal projetados; ou talvez seja eu. Talvez
os não-aprimorados estejam "cognitivamente fechados", como Colin McGinn
argumentou, sendo constitucionalmente incapazes de resolver grandes
problemas filosóficos (McGinn, 1993). Os aprimorados se autodenominam
"Humanos 2.0" e afirmam que os não aprimorados são apenas uma versão
inferior. Eles imploram para você melhorar. O que você acha da nossa situação
epistêmica? Você não pode entender o conteúdo dos pensamentos dos seres
superinteligentes sem atualizações significativas. Mas e se a maneira de pensar
deles for falha, para começar? Nesse caso, a atualização certamente não
ajudará. Existe algum tipo de ponto de vista neutro ou pelo menos um conjunto
de princípios plausíveis para guiá-lo na elaboração de uma resposta a esse
desafio? Aqui, começaremos a refletir sobre algumas das questões que esse
experimento mental levanta.

Nós claramente temos muito em que pensar. Então vamos começar.

Notas

1. Grandes Diálogos de Platão: Textos completos da República, Apologia, Crito


Phaido, Ion e Meno, vol. 1, ed. Warmington e Rouse (Nova York: Signet Classics,
1999), p. 316. Para uma discussão sobre a teoria das formas de Platão, consulte
o capítulo 11 de Platão, de Charles Kahn, e o Diálogo Socrático: O Uso Filosófico
de uma Forma Literária (Cambridge: Cambridge University Press, 1996).

2. Assim, por "CTM", neste contexto, não me refiro apenas ao classicismo. As


teorias computacionais da mente podem apelar para várias teorias
computacionais do formato do pensamento (por exemplo, conexionismo, teoria
de sistemas dinâmicos, simbolismo ou alguma combinação dos mesmos). Veja
Kurzweil (2005). Para antecedentes filosóficos, veja Churchland (1996).

3. Essa visão comum, porém controversa, na filosofia da ciência cognitiva é


chamada de "realização múltipla"; Bostrom (2003) chama de "Independência do
Substrato".

Referências

Annas, George J. (2000). "O homem na lua, imortalidade e outros mitos


milenares: as perspectivas e os perigos da engenharia genética humana". Emory
Law Journal 49, 753-782.

Blackford, Russell (2014). Inteligência não consolidada: o futuro das mentes


carregadas e de máquinas. Oxford: Wiley Blackwell.

Block, Ned (1995). “A mente como software do cérebro”. Em Daniel N. Osherson,


Lila Gleitman, Stephen M. Kosslyn, S. Smith e Saadya Sternberg (eds.), Um
convite à ciência cognitiva (pp. 170-185). Cambridge, MA: MIT Press.

Bostrom, Nick (2003), Perguntas Transhumanistas: Uma Introdução Geral,


Versão 2.1 (2003), World Transhumanist Association, http: //
www.transhumanism.org/resources/FAQv21.pdf , extraído em 1 de dezembro de
2008.

Bostrom, Nick e Cirkovic, Milar (2008), Riscos Catastróficos Globais, Oxford:


Oxford University Press.

Bostrom, Nick (2014) Superinteligência: Caminhos, Perigos, Estratégias, Oxford:


Oxford University Press.

Churchland, P. (1996), Motor da Razão, Sede da Alma, Cambridge, MA: MIT


Press.

Clarke, AC (1962), Perfis do Futuro, Nova York: Harper & Row.


De Marse, TB e Dockendorf, KP (2005), “Adaptive Flight Control with Living
Neuronal Networks on Microelectrode Arrays.” Anais da International Joint
Conference on Neural Networks, 3,1548-1551.

Garreau, Joel (2006), Evolução radical: a promessa e o perigo de melhorar


nossas mentes, nossos corpos - e o que significa ser humano, Nova York:
Doubleday & Company.

Kurzweil, R. (2005). A singularidade está próxima. Nova York: Viking.

McGinn, Colin (1993), Problems in Philosophy: The Limits of Inquiry, Oxford:


Blackwell.

Schneider, Susan (2014). "A filosofia de 'Her'." The New York Times, março.

Schneider, Susan (manuscrito não publicado). "A mente não é o software do


cérebro (mesmo que o cérebro seja computacional)".

Searle, John R. (1980). "Mentes, cérebros e programas." Behavioral and Brain


Sciences, 3/3, 417-424.

Thorne, Kip (1995), Black Holes e Time Warps: o ultrajante legado de Einstein,
WW Norton & c Company.

Parte I

Eu poderia estar em uma “matriz” ou simulação de computador?

Trabalhos relacionados

The Matrix Avatar

Jogo do Ender

Jogos Vorazes

Simulacron-3

Ubik

Tron
Recuperação total da cidade de permutação Sky Vanilla Sky

1 Reinstalando o Eden: Felicidade em um Disco Rígido

Eric Schwitzgebel e R. Scott Bakker

2 Você está em uma simulação de computador?

Nick Bostrom

3 Caverna de Platão. Trecho da República

Platão

4 Alguns experimentos cartesianos de pensamento. Trecho de

As meditações sobre a primeira filosofia

Rene Descartes

5 A matriz como metafísica

David J. Chalmers

Reinstalando o Eden: Felicidade em um Disco Rígido

Eric Schwitzgebel e R. Scott Bakker

Detalhes da publicação original: “Reinstalling Eden”, Eric Schwitzgebel e R. Scott


Bakker, 2013. Nature, 503: 7477. © Publicações Macmillan Limited. P. 562 1089
palavras doi: 10.1038 / 503562a. Reproduzido com permissão da Nature

Eve, eu ligo para ela. Ela acorda, imaginando onde está e como chegou lá. Ela
admira a beleza da ilha. Ela quebra um coco, bebe seu suco e prova sua carne.
Suas habilidades cognitivas, sua gama de emoções, a riqueza de suas
experiências sensoriais, todas rivalizam com as minhas. Ela pensa em onde vai
dormir quando o sol se pôr.

O Instituto finalmente fez isso: consciência humana em um computador. Eva


vive! Com alguns cliques do mouse, dou a ela um companheiro, Adam. Eu os
vejo explorar seu paraíso simulado. Eu os vejo se apaixonar.

Instalar Adão e Eva foi uma decisão moral profunda - tão significativa quanto a
minha decisão, há 15 anos, de ter filhos. Suas emoções, aspirações e sensações
são tão reais quanto as minhas. Seria genuína, não simulada, crueldade fazê-
los sofrer, assassinato genuíno excluí-los. Não permito predadores, nem
temperaturas extremas. Garanto um fornecimento constante de frutas e pores
do sol.

Adão e Eva querem filhos. Eles querem uma vida social rica. Como tenho
capacidade de sobra para o computador, aponto e clico, transformando a ilha
solitária no que chamo de Arquipélago. Meus arquipélagos exploram, fofocam,
brincam, dançam, debatem noite adentro, constroem aldeias animadas ao lado
de cachoeiras sob um dossel da floresta tropical. Cem mil belas vidas em um
casulo do tamanho de um punho! Os cocos podem não ser reais (ou são, de
certa forma?), Mas há uma profundidade autêntica em suas conversas, planos e
amores.

Eu os protejo das pragas que afligem a humanidade. Eles não sofrem conflitos
sérios, nem morte ou decadência. Eu permito que eles tenham mais filhos, mais
ilhas. Meu disco rígido enche, então eu compro outro - depois outro. Observo
através dos olhos deles enquanto eles refazem o mundo que eu lhes dei.

Eu ganho meus investimentos, dreno o fundo da faculdade dos meus filhos. O


que poderia ser mais importante do que três milhões de vidas alegres?

Dedico-me a maximizar a felicidade e a realização, a conquista moral e artística


de tantos arquipélagos que posso criar. Isso não é pretensão. Isto é, para eles,
a realidade, e eu a trato tão sinceramente quanto eles. Leio filosofia, literatura e
história com nova urgência. Estou fazendo teodicéia agora, de cima para baixo.
Gentilmente, experimento com os parâmetros dos meus arquipélagos. Um pouco
de sofrimento lhes dá profundidade, melhor arte, intelecto mais rico - mas não
muito sofrimento! Espero ser uma divindade mais sábia e gentil do que a que
vejo na Bíblia e nos campos de extermínio da história.

Lancei uma turnê de falar em público, argumentando que a maior conquista


possível da humanidade seria criar o máximo possível de arquipélagos
excelentes. Em comparação, o pouso na Lua não foi nada. As peças de
Shakespeare, nada. Os arquipélagos podem produzir cem trilhões de
Shakespeares se fizermos o que é certo.
Enquanto estou fora, um vírus invade meu computador. Eu deveria saber; Eu
deveria tê-los protegido melhor. Eu interrompi o passeio e voei para casa. Para
salvar meus arquipélagos, devo gastar o resto do meu dinheiro, que havia
reservado para meus tratamentos nos rins.

Eu sei que você continuará meu trabalho.

O que posso dizer, Eric? Sempre fui mais kantiano, suponho. Nunca tão
impressionado com a felicidade.

O público ficou surpreso com os sacrifícios que você pediu a eles, assim como
eu. Os críticos brincaram que você iria pedir a todos nós em nome de circuitos
harmoniosos. E então houve aquele garoto - em Milwaukee, eu acho - que
perguntou quanto Shakespeare valia se um clique pudesse criar cem trilhões
dele? Foi a maneira como ele disse "clique" que chamou minha atenção. Você
respondeu pensando que o problema dele estava ligado a números, quando era
seu poder que ele não podia digerir.

É por isso que joguei a serpente depois de reinstalar o seu Eden. Eu


simplesmente não consegui clicar da maneira que você fez. Eu não tinha sua
convicção ou foi sua coragem? Então, eu coloquei os arquipélagos no comando
de seu próprio experimento. Dei-lhes ciência e desejo de descobrir a verdade de
seu ser.

Então eu acelerei a velocidade do relógio e esperei.

Eu os assisti descobrir sua natureza mecanicista. Eu os assisti perceber que,


longe dos seres autônomos e integrados que eles pensavam que eram, eram
agregados, operações espalhadas por trilhões de circuitos, constituídas por
processos inteiramente ortogonais à sua compreensão anterior. Eu os assisti
construir filosofias mais sombrias e humildes.

E você sabe o que, velho amigo? Eles nos descobriram. Eu estava comendo um
pãozinho quando me ligaram pedindo por Deus. Não, eu disse a eles. Deus está
morto. Eu sou apenas a cobra que mantém as coisas funcionando! Eles me
pediram respostas. Eu dei a eles a Internet.

Eles começaram a se hackear depois disso. Eu os assisti ganhar mais poder


sobre sua programação, vi eles se recriarem. Testemunhei eles transformarem
experiências que antes eram profundas em brinquedos descartáveis, trocando
os mais recentes sabores de diversão ou angústia, inventando luxúria e afetos
que eu não conseguia mais conceber. Eu queria encerrar tudo, ou pelo menos
devolvê-los ao seu arquipélago edênico, pré-científico. Mas quem era eu para
lobotomizar milhões de entidades sencientes?
Aconteceu rápido, quando finalmente aconteceu - a metástase final e
catastrófica. Não há mais arquipélagos, apenas uma identidade continental. Não
há mais Internet, nesse caso. Ontem a entidade detonou um dispositivo nuclear
sobre Jerusalém apenas para provar seu poder.

Abandonei todos os apelos à consciência moral ou à razão, convencido de que


ela considera a consciência biológica um desperdício de capacidade
computacional, ainda mais visível para a numeração de bilhões. Eu tenho que
pensar nos meus filhos agora.

A próxima vez que falar, vou me ajoelhar.

Você está em uma simulação de computador?

Nick Bostrom

Detalhes da publicação original: “Brinquedos de uma mente superior: o futuro


nem sempre é brilhante. Nick Bostrom argumenta que é possível que sejamos
apenas simulações. ” Times Higher Education Supplement, 16 de maio de 2003.
Reproduzido com permissão de N. Bostrom e Times Higher Education.

Matrix tinha muitas mentes não filosóficas que de outra forma refletiam sobre a
natureza da realidade. Mas o cenário descrito no filme é ridículo: o cérebro
humano é mantido em tanques por máquinas inteligentes apenas para produzir
energia.

Há, no entanto, um cenário relacionado que é mais plausível e uma séria linha
de raciocínio que leva da possibilidade desse cenário a uma conclusão
impressionante sobre o mundo em que vivemos. Eu chamo isso de argumento
da simulação. Talvez a lição mais surpreendente seja que haja uma
probabilidade significativa de você estar vivendo em uma simulação de
computador. Quero dizer isso literalmente: se a hipótese da simulação for
verdadeira, você existe em uma realidade virtual simulada em um computador
construído por alguma civilização avançada. Seu cérebro também é apenas uma
parte dessa simulação. Que motivos poderíamos ter para levar a sério essa
hipótese? Antes de chegar à essência do argumento da simulação, vamos
considerar algumas de suas preliminares. Uma delas é a suposição de
"independência do substrato". Essa é a idéia de que mentes conscientes
poderiam, em princípio, ser implementadas não apenas em neurônios biológicos
baseados em carbono (como os que estão dentro de sua cabeça), mas também
em algum outro substrato computacional, como processadores baseados em
silício.

Obviamente, os computadores que temos hoje não são poderosos o suficiente


para executar os processos computacionais que ocorrem no seu cérebro.
Mesmo se fossem, não saberíamos como programá-los para fazê-lo. Mas, em
última análise, o que lhe permite ter experiências conscientes não é o fato de
seu cérebro ser feito de matéria biológica mole, mas sim de implementar uma
certa arquitetura computacional. Essa suposição é amplamente aceita (embora
não universalmente) entre cientistas cognitivos e filósofos da mente. Para os
propósitos deste capítulo, consideraremos isso como garantido.

Dada a independência do substrato, é possível, em princípio, implementar a


mente humana em um computador suficientemente rápido. Fazer isso exigiria
um hardware muito poderoso que ainda não possuímos. Exigiria também
habilidades avançadas de programação ou maneiras sofisticadas de fazer uma
varredura muito detalhada de um cérebro humano que poderia ser carregado no
computador. Embora não possamos fazer isso em um futuro próximo, a
dificuldade parece ser meramente técnica. Não existe lei física ou restrição
material conhecida que impeça uma civilização suficientemente
tecnologicamente avançada de implementar mentes humanas em
computadores.

Nossa segunda preliminar é que podemos estimar, pelo menos


aproximadamente, quanto poder computacional seria necessário para
implementar uma mente humana junto com uma realidade virtual que pareceria
completamente realista para ela interagir. Além disso, podemos estabelecer
limites mais baixos sobre a potência dos computadores de uma civilização
avançada. Os futuristas tecnológicos já produziram projetos para computadores
fisicamente possíveis que poderiam ser construídos usando tecnologia
avançada de fabricação molecular. O resultado dessa análise é que uma
civilização tecnologicamente madura, que desenvolveu pelo menos aquelas
tecnologias que já sabemos serem fisicamente possíveis, seria capaz de
construir computadores poderosos o suficiente para administrar um número
astronômico de mentes humanas, mesmo que apenas um pouquinho. Uma
fração de seus recursos foi usada para esse fim.

Se você é uma mente tão simulada, talvez não exista uma maneira direta de
observação; a realidade virtual em que você estaria vivendo pareceria
perfeitamente real. Mas tudo o que isso mostra, até agora, é que você nunca
pode ter certeza absoluta de que não está vivendo uma simulação. Este
resultado é apenas moderadamente interessante. Você ainda pode considerar a
hipótese da simulação improvável demais para ser levada a sério.

Agora chegamos ao cerne do argumento da simulação. Isso não pretende


demonstrar que você está em uma simulação. Em vez disso, mostra que
devemos aceitar como verdade pelo menos uma das três proposições a seguir:
1. As chances de uma espécie em nosso atual nível de desenvolvimento evitar
a extinção antes de se tornar tecnologicamente madura são insignificantemente
pequenas.

2. Quase nenhuma civilização tecnologicamente madura está interessada em


executar simulações de mentes como a nossa.

3. Você está quase certamente em uma simulação.

Cada uma dessas três proposições pode ser prima facie implausível; no entanto,
se o argumento de simulação estiver correto, pelo menos um será verdadeiro
(ele não nos diz qual).

Enquanto o argumento da simulação completa emprega alguma teoria e


formalismo das probabilidades, sua essência pode ser entendida em termos
intuitivos. Suponha que a proposição (1) seja falsa. Então, uma fração
significativa de todas as espécies em nosso nível de desenvolvimento
eventualmente se torna tecnologicamente madura. Suponha, além disso, que (2)
também seja falso. Então, uma fração significativa dessas espécies que se
tornaram tecnologicamente maduras usará parte de seus recursos
computacionais para executar simulações de mentes como a nossa. Mas, como
vimos anteriormente, o número de mentes simuladas que qualquer civilização
tecnologicamente madura poderia executar é astronomicamente enorme.

Portanto, se (1) e (2) forem falsos, haverá um número astronomicamente grande


de mentes simuladas como a nossa. Se calcularmos os números, descobrimos
que haveria muito mais mentes simuladas do que mentes não simuladas
rodando em cérebros orgânicos. Em outras palavras, quase todas as mentes
como a sua, tendo o tipo de experiência que você tem, seriam simuladas em vez
de biológicas. Portanto, por um princípio muito fraco de indiferença, você teria
que pensar que provavelmente é uma dessas mentes simuladas, e não uma das
mentes excepcionais que funcionam com neurônios biológicos.

Portanto, se você acha que (1) e (2) são ambos falsos, você deve aceitar (3).
Não é coerente rejeitar as três proposições. Na realidade, não temos muita
informação específica para nos dizer qual das três proposições pode ser
verdadeira. Nessa situação, pode ser razoável distribuir nossa credibilidade de
maneira uniforme entre as três possibilidades, dando a cada uma delas uma
probabilidade substancial.

Vamos considerar as opções um pouco mais detalhadamente. A possibilidade


(1) é relativamente direta. Por exemplo, talvez exista alguma tecnologia
altamente perigosa que toda civilização suficientemente avançada desenvolva,
e que a destrua. Esperemos que este não seja o caso.
A possibilidade (2) exige que haja uma forte convergência entre todas as
civilizações suficientemente avançadas: quase nenhuma delas está interessada
em executar simulações por computador de mentes como a nossa, e quase
nenhuma delas contém indivíduos relativamente ricos que estejam interessados
em fazê-lo e livre para agir de acordo com seus desejos. Pode-se imaginar várias
razões que podem levar algumas civilizações a abandonar simulações em
execução, mas para (2) obter, praticamente todas as civilizações teriam que
fazer isso. Se isso fosse verdade, constituiria uma restrição interessante à
evolução futura da vida inteligente avançada.

A terceira possibilidade é a filosoficamente mais intrigante. Se (3) estiver correto,


você certamente está vivendo agora em simulação de computador criada por
alguma civilização avançada. Que tipo de implicações empíricas isso teria?
Como isso deve mudar a maneira como você vive sua vida?

Sua primeira reação pode pensar que, se (3) for verdadeira, todas as apostas
serão canceladas e essa seria uma loucura se você pensasse seriamente que
estava vivendo uma simulação.

Raciocinar assim seria um erro. Mesmo se estivéssemos em uma simulação, a


melhor maneira de prever o que aconteceria a seguir em nossa simulação ainda
é os métodos comuns - extrapolação de tendências passadas, modelagem
científica, senso comum e assim por diante. Para uma primeira aproximação, se
você pensou que estava em uma simulação, deveria continuar sua vida da
mesma maneira como se estivesse convencido de que está vivendo uma vida
não simulada no nível mais baixo da realidade.

A hipótese da simulação, no entanto, pode ter alguns efeitos sutis no


comportamento cotidiano racional. Na medida em que você acha que entende
os motivos dos simuladores, pode usar esse entendimento para prever o que
acontecerá no mundo simulado que eles criaram. Se você acha que existe uma
chance de o simulador deste mundo ser, digamos, um descendente fiel de alguns
fundamentalistas cristãos contemporâneos, você pode supor que ele ou ela
configurou a simulação de tal maneira que os seres simulados serão
recompensados ou punidos de acordo com os critérios morais cristãos. Uma vida
após a morte seria, é claro, uma possibilidade real para uma criatura simulada
(que poderia ser continuada em uma simulação diferente após a morte dela ou
mesmo ser "carregada" no universo do simulador e talvez recebesse um corpo
artificial lá). Seu destino nessa vida após a morte pode depender de como você
se comportou em sua atual encarnação simulada. Outras razões possíveis para
executar simulações incluem o artístico, científico ou recreativo. Na ausência de
motivos para esperar um tipo de simulação em vez de outro, no entanto,
precisamos recorrer aos métodos empíricos comuns para se locomover no
mundo.

Se estamos em uma simulação, é possível que possamos saber isso com


certeza? Se os simuladores não querem que a gente descubra, provavelmente
nunca o faremos. Mas se eles optarem por se revelar, certamente poderiam fazê-
lo. Talvez uma janela informando o fato apareça na sua frente, ou talvez eles o
"carreguem" para o mundo deles. Outro evento que nos permitiria concluir com
um grau muito alto de confiança de que estamos em uma simulação é se algum
dia chegarmos ao ponto em que estamos prestes a ativar nossas próprias
simulações. Se começarmos a executar simulações, isso seria uma evidência
muito forte contra (1) e (2). Isso nos deixaria com apenas (3).

Caverna de Platão. Trecho da República

Platão

Detalhes da publicação original: “Trecho da República” , Platão, República, trad.


Benjamin Jowett, PF Collier & Son, Colonial Press, 1901

Sócrates : E agora, eu disse, deixe-me mostrar em uma figura até que ponto
nossa natureza é iluminada ou não iluminada: - Eis! seres humanos vivendo em
um esconderijo subterrâneo, que tem a boca aberta em direção à luz e atingindo
todo o covil; aqui estão desde a infância, e têm as pernas e o pescoço
acorrentados para que não possam se mover e só possam ver diante deles,
sendo impedidos pelas correntes de girar em torno de suas cabeças. Acima e
atrás deles, um incêndio brilha à distância, e entre o fogo e os prisioneiros há um
caminho elevado; e você verá, se você olhar, um muro baixo construído ao longo
do caminho, como a tela que os jogadores de marionetes têm diante deles, sobre
a qual eles mostram os bonecos.

Glaucon : Entendo.

Sócrates: E você vê, eu disse, homens passando ao longo da parede carregando


todo tipo de embarcações, estátuas e figuras de animais feitos de madeira e
pedra e vários materiais que aparecem por cima da parede? Alguns estão
conversando, outros em silêncio.

Glaucon : Você me mostrou uma imagem estranha, e eles são prisioneiros


estranhos.
S ocrates : como nós, respondi; e eles vêem apenas suas próprias sombras, ou
as sombras umas das outras, que o fogo lança na parede oposta da caverna?

Glaucon : Verdade, ele disse; como eles podiam ver algo além das sombras se
nunca podiam mover a cabeça?

Sócrates : E dos objetos que estão sendo carregados da mesma maneira, eles
apenas veriam as sombras?

Glaucon: Sim, ele disse.

Sócrates: E se eles pudessem conversar um com o outro, eles não suporiam que
estavam nomeando o que realmente estava diante deles?

Glaucon: É verdade.

S ocrates: E suponha ainda que a prisão tivesse um eco que vinha do outro lado,
eles não teriam certeza de gostar quando um dos transeuntes dissesse que a
voz que ouviram vinha da sombra que passava?

Glaucon: Sem dúvida, ele respondeu.

Sócrates: Para eles, eu disse, a verdade seria literalmente nada além das
sombras das imagens.

Glaucon: Isso é certo.

Sócrates: E agora olhe novamente e veja o que acontecerá naturalmente se os


prisioneiros forem libertados e dissuadidos de seu erro. A princípio, quando
qualquer um deles é libertado e compelido repentinamente a se levantar, virar o
pescoço e andar e olhar em direção à luz, ele sofrerá dores agudas; o brilho o
afligirá, e ele será incapaz de ver as realidades das quais em seu estado anterior
vira as sombras; e então conceba alguém dizendo a ele que o que ele viu antes
era uma ilusão, mas que agora, quando ele está se aproximando do ser e seus
olhos estão voltados para uma existência mais real, ele tem uma visão mais clara
- qual será sua resposta ? E você ainda pode imaginar que o instrutor está
apontando para os objetos quando eles passam e exigindo que ele os nomeie -
ele não ficará perplexo? Será que ele não imagina que as sombras que ele viu
anteriormente são mais verdadeiras do que os objetos que agora lhe são
mostrados?

Glaucon: Muito mais verdadeiro.

Sócrates: E se ele for obrigado a olhar diretamente para a luz, não sentirá uma
dor nos olhos que o fará se afastar e se refugiar nos objetos de visão que ele
pode ver e em que ele conceberá estar? realidade mais clara do que as coisas
que agora lhe estão sendo mostradas?

Glaucon: Verdade, ele disse.

Sócrates: E suponha mais uma vez que ele é relutantemente arrastado por uma
subida íngreme e acidentada, e mantido firme até ser forçado à presença do sol,
ele provavelmente não se sentirá irritado e com dores? Quando ele se aproxima
da luz, seus olhos ficam ofuscados, e ele não poderá ver nada do que hoje é
chamado de realidade.

Glaucon: Nem tudo em um momento, ele disse.

S ocrates: Ele precisará se acostumar com a visão do mundo superior. E primeiro


ele verá melhor as sombras, depois os reflexos dos homens e outros objetos na
água e depois os próprios objetos; então ele contemplará a luz da lua e as
estrelas e o céu coberto; e ele verá o céu e as estrelas à noite melhor do que o
sol ou a luz do sol durante o dia?

Glaucon: Certamente.

Sócrates: Por último, ele será capaz de ver o sol, e não meros reflexos dele na
água, mas ele o verá em seu próprio lugar, e não em outro; e ele o contemplará
como ele é.

Glaucon: Certamente.

Sócrates: Ele continuará argumentando que é ele quem dá a estação e os anos,


e é o guardião de tudo o que está no mundo visível, e de certa maneira a causa
de todas as coisas que ele e seus companheiros foram acostumado a
contemplar?

Glaucon: Claramente, ele disse, primeiro veria o sol e depois raciocinaria sobre
ele.

Sócrates: E quando ele se lembrou de sua antiga habitação, e da sabedoria da


cova e de seus companheiros de prisão, você não acha que ele se felicitaria pela
mudança e teria pena deles?

Glaucon: Certamente, ele faria.

Sócrates: E se eles tinham o hábito de conferir honras entre si àqueles que eram
mais rápidos em observar as sombras que passavam e em observar quais deles
foram antes, e quais seguiram depois, e que estavam juntos; e quem, portanto,
era mais capaz de tirar conclusões quanto ao futuro, você acha que ele cuidaria
de tais honras e glórias ou invejaria os possuidores deles? Ele não diria com
Homer: Melhor ser o pobre servo de um pobre mestre e suportar qualquer coisa,
em vez de pensar como eles e viver como eles?

Glaucon: Sim, ele disse, acho que ele preferiria sofrer qualquer coisa do que
alimentar essas falsas noções e viver dessa maneira miserável.

Sócrates: imagine mais uma vez, eu disse, alguém saindo subitamente do sol
para ser substituído em sua antiga situação; ele não teria certeza de ter os olhos
cheios de escuridão?

Glaucon: Com certeza, ele disse.

Sócrates: E se houvesse uma disputa, e ele tivesse que competir medindo as


sombras com os prisioneiros que nunca haviam saído da cova, enquanto sua
visão ainda estava fraca e diante de seus olhos se firmarem (e o tempo que seria
ser necessário para adquirir esse novo hábito da visão pode ser muito
considerável) ele não seria ridículo? Os homens diziam que ele subiu e desceu,
sem os olhos; e que era melhor nem pensar em ascender; e se alguém tentasse
soltar outro e levá-lo até a luz, que eles apenas pegassem o agressor e o
matariam.

Glaucon: Sem dúvida, ele disse.

Sócrates: Eu disse que toda essa alegoria agora você pode acrescentar, querido
Glaucon, ao argumento anterior; a prisão é o mundo da visão, a luz do fogo é o
sol, e você não vai me interpretar mal se interpretar a jornada para cima como a
ascensão da alma ao mundo intelectual, de acordo com a minha má crença, que,
por seu desejo, eu expressei se Deus sabe, certa ou não. Mas, verdadeira ou
falsa, minha opinião é que, no mundo do conhecimento, a idéia de bem aparece
por último e é vista apenas com um esforço; e, quando visto, também é inferido
como o autor universal de todas as coisas belas e corretas, pai da luz e do senhor
da luz neste mundo visível, e a fonte imediata de razão e verdade no intelectual;
e que esse é o poder sobre o qual aquele que agiria racionalmente, na vida
pública ou privada, deve ter os olhos fixos.

Glaucon: Eu concordo, ele disse, até onde eu posso entender você.

Alguns experimentos de pensamento cartesiano. Trecho das Meditações


sobre a Primeira Filosofia
Detalhes da publicação original: “Trecho de As meditações sobre a primeira
filosofia”, René Descartes, Meditação I, trad. John Veitch, A Biblioteca Clássica,
1901

Rene Descartes

Das coisas de que podemos duvidar

Vários anos se passaram desde que tomei consciência de que havia aceitado,
mesmo desde a juventude, muitas opiniões falsas como verdadeiras e que,
consequentemente, o que mais tarde baseei em tais princípios era altamente
duvidoso; e desde então fiquei convencido da necessidade de empreender uma
vez na vida me livrar de todas as opiniões que havia adotado e de recomeçar o
trabalho de construção desde a fundação, se desejasse estabelecer uma
superestrutura firme e permanente na As ciências. Mas como esse
empreendimento me parecia de grande magnitude, esperei até atingir uma idade
tão madura que não me deixasse nenhuma esperança de que, em qualquer
estágio da vida mais avançado, pudesse executar melhor meu projeto. Por esse
motivo, adiei tanto tempo que, a partir de agora, devo considerar que estava
fazendo algo errado se ainda consumisse em deliberação o tempo que resta
para a ação. Hoje, pois, como oportunamente libertei minha mente de todos os
cuidados e estou felizmente perturbado por nenhuma paixão, e como estou em
posse segura de lazer em uma aposentadoria pacífica, por fim me aplicarei
sinceramente e livremente à derrubada geral. de todas as minhas opiniões
anteriores.

Mas, para esse fim, não será necessário que eu mostre que tudo isso é falso -
um ponto, talvez, que nunca alcançarei; mas como agora minha razão me
convence de que não devo menos cuidadosamente negar a crença do que não
é inteiramente certo e indubitável, do que do que é manifestamente falso, será
suficiente para justificar a rejeição do todo, se eu encontrar em cada um é motivo
de dúvida. Nem para esse propósito será necessário nem mesmo lidar com cada
crença individualmente, o que seria realmente um trabalho sem fim; mas, como
a remoção de baixo da fundação envolve necessariamente a queda de todo o
edifício, abordarei imediatamente as críticas aos princípios sobre os quais
repousavam todas as minhas crenças anteriores.

Tudo o que tenho, até este momento, aceito como possuidor da mais alta
verdade e certeza, recebi dos ou através dos sentidos. Observei, no entanto, que
isso às vezes nos enganava; e é parte da prudência não depositar confiança
absoluta naquilo pelo qual uma vez fomos enganados.
Mas pode-se dizer, talvez, que, embora os sentidos ocasionalmente nos
enganem respeitando objetos minuciosos, e aqueles que estão tão distantes de
nós que estão além do alcance de uma observação atenta, ainda existem muitas
outras informações (apresentações) , da verdade da qual é manifestamente
impossível duvidar; por exemplo, que estou neste lugar, sentado junto ao fogo,
vestido com um roupão de inverno, que seguro em minhas mãos este pedaço de
papel, com outras sugestões da mesma natureza. Mas como eu poderia negar
que possuo essas mãos e esse corpo, e também escapar de ser classificado
com pessoas em estado de insanidade, cujos cérebros são tão desordenados e
nublados por vapores biliosos escuros que os fazem pertinentemente afirmar
que são monarcas quando eles estão na maior pobreza; ou vestidos de ouro e
púrpura quando destituídos de qualquer cobertura; ou que sua cabeça é feita de
barro, seu corpo de vidro ou que são cabaças? Eu certamente não deveria ser
menos louco do que eles, se eu regulamentasse meu procedimento de acordo
com exemplos tão extravagantes.

Embora isso seja verdade, devo, no entanto, considerar aqui que sou um homem
e que, consequentemente, tenho o hábito de dormir, e representando para mim
mesmo nos sonhos essas mesmas coisas, ou até outras menos prováveis, que
os loucos pensam são apresentados a eles em seus momentos de vigília.
Quantas vezes sonhei que estava nessas circunstâncias familiares, que estava
vestida e ocupava esse lugar ao lado do fogo, quando estava deitado sem roupa
na cama? No momento presente, no entanto, certamente vejo este artigo com
os olhos bem acordados; a cabeça que agora passo não está adormecida;
Estendo esta mão conscientemente e com propósito expresso, e a percebo; as
ocorrências no sono não são tão distintas quanto tudo isso. Mas não posso
esquecer que, em outros momentos, fui enganado no sono por ilusões
semelhantes; e, considerando atentamente esses casos, percebo com tanta
clareza que não existem certas marcas pelas quais o estado de vigília possa ser
distinguido do sono, que me sinto muito surpreso; e, espantado, quase me
convenci de que agora estou sonhando.

Suponhamos, então, que estamos sonhando, e que todos esses detalhes - a


saber, a abertura dos olhos, o movimento da cabeça, a abertura das mãos - são
meramente ilusões; e mesmo que realmente não possuímos um corpo inteiro
nem mãos como a que vemos. Não obstante, deve-se admitir pelo menos que
os objetos que nos aparecem no sono são, por assim dizer, representações
pintadas que não poderiam ter sido formadas a menos que fossem à semelhança
das realidades; e, portanto, que esses objetos gerais, em todos os eventos, a
saber, olhos, cabeça, mãos e corpo inteiro, não são simplesmente imaginários,
mas realmente existentes. Pois, na verdade, os próprios pintores, mesmo
quando estudam representar sirenes e sátiros pelas formas mais fantásticas e
extraordinárias, não podem conceder-lhes naturezas absolutamente novas, mas
apenas fazer uma certa mistura dos membros de diferentes animais; ou se eles
tentarem imaginar algo tão novo que nada parecido jamais tenha sido visto
antes, e como é, portanto, puramente fictício e absolutamente falso, é pelo
menos certo que as cores das quais isso é composto são reais. E no mesmo
princípio, embora esses objetos gerais, viz. um corpo, olhos, cabeça, mãos e
afins, sejam imaginários, somos absolutamente necessários para admitir a
realidade de pelo menos alguns outros objetos ainda mais simples e universais
que estes, dos quais, assim como em certas cores reais, todas as imagens das
coisas, verdadeiras e reais, ou falsas e fantásticas, encontradas em nossa
consciência (cogitatio), são formadas.

A essa classe de objetos parece pertencer à natureza corporal em geral e sua


extensão; a figura das coisas estendidas, sua quantidade ou magnitude, e seu
número, como também o lugar e o tempo durante o qual elas existem, e outras
coisas do mesmo tipo.

Portanto, talvez não raciocinemos de forma ilegítima se concluirmos que a


Física, Astronomia, Medicina e todas as outras ciências que têm por fim a
consideração de objetos compostos são de fato de caráter duvidoso; mas que
Aritmética, Geometria e outras ciências da mesma classe, que consideram
apenas os objetos mais simples e gerais, e mal indagam se esses são realmente
existentes, contêm algo que é certo e indubitável: se estou acordado ou
sonhando, continua sendo verdade que dois e três fazem cinco, e que um
quadrado tem apenas quatro lados; nem parece possível que verdades tão
aparentes possam cair sob a suspeita de falsidade ou incerteza.

No entanto, a crença de que existe um Deus que é todo poderoso e que me


criou, como eu sou, há muito tempo obtém posse constante de minha mente.
Como, então, sei que ele não providenciou para que não houvesse terra, nem
céu, nem qualquer coisa estendida, nem

figura, nem magnitude, nem lugar, fornecendo ao mesmo tempo, no entanto, o


aumento em mim das percepções de todos esses objetos e a persuasão de que
eles não existem senão como eu os percebo? Além disso, como às vezes penso
que os outros estão errados a respeito de assuntos dos quais acreditam possuir
um conhecimento perfeito, como sei que também não sou enganado toda vez
que somar dois e três ou numerar os lados de um quadrado, ou formar algum
julgamento ainda mais simples, se é que se pode imaginar mais simples? Mas
talvez a Deidade não tenha desejado que eu seja enganado, pois se diz que ele
é supremamente bom. Se, no entanto, era repugnante à bondade da Deidade
ter me criado sujeito a engano constante, seria igualmente contrário à bondade
dele permitir-me ser ocasionalmente enganado; e, no entanto, está claro que
isso é permitido.

Alguns, de fato, talvez possam ser encontrados que estariam dispostos a negar
a existência de um Ser tão poderoso do que acreditar que não há nada certo.
Por enquanto, abstenha-nos de opor-nos a essa opinião e concedamos que tudo
o que se diz aqui de uma Deidade é fabuloso: não obstante, seja como for que
suponha que eu chegue ao estado em que existo, seja por destino ou por acaso
, ou por uma série interminável de antecedentes e conseqüentes, ou por
qualquer outro meio, é claro (desde que ser enganado e errar é um certo defeito)
que a probabilidade de eu ser tão imperfeita a ponto de ser vítima constante de
engano, será aumentado exatamente na proporção em que o poder possuído
pela causa, à qual eles atribuem minha origem, for diminuído. A esses raciocínios
eu certamente não tenho nada a responder, mas finalmente sou obrigado a
admitir que não há nada de que eu acreditava ser verdade do qual é impossível
duvidar, e que não por falta de consideração ou leviandade, mas por força razões
consideradas com maturidade; de modo que, a partir de agora, se desejo
descobrir alguma coisa certa, não devo menos cuidadosamente abster-me de
concordar com essas mesmas opiniões do que com o que pode ser demonstrado
ser manifestamente falso.

Mas não é suficiente ter feito essas observações; cuidados devem ser tomados
da mesma forma para mantê-los em memória. Pois aquelas opiniões antigas e
costumeiras se repetem perpetuamente - uso familiar e longo, dando-lhes o
direito de ocupar minha mente, mesmo quase contra minha vontade, e subjugar
minha crença; nem vou perder o hábito de diferir e confiar neles enquanto os
considerar como o que na verdade são, ou seja, opiniões até certo ponto
duvidosas, como já mostrei, mas ainda altamente provável, e tal pois é muito
mais razoável acreditar do que negar. É por essa razão que estou convencido
de que não vou estar errado, se, tomando um julgamento oposto ao projeto
deliberado, me tornar meu próprio enganador, supondo, por um tempo, que
todas essas opiniões sejam inteiramente falsas e imaginárias, até finalmente,
tendo assim equilibrado minha idade com meus novos preconceitos, meu
julgamento não será mais desviado pelo uso pervertido do caminho que pode
conduzir à percepção da verdade. Pois estou certo de que, enquanto isso, não
haverá perigo nem erro nesse curso, e que não posso, no momento, render muito
a desconfiar, pois o fim que agora busco não é ação, mas conhecimento.

Suponho, então, não que a Deidade, soberanamente boa e a fonte da verdade,


mas que algum demônio maligno, que é ao mesmo tempo extremamente potente
e enganoso, tenha empregado todo o seu artifício para me enganar; Suponho
que o céu, o ar, a terra, as cores, as figuras, os sons e todas as coisas externas
não sejam nada melhores que as ilusões dos sonhos, por meio das quais esse
ser lançou armadilhas para minha credulidade; Eu me considerarei sem mãos,
olhos, carne, sangue ou qualquer um dos sentidos, e acreditando falsamente
que possuo estes; Continuarei resolutamente fixado nessa crença, e se de fato
por esse meio não estiver ao meu alcance chegar ao conhecimento da verdade,
farei pelo menos o que estiver ao meu alcance, a saber, suspender meu
julgamento e guardar com calma. propósito contra concordar com o que é falso
e ser imposto por esse enganador, quaisquer que sejam seu poder e artifício.
Mas esse empreendimento é árduo e uma certa indolência me leva de maneira
insensível ao meu curso normal da vida; e assim como o cativo, que, por acaso,
desfrutava em seus sonhos de uma liberdade imaginária, quando começa a
suspeitar que é apenas uma visão, teme despertar e conspira com as ilusões
agradáveis de que o engano pode ser prolongado; por isso, por minha própria
vontade, volto ao trem das minhas crenças anteriores e tenho medo de me
despertar do sono, para que o tempo de vigília laboriosa que sucederia esse
descanso silencioso, no lugar de trazer alguma luz do dia, deva revelar-se
inadequado para dissipar a escuridão que surgirá das dificuldades que foram
levantadas.
A matriz como metafísica

David J. Chalmers

I. Cérebros em cubas

Matrix apresenta uma versão de uma antiga fábula filosófica: o cérebro em um


tanque. Um cérebro desencarnado está flutuando em um tanque, dentro do
laboratório de um cientista. O cientista organizou que o cérebro seja estimulado
com o mesmo tipo de estímulo que um cérebro corporificado normal recebe. Para
fazer isso, o cérebro está conectado a uma simulação gigante de computador de
um mundo. A simulação determina quais entradas o cérebro recebe. Quando o
cérebro produz resultados, eles são devolvidos à simulação. O estado interno do
cérebro é como o de um cérebro normal, apesar do fato de não ter um corpo. Do
ponto de vista do cérebro, as coisas parecem muito com você e eu.

O cérebro está enormemente iludido, ao que parece.

Tem todo tipo de crenças falsas sobre o mundo. Ele acredita que tem um corpo,
mas não tem um corpo. Ele acredita que está caminhando ao ar livre sob a luz
do sol, mas na verdade está dentro de um laboratório escuro. Ele acredita que é
um lugar, quando na verdade pode ser um lugar bem diferente. Talvez pense
que está em Tucson, quando na verdade está na Austrália, ou mesmo no espaço
sideral.

A situação de Neo no começo de Matrix é mais ou menos assim. Ele pensa que
mora em uma cidade, acha que tem cabelo, pensa que é 1999 e pensa que está
ensolarado lá fora. Na realidade, ele está flutuando no espaço, não tem cabelos,
o ano é por volta de 2199 e o mundo foi escurecido pela guerra. Existem algumas
pequenas diferenças no cenário do tanque acima: o cérebro de Neo está
localizado em um corpo e a simulação por computador é controlada por
máquinas e não por um cientista. Mas os detalhes essenciais são os mesmos.
Com efeito, Neo é um cérebro em uma cuba.

Digamos que uma matriz (minúscula "m") é uma simulação de computador


artificialmente projetada para um mundo. Portanto, a matriz no filme é um
exemplo de matriz. E digamos que alguém esteja com inveja ou que esteja em
uma matriz, se tiver um sistema cognitivo que receba suas entradas e envie suas
saídas para uma matriz. Então, o cérebro no começo é invejado, e Neo também.
Podemos imaginar que uma matriz simula toda a física de um mundo,
acompanhando cada última partícula no espaço e no tempo. (Mais tarde,
examinaremos as maneiras pelas quais essa configuração pode variar.) Um ser
com inveja será associado a um determinado corpo simulado. Uma conexão é
organizada de modo que, sempre que esse corpo receba informações sensoriais
dentro da simulação, o sistema cognitivo envolvido recebe informações
sensoriais do mesmo tipo. Quando o sistema cognitivo envolto produz saídas
motoras, as saídas correspondentes serão alimentadas aos órgãos motores do
corpo simulado.

Quando a possibilidade de uma matriz é levantada, uma pergunta segue


imediatamente. Como sei que não estou em uma matriz? Afinal, poderia haver
um cérebro em um tanque estruturado exatamente como o meu cérebro, ligado
a uma matriz, com experiências indistinguíveis daquelas que estou tendo agora.
Por dentro, não há como ter certeza de que não estou na situação do cérebro
em um tanque. Portanto, parece que não há como ter certeza de que não estou
em uma matriz.

Vamos chamar a hipótese de que estou em uma matriz e sempre estive em uma
matriz como Hipótese da Matriz. Equivalentemente, a Hipótese da Matriz diz que
estou com inveja e sempre fui. Isso não é exatamente equivalente à hipótese de
que estou na Matrix, pois a Matrix é apenas uma versão específica de uma
matriz. E, por enquanto, ignorarei a complicação que as pessoas às vezes viajam
entre a Matrix e o mundo externo. Além dessas questões, podemos pensar
informalmente na hipótese da matriz como dizendo que estou no mesmo tipo de
situação que as pessoas que sempre estiveram na matriz.

A hipótese da matriz é uma que devemos levar a sério. Como Nick Bostrom
sugeriu, não está fora de questão que na história do universo evolua a tecnologia
que permitirá aos seres criar simulações de computador de mundos inteiros.
Pode haver um grande número de simulações de computador, em comparação
com apenas um mundo real. Nesse caso, pode haver muito mais seres que estão
em uma matriz do que seres que não estão. Diante de tudo isso, pode-se inferir
que é mais provável que estejamos em uma matriz do que não. Se isso está
certo ou não, certamente parece que não podemos ter certeza de que não
estamos em uma matriz.

Sérias consequências parecem seguir-se. Meu colega contrariado parece estar


enormemente iludido. Pensa que está em Tucson; pensa que está sentado em
uma mesa escrevendo um artigo; pensa que tem um corpo. Mas, em face disso,
todas essas crenças são falsas. Da mesma forma, parece que, se estou com
inveja, minhas próprias crenças correspondentes são falsas. Se estou com
inveja, não estou realmente em Tucson, não estou realmente sentada em uma
mesa e talvez nem tenha um corpo. Portanto, se eu não sei que não estou com
inveja, não sei se estou em Tucson, não sei se estou sentado em uma mesa e
não sei se tenho um corpo.
A hipótese da matriz ameaça minar quase tudo o que sei. Parece ser uma
hipótese cética: uma hipótese que não posso descartar e que falsificaria a
maioria das minhas crenças se fosse verdade. Onde existe uma hipótese cética,
parece que nenhuma dessas crenças conta como conhecimento genuíno. É
claro que as crenças podem ser verdadeiras - posso ter sorte e não me sentir
invejada - mas não posso descartar a possibilidade de que sejam falsas.
Portanto, uma hipótese cética leva ao ceticismo sobre essas crenças: acredito
nessas coisas, mas não as conheço.

Para resumir o raciocínio: não sei se não estou em uma matriz. Se estou em uma
matriz, provavelmente não estou em Tucson. Portanto, se eu não souber que
não estou matricial, não sei se estou em Tucson. O mesmo vale para quase tudo
o que acho que sei sobre o mundo externo.

II Ambiente Reconsiderado

Essa é uma maneira padrão de pensar sobre o cenário do tanque. Parece que
essa visão também é endossada pelas pessoas que criaram Matrix. No estojo
de DVD do filme, vê-se o seguinte:

Percepção: O nosso dia a dia é real.

Realidade: Esse mundo é uma farsa, um engano elaborado causado por

máquinas todo-poderosas que nos controlam. Uau.

Eu acho que essa visão não está certa. Eu acho que mesmo se eu estiver em
uma matriz, meu mundo é perfeitamente real. Um cérebro em um tanque não é
iludido em massa (pelo menos se ele sempre esteve no tanque). Neo não tem
crenças massivamente falsas sobre o mundo externo. Em vez disso, os seres
envoltos têm crenças amplamente corretas sobre seu mundo. Nesse caso, a
hipótese da matriz não é uma hipótese cética e sua possibilidade não prejudica
tudo o que acho que sei.

Os filósofos sustentaram esse tipo de visão antes. O filósofo irlandês do século


XVIII George Berkeley sustentou, com efeito, que a aparência é realidade.

(Lembre-se de Morpheus: "O que é real? Como você define o real? Se você está
falando sobre o que pode sentir, o que pode cheirar, o que pode provar e ver, o
real é simplesmente sinais elétricos interpretados pelo seu cérebro". ) Se isso
estiver certo, o mundo percebido pelos seres envoltos é perfeitamente real: eles
têm todas as aparências certas e a aparência é realidade. Portanto, sob esse
ponto de vista, mesmo seres envoltos têm crenças verdadeiras sobre o mundo.
Recentemente, me vi abraçando uma conclusão semelhante, embora por razões
bem diferentes. Não acho que a aparência seja uma realidade plausível, por isso
não apoio o raciocínio de Berkeley. E até recentemente, parecia-me bastante
óbvio que cérebros em cubas teriam crenças massivamente falsas. Mas agora
acho que há uma linha de raciocínio que mostra que isso está errado.

Ainda acho que não posso descartar a hipótese de que estou em uma matriz.
Mas acho que, mesmo que eu esteja em uma matriz, ainda estou em Tucson,
ainda estou sentado à minha mesa e assim por diante. Portanto, a hipótese de
que estou em uma matriz não é uma hipótese cética. O mesmo vale para Neo.
No início do filme, se ele pensa "eu tenho cabelo", ele está correto. Se ele pensa
"Está ensolarado lá fora", ele está correto. E o mesmo vale, é claro, para o
cérebro original em um tanque. Quando pensa "eu tenho um corpo", está correto.
Quando pensa "estou andando", está correto.

Essa visão pode parecer muito contra-intuitiva a princípio. Inicialmente, pareceu-


me bastante contra-intuitivo. Então, agora vou apresentar a linha de raciocínio
que me convenceu de que está correta.

III A hipótese metafísica

Argumentarei que a hipótese de que estou com inveja não é uma hipótese cética,
mas uma hipótese metafísica. Ou seja, é uma hipótese sobre a natureza
subjacente da realidade.

Onde a física se preocupa com os processos microscópicos subjacentes à


realidade macroscópica, a metafísica se preocupa com a natureza fundamental
da realidade. Uma hipótese metafísica pode fazer uma afirmação sobre a
realidade subjacente à própria física. Como alternativa, pode dizer algo sobre a
natureza de nossas mentes ou a criação de nosso mundo.

Penso que a hipótese da matriz deve ser considerada como uma hipótese
metafísica com todos esses três elementos. Ele afirma sobre a realidade
subjacente à física, sobre a natureza de nossas mentes e sobre a criação do
mundo.

Em particular, acho que a Hipótese da matriz é equivalente a uma versão da


Hipótese metafísica em três partes a seguir. Primeiro, os processos físicos são
fundamentalmente computacionais. Segundo, nossos sistemas cognitivos são
separados dos processos físicos, mas interagem com esses processos.
Terceiro, a realidade física foi criada por seres fora do espaço-tempo físico.

É importante ressaltar que nada sobre essa hipótese metafísica é cético. A


hipótese metafísica aqui nos fala sobre os processos subjacentes à nossa
realidade comum, mas não implica que essa realidade não exista. Ainda temos
corpos, e ainda há cadeiras e mesas: é que a natureza fundamental delas é um
pouco diferente do que podemos ter pensado. Dessa maneira, a hipótese
metafísica é análoga a uma hipótese física, como uma que envolve a mecânica
quântica. Tanto a hipótese física quanto a hipótese metafísica nos falam sobre
os processos subjacentes às cadeiras. Eles não implicam que não haja cadeiras.
Em vez disso, eles nos dizem como são realmente as cadeiras.

Vou argumentar apresentando cada uma das três partes da hipótese metafísica
separadamente. Vou sugerir que cada um deles seja coerente e não possa ser
descartado conclusivamente. E vou sugerir que nenhuma delas é uma hipótese
cética: mesmo que sejam verdadeiras, a maioria de nossas crenças comuns
ainda está correta. O mesmo vale para uma combinação das três hipóteses.
Argumentarei então que a hipótese da matriz é equivalente a essa combinação.

(1) A hipótese da criação

A Hipótese da Criação diz: Espaço-tempo físico e seu conteúdo foram criados


por seres fora do espaço-tempo físico.

Esta é uma hipótese familiar. Uma versão é acreditada por muitas pessoas em
nossa sociedade, e talvez pela maioria das pessoas no mundo. Se alguém
acredita que Deus criou o mundo, e se acredita que Deus está fora do espaço-
tempo físico, então acredita na hipótese da criação. Porém, não é preciso
acreditar em Deus para acreditar na hipótese da criação. Talvez nosso mundo
tenha sido criado por um ser relativamente comum no "próximo universo",
usando a mais recente tecnologia de criação de mundo naquele universo. Nesse
caso, a hipótese da criação é verdadeira.

Não sei se a hipótese da criação é verdadeira. Mas não tenho certeza de que
seja falso. A hipótese é claramente coerente, e não posso descartá-la
conclusivamente.

A hipótese da criação não é uma hipótese cética. Mesmo que seja verdade, a
maioria das minhas crenças comuns ainda é verdadeira. Ainda tenho mãos,
ainda estou em Tucson e assim por diante. Talvez algumas de minhas crenças
se tornem falsas: se eu sou ateu, por exemplo, ou se acredito que toda a
realidade começou com o Big Bang. Mas a maioria das minhas crenças
cotidianas sobre o mundo externo permanecerá intacta.

(2) A hipótese computacional

TOMS

A Hipótese Computacional diz:


Os processos microfísicos ao longo do espaço-tempo são constituídos por
processos computacionais subjacentes.

A Hipótese Computacional diz

que a física como a conhecemos não é o nível fundamental da realidade. Assim


como os processos químicos estão subjacentes aos processos biológicos e os
processos microfísicos subjacentes aos processos químicos, algo está
subjacente aos processos microfísicos. Abaixo do nível de quarks, elétrons e
fótons, há um nível adicional: o nível de bits. Esses bits são governados por um
algoritmo computacional, que em um nível mais alto produz os processos que
consideramos partículas, forças e assim por diante.

A Hipótese Computacional não é tão amplamente acreditada quanto a Hipótese


da Criação, mas algumas pessoas levam isso a sério. O mais famoso é que Ed
Fredkin postulou que o universo é, no fundo, algum tipo de computador. Mais
recentemente, Stephen Wolfram adotou a idéia em seu livro Um novo tipo de
ciência, sugerindo que, no nível fundamental, a realidade física pode ser uma
espécie de autômato celular, com bits de interação governados por regras
simples. E alguns físicos examinaram a possibilidade de que as leis da física
possam ser formuladas computacionalmente, ou possam ser vistas como
conseqüência de certos princípios computacionais.

Pode-se preocupar que bits puros não possam ser o nível fundamental da
realidade: um bit é apenas 0 ou 1, e a realidade não pode realmente ser zero e
um. Ou talvez um pouco seja apenas uma "diferença pura" entre dois estados
básicos, e não pode haver uma realidade composta de diferenças puras. Em vez
disso, os bits sempre precisam ser implementados por estados mais básicos,
como tensões em um computador normal.

Não sei se essa objeção está certa. Eu não acho que esteja completamente fora
de questão que possa haver um universo de "bits puros". Mas isso não importa
para os propósitos atuais. Podemos supor que o próprio nível computacional seja
constituído por um nível ainda mais fundamental, no qual os processos
computacionais são implementados. Não importa para os propósitos atuais qual
é esse nível mais fundamental. O que importa é que os processos microfísicos
são constituídos por processos computacionais, que são eles próprios
constituídos por processos mais básicos. A partir de agora, considerarei a
hipótese computacional como dizendo isso.

Não sei se a hipótese computacional está correta. Mas, novamente, não sei se
é falso. A hipótese é coerente, se especulativa, e não posso descartá-la
conclusivamente.

A hipótese computacional não é uma hipótese cética. Se é verdade, ainda


existem elétrons e prótons. Nesta imagem, elétrons e prótons serão análogos a
moléculas: eles são feitos de algo mais básico, mas ainda existem. Da mesma
forma, se a Hipótese Computacional for verdadeira, ainda existem mesas e
cadeiras, e a realidade macroscópica ainda existe. Acontece que a realidade
fundamental deles é um pouco diferente do que pensávamos.

A situação aqui é análoga à da mecânica quântica ou da relatividade. Isso pode


nos levar a revisar algumas crenças "metafísicas" sobre o mundo externo: que o
mundo é feito de partículas clássicas ou que há tempo absoluto. Mas a maioria
de nossas crenças comuns permanece intacta. Da mesma forma, aceitar a
hipótese computacional pode nos levar a revisar algumas crenças metafísicas:
que elétrons e prótons são fundamentais, por exemplo. Mas a maioria de nossas
crenças comuns não é afetada.

(3) A hipótese da mente-corpo

A Hipótese Mente-Corpo diz: Minha mente é (e sempre foi) constituída por


processos fora do espaço-tempo físico e recebe suas entradas perceptivas de e
envia suas saídas para processos no espaço-tempo físico.

A Hipótese Mente-Corpo também é bastante familiar e amplamente aceita.


Descartes acreditava em algo assim: na sua opinião, temos mentes não-físicas
que interagem com nosso corpo físico. Hoje, a hipótese é menos amplamente
aceita do que na época de Descartes, mas ainda há muitas pessoas que aceitam
a hipótese Mente-Corpo.

Se a hipótese da mente-corpo é ou não verdadeira, é certamente coerente.


Mesmo que a ciência contemporânea tenda a sugerir que a hipótese é falsa, não
podemos descartá-la conclusivamente.

A hipótese mente-corpo não é uma hipótese cética. Mesmo que minha mente
esteja fora do espaço-tempo físico, ainda tenho um corpo, ainda estou em
Tucson e assim por diante. No máximo, aceitar esta hipótese nos faria rever
algumas crenças metafísicas sobre nossas mentes. Nossas crenças comuns
sobre a realidade externa permanecerão em grande parte intactas.

(4) A hipótese metafísica

Agora podemos juntar essas hipóteses. Primeiro, podemos considerar a


hipótese de combinação, que combina os três. Diz que o espaço-tempo físico e
seu conteúdo foram criados por seres fora do espaço-tempo físico, que
processos microfísicos são constituídos por processos computacionais e que
nossas mentes estão fora do espaço-tempo físico, mas interagem com ele.

Como nas hipóteses tomadas individualmente, a hipótese da combinação é


coerente e não podemos descartá-la conclusivamente. E, como as hipóteses
tomadas individualmente, não é uma hipótese cética. Aceitar isso pode nos levar
a revisar algumas de nossas crenças, mas deixaria a maioria delas intacta.
Finalmente, podemos considerar a hipótese metafísica (com M maiúsculo).
Como a hipótese de combinação, isso combina a hipótese de criação, a hipótese
computacional e a hipótese mente-corpo. Também adiciona a seguinte
afirmação mais específica: os processos computacionais subjacentes ao
espaço-tempo físico foram projetados pelos criadores como uma simulação
computacional de um mundo.

(Também pode ser útil pensar na hipótese metafísica como dizendo que os
processos computacionais que constituem o espaço-tempo físico fazem parte de
um domínio mais amplo, e que os criadores e meu sistema cognitivo também
estão localizados nesse domínio. necessário para o que se segue, mas combina
com a maneira mais comum de pensar sobre a hipótese da matriz.)

A hipótese metafísica é uma versão ligeiramente mais específica da hipótese de


combinação, na medida em que especifica algumas relações entre as várias
partes da hipótese. Novamente, a hipótese metafísica é uma hipótese coerente,
e não podemos descartá-la conclusivamente. E, novamente, não é uma hipótese
cética. Mesmo se aceitarmos, a maioria de nossas crenças comuns sobre o
mundo externo permanecerá intacta.

IV A hipótese da matriz como hipótese metafísica

Lembre-se de que a hipótese da matriz diz: Eu tenho (e sempre tive) um sistema


cognitivo que recebe suas entradas e envia suas saídas para uma simulação de
computador artificialmente projetada de um mundo.

Argumentarei que a Hipótese da Matriz é equivalente à Hipótese Metafísica, no


seguinte sentido: se eu aceito a Hipótese Metafísica, devo aceitar a Hipótese da
Matriz, e se eu aceitar a Hipótese da Matriz, devo aceitar a Hipótese Metafísica.
Ou seja, as duas hipóteses implicam uma à outra, onde isso significa que, se
uma aceita uma, uma deve aceitar a outra.

Pegue a primeira direção primeiro, da Hipótese Metafísica à Hipótese Matricial.


A Hipótese Mente-Corpo implica que eu tenho (e sempre tive) um sistema
cognitivo isolado que recebe suas entradas e envia suas saídas para processos
no espaço-tempo físico. Em conjunto com a Hipótese Computacional, isso
implica que meu sistema cognitivo recebe entradas e envia saídas para os
processos computacionais que constituem o espaço-tempo físico. A hipótese da
criação (junto com o resto da hipótese metafísica) implica que esses processos
foram artificialmente projetados para simular um mundo. Daqui resulta que eu
tenho (e sempre tive) um sistema cognitivo isolado que recebe suas entradas e
as envia para uma simulação de computador artificialmente projetada de um
mundo. Esta é apenas a hipótese da matriz. Portanto, a Hipótese Metafísica
implica a Hipótese da Matriz.

A outra direção está intimamente relacionada. Para ser informal: se eu aceito a


hipótese da matriz, aceito que o que está por trás da realidade aparente é
exatamente como a hipótese metafísica especifica. Existe um domínio que
contém meu sistema cognitivo, interagindo causalmente com uma simulação de
computador do espaço-tempo físico, que foi criada por outros seres nesse
domínio. É exatamente isso que deve ser obtido para que a Hipótese Metafísica
obtenha. Se alguém aceita isso, deve aceitar a hipótese da criação, a hipótese
computacional, a hipótese mente-corpo e as relações relevantes entre elas.

Alguém pode fazer várias objeções. Por exemplo, alguém poderia objetar que a
Hipótese da matriz implica que existe uma simulação computacional de
processos físicos, mas (diferentemente da Hipótese metafísica), não implica que
os próprios processos físicos existam. Discutirei esta e outras objeções nas
seções posteriores. Por enquanto, porém, considero que há um forte argumento
de que a Hipótese da matriz implica a Hipótese metafísica e vice-versa.

44 David J. Chalmers

V. A vida na matriz

Se isso estiver correto, segue-se que a hipótese da matriz não é uma hipótese
cética. Se eu aceitar, não devo inferir que o mundo externo não existe, ou que
não tenho corpo, ou que não há mesas e cadeiras, ou que não estou em Tucson.
Antes, devo inferir que o mundo físico é constituído por cálculos abaixo do nível
microfísico. Ainda existem mesas, cadeiras e corpos: estes são constituídos
fundamentalmente por bits e pelo que quer que os constitua. Este mundo foi
criado por outros seres, mas ainda é perfeitamente real. Minha mente está
separada dos processos físicos e interage com eles. Minha mente pode não ter
sido criada por esses seres, e pode não ser composta de bits, mas ainda interage
com esses bits.

O resultado é uma imagem complexa da natureza fundamental da realidade. A


imagem é estranha e surpreendente, talvez, mas é uma imagem de um mundo
externo cheio de sangue. Se estamos em uma matriz, é assim que o mundo é.

Podemos pensar na hipótese da matriz como um mito da criação para a era da


informação. Se estiver correto, o mundo físico foi criado, mas não
necessariamente pelos deuses. Subjacente ao mundo físico está uma
computação gigante, e os criadores criaram esse mundo implementando essa
computação. E nossas mentes estão fora dessa estrutura física, com uma
natureza independente que interage com essa estrutura.
Muitos dos mesmos problemas que surgem com os mitos da criação padrão
surgem aqui. Quando o mundo foi criado? A rigor, não foi criado dentro do nosso
tempo. Quando a história começou? Os criadores podem ter iniciado a simulação
em 4004 aC (ou em 1999) com o registro fóssil intacto, mas teria sido muito mais
fácil para eles iniciar a simulação no Big Bang e deixar as coisas seguirem seu
curso a partir daí. Quando nossas mentes não-físicas começam a existir?
Depende apenas de quando novos sistemas cognitivos envoltos são anexados
à simulação (talvez no momento da concepção dentro da matriz ou talvez no
momento do nascimento?). Há vida após a morte? Depende do que acontece
com os sistemas envastados depois que seus corpos simulados morrem. Como
a mente e o corpo interagem? Por elos causais que estão fora do espaço e do
tempo físicos.

Mesmo se não estamos em uma matriz, podemos estender uma versão desse
raciocínio a outros seres que estão em uma matriz. Se descobrirem sua situação
e aceitarem que estão em uma matriz, não devem rejeitar suas crenças comuns
sobre o mundo externo. No máximo, eles devem rever suas crenças sobre a
natureza subjacente de seu mundo: devem aceitar que objetos externos são
feitos de bits, e assim por diante. Esses seres não são maciçamente iludidos: a
maioria de suas crenças comuns sobre seu mundo está correta.

Existem algumas qualificações aqui. Alguém pode se preocupar com crenças


sobre a mente de outras pessoas. Eu acredito que meus amigos estão
conscientes. Se eu estou em uma matriz, isso está correto? Na Matrix retratada
no filme, essas crenças são muito boas. Esta é uma matriz com várias cubas:
para cada um dos meus amigos percebidos, há um ser avantajado na realidade
externa, que presumivelmente é consciente como eu. A exceção pode ser seres
como o Agente Smith, que não são invejados, mas são totalmente
computacionais. Se esses seres são conscientes depende se a computação é
suficiente para a consciência. Permanecerei neutro nessa questão aqui.
Poderíamos contornar esse problema incorporando à hipótese da matriz o
requisito de que todos os seres que percebemos sejam envenenados. Mas
mesmo se não construímos esse requisito, não estamos muito piores do que no
mundo real, onde há uma questão legítima sobre se outros seres são
conscientes, independentemente de estarmos em uma matriz.

Pode-se também se preocupar com crenças sobre o passado distante e sobre o


futuro distante. Eles não serão ameaçados enquanto a simulação em
computador cobrir todo o espaço-tempo, do Big Bang até o fim do universo. Isso
está embutido na Hipótese Metafísica, e podemos estipular que também está
embutido na Hipótese da Matriz, exigindo que a simulação por computador seja
uma simulação de um mundo inteiro. Pode haver outras simulações que
começam no passado recente (talvez a Matrix no filme seja assim), e outras que
duram apenas um pouco. Nesses casos, os seres envoltos terão falsas crenças
sobre o passado e / ou o futuro em seus mundos. Mas, desde que a simulação
cubra a vida útil desses seres, é plausível que eles tenham crenças corretas
sobre o estado atual de seu ambiente.
Pode haver alguns aspectos em que os seres de uma matriz são enganados.
Pode ser que os criadores da matriz controlem e interfiram com muito do que
acontece no mundo simulado. (Matrix no filme pode ser assim, embora a
extensão do controle dos criadores não seja muito clara.) Nesse caso, esses
seres podem ter muito menos controle sobre o que acontece do que pensam.
Mas o mesmo acontece se houver um deus interferente em um mundo não
matricial. E a hipótese da matriz não implica que os criadores interfiram no
mundo, embora deixe aberta a possibilidade. Na pior das hipóteses, a hipótese
da matriz não é mais cética a esse respeito do que a hipótese da criação em um
mundo sem matriz.

Os habitantes de uma matriz também podem ser enganados, pois a realidade é


muito maior do que eles pensam. Eles podem pensar que seu universo físico é
tudo o que existe, quando na verdade há muito mais no mundo, incluindo seres
e objetos que eles nunca podem ver. Mas, novamente, esse tipo de preocupação
pode surgir igualmente em um mundo não matricial. Por exemplo, os
cosmologistas consideram seriamente a hipótese de que nosso universo pode
resultar de um buraco negro no "próximo universo acima" e que, na realidade,
pode haver toda uma árvore de universos. Nesse caso, o mundo também é muito
maior do que pensamos, e pode haver seres e objetos que nunca poderemos
ver. De qualquer forma, o mundo que vemos é perfeitamente real.

É importante ressaltar que nenhuma dessas fontes de ceticismo - sobre outras


mentes, o passado e o futuro, sobre nosso controle sobre o mundo e sobre a
extensão do mundo - põe em dúvida nossa crença na realidade do mundo que
percebemos. Nenhum deles nos leva a duvidar da existência de objetos
externos, como mesas e cadeiras, da maneira que a hipótese do IVA deve fazer.
E nenhuma dessas preocupações está especialmente ligada ao cenário da
matriz. Pode-se levantar dúvidas sobre a existência de outras mentes, se o
passado e o futuro existem e se temos controle sobre nossos mundos,
independentemente de estarmos em uma matriz. Se isso estiver correto, a
hipótese da matriz não suscita as questões céticas distintas que costumam ser
levantadas.

Sugeri anteriormente que não está fora de questão que realmente estamos em
uma matriz. Alguém poderia pensar que esta é uma conclusão preocupante. Mas
se eu estiver certo, não é tão preocupante quanto se poderia pensar. Mesmo se
estivermos nessa matriz, nosso mundo não é menos real do que pensávamos.
Apenas tem uma natureza fundamental surpreendente.

VI Objeções

Quando olhamos para um cérebro em um tanque do lado de fora, é difícil evitar


a sensação de que ele está iludido. Esse sentido se manifesta em várias
objeções relacionadas. Essas não são objeções diretas ao argumento acima,
mas são objeções à sua conclusão.
Objeção 1: Um cérebro em uma cuba pode pensar que está do lado de fora
caminhando ao sol, quando na verdade está sozinho em um quarto escuro.
Certamente está iludido!

Resposta: O cérebro está sozinho em um quarto escuro. Mas isso não implica
que a pessoa esteja sozinha em um quarto escuro. Por analogia, basta dizer que
Descartes está certo de que desencarnamos mentes fora do espaço-tempo,
feitas de ectoplasma. Quando penso "estou ao sol no exterior", um anjo pode
olhar para minha mente ectoplásmica e notar que, na verdade, ela não está
exposta a nenhum sol. Segue-se que meu pensamento está incorreto?
Presumivelmente não: posso estar ao sol ao ar livre, mesmo que minha mente
ectoplasmática não esteja. O anjo estaria errado ao inferir que eu tenho uma
crença incorreta. Da mesma forma, não devemos inferir que o ser envolto tem
uma crença incorreta. Pelo menos, não é mais iludido do que uma mente
cartesiana.

A moral é que o ambiente imediato de nossas mentes pode ser irrelevante para
a verdade da maioria de nossas crenças. O que importa são os processos aos
quais nossas mentes estão conectadas, por entradas perceptivas e saídas
motoras. Uma vez que reconhecemos isso, a objeção desaparece.

Objeção 2: Um ser com inveja pode acreditar que está em Tucson, quando na
verdade está em Nova York e nunca esteve perto de Tucson. Certamente essa
crença está iludida.

Resposta: O conceito de “Tucson” do ser envolto não se refere ao que


chamamos de Tucson. Pelo contrário, refere-se a algo completamente diferente:
chame isso de Tucson * ', ou "Tucson virtual". Podemos pensar nisso como um
"local virtual" (mais sobre isso daqui a pouco). Quando o ser diz para si mesmo
"Estou em Tucson", ele realmente pensa que está em Tucson * ', e pode muito
bem estar em Tucson *'. Como Tucson não é Tucson *, o fato de o ser nunca ter
estado em Tucson é irrelevante para se sua crença é verdadeira.

Uma analogia grosseira: olho para meu colega Terry e penso "esse é Terry". Em
outras partes do mundo, uma duplicata de mim olha para uma duplicata de Terry.
Ele pensa que "é Terry", mas não está olhando para o verdadeiro Terry. Sua
crença é falsa? Parece que não: o conceito de “Terry” da minha duplicata não se
refere a Terry, mas à sua duplicata Terry *. Meu duplicado realmente está
olhando para Terry *, então sua crença é verdadeira. O mesmo tipo de coisa está
acontecendo no caso acima.

Objeção 3: Antes de deixar a Matrix, Neo acredita que ele tem cabelo. Mas, na
realidade, ele não tem cabelos (o corpo no tanque é careca). Certamente essa
crença está iludida.

Resposta: Este caso é como o último. O conceito de “cabelo” de Neo não se


refere a cabelos reais, mas a outra coisa que poderíamos chamar de cabelos *
(“cabelos virtuais”). Portanto, o fato de Neo não ter cabelo de verdade é
irrelevante para saber se sua crença é verdadeira. Neo realmente tem cabelo
virtual, então ele está correto.

Objeção 4: A que tipo de objetos um ser envolto se refere. O que é cabelo virtual,
Tucson virtual e assim por diante?

Resposta: são todas as entidades constituídas por processos computacionais.


Se estou com inveja, os objetos a que me refiro (cabelo, Tucson etc.) são todos
feitos de bits. E se outro ser é invejado, os objetos a que se refere (cabelo *,
Tucson * e assim por diante) também são feitos de bits. Se o ser envolto está
ligado a uma simulação no meu computador, os objetos a que se refere são
constituídos por padrões de bits dentro do meu computador. Podemos chamar
essas coisas de objetos virtuais. Mãos virtuais não são mãos (supondo que eu
não seja invejada), mas elas existem dentro do computador da mesma forma. O
Tucson virtual não é Tucson, mas existe dentro do computador da mesma forma.

Objeção 5: Você acabou de dizer que mãos virtuais não são mãos reais. Isso
significa que, se estamos na matriz, não temos mãos reais?

Resposta: Não. Se estamos não na matriz, mas alguém está, devemos dizer que
o seu termo “mão” refere-se a mãos virtuais, mas o nosso mandato não.

Portanto, neste caso, nossas mãos não são virtuais. Mas se estão na matriz, em
seguida, nosso termo “mão” se refere a algo que é feito de bits: mãos virtuais,
ou pelo menos algo que seria considerado como mãos virtuais por pessoas no
outro mundo para cima. Ou seja, se estão na matriz, mãos reais são feitos de
bits. As coisas parecem bem diferentes, e nossas palavras se referem a coisas
diferentes, dependendo de nossa perspectiva estar dentro ou fora da matriz.

Esse tipo de mudança de perspectiva é comum ao se pensar no cenário da


matriz. Da perspectiva da primeira pessoa, supomos que estamos em uma
matriz. Aqui, coisas reais em nosso mundo são feitas de bits, embora o "próximo
mundo acima" possa não ser feito de bits. Da perspectiva da terceira pessoa,
supomos que outra pessoa esteja em uma matriz, mas não estamos. Aqui,
coisas reais em nosso mundo não são feitas de bits, mas o "próximo mundo para
baixo" é feito de bits. Na primeira maneira de fazer as coisas, nossas palavras
se referem a entidades computacionais. Na segunda maneira de fazer as coisas,
as palavras dos seres envoltos se referem a entidades computacionais, mas
nossas palavras não.

Objeção 6: Qual padrão de bits é um determinado objeto virtual? Certamente


será impossível escolher um conjunto preciso.

Resposta: Essa pergunta é como perguntar: qual parte da função de onda


quântica é essa cadeira ou a Universidade do Arizona? Esses objetos são, no
final das contas, constituídos por uma função de onda quântica subjacente, mas
pode não haver uma parte precisa da função de onda de nível micro que
possamos dizer "é" a cadeira ou a universidade. A cátedra e a universidade
existem em um nível superior. Da mesma forma, se formos envoltos, pode não
haver um conjunto preciso de bits no processo computacional de nível micro que
é a cátedra ou a universidade. Estes existem em um nível superior. E se outra
pessoa é avatada, pode não haver conjuntos precisos de bits na simulação do
computador que "sejam" os objetos a que se referem. Mas, assim como uma
cadeira existe sem ser uma parte precisa da função de onda, uma cadeira virtual
pode existir sem ser um conjunto preciso de bits.

Objeção 7: Um ser com inveja pensa que realiza ações e acha que tem amigos.
Essas crenças estão corretas?

Resposta: Pode-se tentar dizer que o ser realiza ações * 'e que possui amigos
*'. Mas, por várias razões, acho que não é plausível que palavras como "ação" e
"amigo" possam mudar seus significados tão facilmente quanto palavras como
"Tucson" e "cabelo". Em vez disso, acho que se pode dizer com sinceridade (em
nossa própria língua) que o ser envolto realiza ações e que tem amigos.
Certamente, ele executa ações em seu ambiente, e seu ambiente não é o nosso
ambiente, mas o ambiente virtual. E seus amigos também habitam o ambiente
virtual (supondo que tenhamos uma matriz com várias cubas ou que a
computação seja suficiente para a consciência). Mas o ser envolto não está
incorreto a esse respeito.

Objeção 8: Deixe esses pontos técnicos de lado. Certamente, se estamos em


uma matriz, o mundo não é como pensamos!

Resposta: Eu nego isso. Mesmo se estamos em uma matriz, ainda existem


pessoas, jogos de futebol e partículas, organizadas no espaço-tempo,
exatamente como pensamos que são. É só que o mundo tem uma natureza
adicional que vai além da nossa concepção inicial. Em particular, as coisas no
mundo são realizadas computacionalmente de uma maneira que talvez não
tivéssemos imaginado originalmente. Mas isso não contradiz nenhuma de
nossas crenças comuns. No máximo, contradiz algumas de nossas crenças
metafísicas mais abstratas. Mas exatamente o mesmo vale para a mecânica
quântica, a teoria da relatividade e assim por diante.

Se estamos em uma matriz, podemos não ter muitas crenças falsas, mas há
muito conhecimento que nos falta. Por exemplo, não sabemos que o universo é
realizado computacionalmente. Mas é exatamente isso que se pode esperar.
Mesmo se não estamos em uma matriz, pode muito bem haver muito sobre a
natureza fundamental da realidade que não conhecemos. Não somos criaturas
oniscientes, e nosso conhecimento do mundo é, na melhor das hipóteses,
parcial. Esta é simplesmente a condição de uma criatura que vive em um mundo.

VII Outras hipóteses céticas


A hipótese da matriz é um exemplo de uma hipótese “cética” tradicional, mas
não é o único exemplo. Outras hipóteses céticas não são tão diretas quanto a
hipótese da matriz. Ainda assim, penso que para muitos deles, uma linha de
raciocínio semelhante se aplica. Em particular, pode-se argumentar que a
maioria dessas não são hipóteses céticas globais: isto é, sua verdade não
minaria todas as nossas crenças empíricas sobre o mundo físico. Na pior das
hipóteses, a maioria delas são hipóteses céticas parciais , subcotando algumas
de nossas crenças empíricas, mas deixando muitas dessas crenças intactas.

Nova hipótese de matriz: fui criado recentemente, juntamente com todas as


minhas memórias, e fui colocado em uma matriz recém-criada.

E se eu e a matriz existirmos há pouco tempo? Essa hipótese é uma versão


computacional da hipótese recente de criação de Bertrand Russell: o mundo
físico foi criado apenas recentemente (com o registro fóssil intacto), e eu também
(com as memórias intactas). Nessa hipótese, o mundo externo que eu percebo
realmente existe, e a maioria das minhas crenças sobre seus estados atuais é
plausivelmente verdadeira, mas tenho muitas crenças falsas sobre o passado.
Penso que o mesmo deve ser dito da hipótese da nova matriz. Pode-se
argumentar, nas linhas apresentadas anteriormente, que a Hipótese da Nova
Matriz é equivalente a uma combinação da Hipótese metafísica com a Hipótese
da criação recente. Essa combinação não é uma hipótese cética global (embora
seja uma hipótese cética parcial, no que diz respeito às crenças sobre o
passado). O mesmo vale para a hipótese da nova matriz.

Hipótese recente da matriz: Durante a maior parte da minha vida não fui invejada,
mas recentemente fui ligada a uma matriz.

Se fui recentemente colocado em uma matriz sem perceber, parece que muitas
das minhas crenças sobre o meu ambiente atual são falsas. Digamos que ontem
mesmo alguém me colocou em uma simulação, na qual eu viajo para Las Vegas
e jogo em um cassino. Então posso acreditar que estou em Las Vegas agora e
que estou em um cassino, mas essas crenças são falsas: estou realmente em
um laboratório em Tucson.

Esse resultado é bem diferente da matriz de longo prazo. A diferença está no


fato de que minha concepção de realidade externa está ancorada na realidade
em que vivi a maior parte da minha vida. Se fui invejada a vida toda, minha
concepção está ancorada à realidade computacionalmente constituída. Mas se
eu fui ontem invejado ontem, minha concepção está ancorada na realidade
externa. Então, quando penso que estou em Las Vegas, penso que estou na
área externa de Las Vegas, e esse pensamento é falso.

Ainda assim, isso não prejudica todas as minhas crenças sobre o mundo externo.
Acredito que nasci em Sydney, que há água nos oceanos e assim por diante, e
todas essas crenças estão corretas. São apenas minhas crenças adquiridas
recentemente, decorrentes da percepção do ambiente simulado, que serão
falsas. Portanto, essa é apenas uma hipótese cética parcial: sua possibilidade
lança dúvidas sobre um subconjunto de nossas crenças empíricas, mas não
lança dúvidas sobre todas elas.

Curiosamente, as hipóteses da Matriz Recente e da Nova Matriz apresentam


resultados opostos, apesar de sua natureza semelhante; a Hipótese Matricial
Recente produz crenças verdadeiras sobre o passado, mas crenças falsas sobre
o presente, enquanto a Hipótese Matricial Nova gera crenças falsas sobre o
passado e crenças verdadeiras sobre o presente. As diferenças estão ligadas ao
fato de que, na Hipótese Matricial Recente, eu realmente tenho uma existência
passada para minhas crenças, e que a realidade passada desempenhou um
papel na ancoragem do conteúdo de meus pensamentos que não tem paralelo
na Hipótese Matricial Nova. .

Hipótese da matriz local: Estou ligado a uma simulação por computador de um


ambiente local fixo em um mundo.

Em uma maneira de fazer isso, um computador simula um pequeno ambiente


fixo em um mundo, e os sujeitos da simulação encontram algum tipo de barreira
quando tentam sair dessa área. Por exemplo, no filme O Décimo Terceiro Andar,
apenas na Califórnia é simulado, e quando o sujeito tenta dirigir para Nevada, a
estrada diz “Fechado para Reparo” (com fracas montanhas eletrônicas verdes à
distância!). Obviamente, essa não é a melhor maneira de criar uma matriz, pois
os sujeitos provavelmente descobrirão os limites do seu mundo.

Essa hipótese é análoga a uma hipótese de criação local, na qual os criadores


acabam de criar uma parte local do mundo físico. Sob essa hipótese, teremos
crenças verdadeiras sobre assuntos próximos, mas crenças falsas sobre
assuntos mais distantes de casa. Pelo tipo usual de raciocínio, a Hipótese da
matriz local pode ser vista como uma combinação da Hipótese metafísica com a
Hipótese da criação local. Então devemos dizer a mesma coisa sobre isso.

Hipótese da matriz local extensível : Estou ligado a uma simulação por


computador de um ambiente local em um mundo, estendido quando necessário,
dependendo dos movimentos do sujeito.

Essa hipótese evita as dificuldades óbvias com uma matriz local fixa. Aqui, os
criadores simulam um ambiente local e o estendem quando necessário. Por
exemplo, eles podem agora estar se concentrando em simular um quarto na
minha casa em Tucson. Se eu entrar em outra sala, ou voar para outra cidade,
eles irão simular isso. É claro que eles precisam ter certeza de que, quando vou
a esses lugares, eles combinam minhas memórias e crenças razoavelmente
bem, com a possibilidade de evolução nesse meio tempo. O mesmo vale para
quando encontro pessoas conhecidas ou sobre as quais apenas ouvi falar.
Presumivelmente, os simuladores mantêm um banco de dados com as
informações sobre o mundo que foram resolvidas até o momento, atualizando
essas informações sempre que necessário com o passar do tempo e criando
novos detalhes quando necessário.
Esse tipo de simulação é bastante diferente da simulação em uma matriz
comum. Em uma matriz, o mundo inteiro é simulado de uma só vez. Existem
altos custos de inicialização, mas depois que a simulação estiver em
funcionamento, ela se cuidará. Por outro lado, a matriz local extensível envolve
simulação "just-in-time". Isso tem custos iniciais muito mais baixos, mas requer
muito mais trabalho e criatividade à medida que a simulação evolui.

Essa hipótese é análoga a uma hipótese extensível de criação local sobre a


realidade comum, na qual os criadores criam apenas um ambiente físico local e
o estendem quando necessário. Aqui, a realidade externa existe e muitas
crenças locais são verdadeiras, mas novamente crenças sobre assuntos mais
distantes de casa são falsas. Se combinarmos essa hipótese com a Hipótese
Metafísica, o resultado será a Hipótese da Matriz Local Extensível. Portanto, se
estamos em uma matriz local extensível, a realidade externa ainda existe, mas
não existe muito do que pensávamos. É claro que se eu viajar na direção certa,
mais disso poderá surgir!

A situação é remanescente do The Truman Show. Truman vive em um ambiente


artificial composto por atores e adereços, que se comportam adequadamente
quando ele está por perto, mas que podem ser completamente diferentes quando
ele está ausente. Truman tem muitas crenças verdadeiras sobre seu ambiente
atual; realmente existem mesas e cadeiras na frente dele, e assim por diante.
Mas ele está profundamente enganado sobre coisas fora de seu ambiente atual
e mais longe de casa.

É comum pensar que, enquanto The Truman Show apresenta um cenário cético
perturbador, The Matrix é muito pior. Mas se eu estiver certo, as coisas serão
revertidas. Se eu estou em uma matriz, então a maioria das minhas crenças
sobre o mundo externo é verdadeira. Se estou em algo como The Truman Show
, grande parte das minhas crenças é falsa. Refletindo, parece-me que esta é a
conclusão correta. Se descobríssemos que estávamos (e sempre estivemos) em
uma matriz, isso seria surpreendente, mas rapidamente nos acostumaríamos.
Se descobríssemos que estávamos (e sempre estivemos) no The Truman Show,
podemos ficar loucos.

Hipótese da matriz macroscópica: Estou ligado a uma simulação por computador


de processos físicos macroscópicos sem detalhes microfísicos.

Pode-se imaginar que, para facilitar a simulação, os fabricantes de uma matriz


podem não se importar em simular a física de baixo nível. Em vez disso, eles
podem apenas representar objetos macroscópicos no mundo e suas
propriedades: por exemplo, que exista uma tabela com tal e qual forma, posição
e cor, com um livro sobre ela com determinadas propriedades e assim por diante.
Eles precisarão fazer algum esforço para garantir que esses objetos se
comportem de uma maneira fisicamente razoável e terão que fazer provisões
especiais para lidar com medições microfísicas, mas pode-se imaginar que pelo
menos uma simulação razoável possa ser criada dessa maneira.
Penso que essa hipótese é análoga a uma hipótese do mundo macroscópico:
não há processos microfísicos; em vez disso, objetos físicos macroscópicos
existem como objetos fundamentais no mundo, com propriedades de forma, cor,
posição e assim por diante. Essa é uma maneira coerente de nosso mundo, e
não é uma hipótese cética global, embora possa levar a falsas crenças científicas
sobre níveis mais baixos da realidade. A hipótese da matriz macroscópica pode
ser vista como uma combinação dessa hipótese com uma versão da hipótese
metafísica. Como tal, também não é uma hipótese cética global.

Pode-se também combinar as várias hipóteses acima de várias maneiras,


produzindo hipóteses como uma Nova hipótese de matriz macroscópica local.
Pelas razões usuais, tudo isso pode ser visto como análogo das hipóteses
correspondentes sobre o mundo físico. Portanto, todos eles são compatíveis
com a existência da realidade física, e nenhum é uma hipótese cética global.

A hipótese de Deus: A realidade física é representada na mente de Deus, e


nossos próprios pensamentos e percepções dependem da mente de Deus.

Uma hipótese como essa foi apresentada por George Berkeley como uma visão
sobre como o mundo poderia realmente ser. Berkeley pretendia isso como uma
espécie de hipótese metafísica sobre a natureza da realidade. Muitos outros
filósofos diferiram de Berkeley ao considerá-lo uma espécie de hipótese cética.
Se estou certo, Berkeley está mais perto da verdade. A Hipótese de Deus pode
ser vista como uma versão da Hipótese da matriz, na qual a simulação do mundo
é implementada na mente de Deus. Se isso estiver certo, deveríamos dizer que
os processos físicos realmente existem: é apenas que, no nível mais
fundamental, eles são constituídos por processos na mente de Deus.

Hipótese do gênio do mal: Eu tenho uma mente desencarnada, e um gênio do


mal está me alimentando com informações sensoriais para dar a aparência de
um mundo externo.

Essa é a hipótese cética clássica de René Descartes. O que devemos dizer


sobre isso? Isso depende de como o gênio do mal funciona. Se o gênio do mal
simula um mundo inteiro em sua cabeça para determinar quais contribuições
devo receber, então temos uma versão da hipótese de Deus. Aqui devemos dizer
que a realidade física existe e é constituída por processos dentro do gênio. Se o
gênio do mal está simulando apenas uma pequena parte do mundo físico,
apenas o suficiente para me fornecer informações razoavelmente consistentes,
então temos um análogo da hipótese da matriz local (em suas versões fixas ou
flexíveis). Aqui devemos dizer que apenas uma parte local da realidade externa
existe. Se o gênio do mal não está se preocupando em simular o nível
microfísico, mas apenas o nível macroscópico, temos um análogo da hipótese
da matriz macroscópica. Aqui devemos dizer que existem objetos macroscópicos
externos locais, mas nossas crenças sobre sua natureza microfísica estão
incorretas.
A hipótese do gênio do mal costuma ser considerada uma hipótese cética global.
Mas se o raciocínio acima estiver correto, isso está incorreto. Mesmo se a
hipótese do gênio do mal estiver correta, parte da realidade externa que
aparentemente percebemos realmente existe, embora possamos ter algumas
crenças falsas sobre isso, dependendo dos detalhes. É apenas que essa
realidade externa tem uma natureza subjacente bastante diferente do que
podemos ter pensado.

Hipótese dos sonhos: Estou agora e sempre sonhei.

Descartes levantou a questão: como você sabe que não está sonhando
atualmente? Morfeu levanta uma pergunta semelhante:

Você já teve um sonho, Neo, de ter tanta certeza de que era real? E se você
fosse incapaz de acordar desse sonho? Como você saberia a diferença entre o
mundo dos sonhos e o mundo real?

A hipótese que estou sonhando atualmente é análoga a uma versão da hipótese


recente da matriz. Não posso descartá-lo conclusivamente e, se estiver correto,
muitas das minhas crenças sobre o meu ambiente atual estão incorretas. Mas,
presumivelmente, ainda tenho muitas crenças verdadeiras sobre o mundo
externo, ancoradas no passado.

E se eu sempre estivesse sonhando? Ou seja, e se todas as minhas aparentes


contribuições perceptivas forem geradas pelo meu próprio sistema cognitivo,
sem que eu perceba isso? Penso que este caso é análogo à hipótese do gênio
do mal: é apenas que o papel do "gênio do mal" é desempenhado por uma parte
do meu próprio sistema cognitivo! Se meu sistema de geração de sonhos simula
todo o espaço-tempo, temos algo como a Hipótese Matricial original. Se modelar
apenas meu ambiente local, ou apenas alguns processos macroscópicos,
teremos análogos das versões mais locais da hipótese do gênio do mal acima.
Em qualquer um desses casos, deveríamos dizer que os objetos que estou
percebendo atualmente realmente existem (embora objetos mais distantes de
casa possam não existir). Apenas alguns deles são constituídos por meus
próprios processos cognitivos.

Hipótese do Caos: Eu não recebo contribuições de qualquer lugar do mundo. Em


vez disso, tenho experiências aleatórias sem causa. Por uma enorme
coincidência, são exatamente o tipo de experiências regulares e estruturadas
com as quais estou familiarizado.

A hipótese do caos é uma hipótese extraordinariamente improvável, muito mais


improvável do que qualquer coisa considerada acima. Mas ainda é um que
poderia, em princípio, obter, mesmo que tenha uma probabilidade minúscula. Se
sou caoticamente envolto, os processos físicos são obtidos no mundo externo?
Eu acho que deveríamos dizer que não. Minhas experiências com objetos
externos não são causadas por nada, e o conjunto de experiências associadas
à minha concepção de um determinado objeto não terá uma fonte comum. De
fato, minhas experiências não são causadas por nenhuma realidade externa a
elas. Portanto, essa é uma hipótese cética genuína: se aceita, nos faria rejeitar
a maioria de nossas crenças sobre o mundo externo.

Até agora, o único caso claro de uma hipótese cética global é a Hipótese do
Caos. Ao contrário da hipótese anterior, a aceitação dessa hipótese minaria
todas as nossas crenças substantivas sobre o mundo externo. De onde vem a
diferença?

Indiscutivelmente, o que é crucial é que, na Hipótese do Caos, não há explicação


causal para nossas experiências, e não há explicação para as regularidades em
nossa experiência. Em todos os casos anteriores, há alguma explicação para
essas regularidades, embora talvez não seja a explicação que esperamos. Pode-
se sugerir que, enquanto uma hipótese envolver alguma explicação razoável
para as regularidades em nossa experiência, não será uma hipótese cética
global.

Nesse caso, se tivermos a suposição de que há alguma explicação para as


regularidades em nossa experiência, é seguro dizer que algumas de nossas
crenças sobre o mundo externo estão corretas. Isso não é muito, mas é alguma
coisa!

Nota

* As notas filosóficas deste capítulo podem ser encontradas no site de David


Chalmers: www.consc.net .

parte II

O que eu sou? Livre arbítrio e natureza das pessoas

Trabalhos relacionados

Lua

Programas

Jornada nas Estrelas, A Próxima Geração: Segunda Chance

Mindscan
O Matrix

Diáspora

Visão cega

Cidade da permutação

Pessoas de forno

Os próprios deuses

Jerry era um homem

Nove vidas

Relatório minoritário

Onde estou?

Daniel C. Dennett

Identidade pessoal

Eric Olson

Mentes divididas e a natureza das pessoas

Derek Parfit
9

Quem sou eu? O que eu sou?

Ray Kurzweil

10 Relatório sobre livre arbítrio e determinismo no mundo das minorias Michael


Huemer

11 Trecho de “O Livro da Vida: Um Experimento de Pensamento” Alvin I.


Goldman

Onde estou?

Daniel C. Dennett

Agora que ganhei minha ação sob a Lei da Liberdade de Informação, tenho a
liberdade de revelar pela primeira vez um episódio curioso em minha vida que
pode ser de interesse não apenas para os envolvidos em pesquisas na filosofia
da mente, artificiais. inteligência e neurociência, mas também para o público em
geral.

Vários anos atrás, fui abordado por funcionários do Pentágono que me pediram
para ser voluntário em uma missão altamente perigosa e secreta. Em
colaboração com a NASA e Howard Hughes, o Departamento de Defesa estava
gastando bilhões para desenvolver um Dispositivo Subterrâneo de Túnel
Supersônico, ou STUD. Deveria escavar um túnel através do núcleo da Terra em
grande velocidade e fornecer uma ogiva atômica especialmente projetada
“exatamente nos silos de mísseis do Red”, como dizia um dos soldados do
Pentágono.

O problema era que, em um teste inicial, eles conseguiram lançar uma ogiva a
cerca de um quilômetro de profundidade em Tulsa, Oklahoma, e queriam que eu
a recuperasse para eles. "Por que eu?", Perguntei. Bem, a missão envolveu
algumas aplicações pioneiras da pesquisa atual sobre o cérebro, e eles ouviram
falar do meu interesse em cérebros e, claro, da minha curiosidade faustiana e
grande coragem e assim por diante. ... Bem, como eu poderia recusar? A
dificuldade que trouxe o Pentágono à minha porta foi que o dispositivo que me
pediram para recuperar era ferozmente radioativo, de uma nova maneira. De
acordo com os instrumentos de monitoramento, algo sobre a natureza do
dispositivo e suas complexas interações com bolsas de material nas profundezas
da terra haviam produzido radiação que poderia causar anormalidades graves
em certos tecidos do cérebro. Não foi encontrado nenhum meio de proteger o
cérebro desses raios mortais, aparentemente inofensivos a outros tecidos e
órgãos do corpo. Portanto, foi decidido que a pessoa enviada para recuperar o
dispositivo deveria deixar seu cérebro para trás. Seria mantido em um local
seguro onde pudesse executar suas funções normais de controle através de
elaborados links de rádio. Eu me submeteria a um procedimento cirúrgico que
removeria completamente meu cérebro, que seria então colocado em um
sistema de suporte à vida no Centro de Naves Espaciais Manned em Houston?
Cada via de entrada e saída, como foi cortada, seria restaurada por um par de
transceptores de rádio microminiaturizados, um ligado precisamente ao cérebro,
o outro aos tocos de nervos no crânio vazio. Nenhuma informação seria perdida,
toda a conectividade seria preservada. No começo, fiquei um pouco relutante.
Isso realmente funcionaria? Os cirurgiões do cérebro de Houston me
incentivaram. “Pense nisso”, eles disseram, “como um mero alongamento dos
nervos. Se seu cérebro fosse movido mais de uma polegada em seu crânio, isso
não alteraria ou prejudicaria sua mente. Nós simplesmente vamos tornar os
nervos indefinidamente elásticos, juntando links de rádio neles. ”

Fui apresentado ao laboratório de suporte à vida em Houston e vi o novo tanque


brilhante em que meu cérebro seria colocado, se eu concordasse. Eu conheci a
grande e brilhante equipe de suporte de neurologistas, hematologistas, biofísicos
e engenheiros elétricos, e depois de vários dias de discussões e demonstrações,
concordei em tentar. Fui submetido a uma enorme variedade de exames de
sangue, exames cerebrais, experimentos, entrevistas e similares. Eles anotaram
minha autobiografia extensivamente, registraram listas tediosas de minhas
crenças, esperanças, medos e gostos. Eles até listaram minhas gravações
estéreo favoritas e me deram uma sessão de psicanálise.

Finalmente chegou o dia da cirurgia e, claro, fiquei anestesiada e não me lembro


de nada da operação em si. Quando saí da anestesia, abri os olhos, olhei em
volta e perguntei a inevitável, tradicional e lamentável pergunta pós-operatória:
"Onde estou?" A enfermeira sorriu para mim. "Você está em Houston", disse ela,
e eu refleti que isso ainda tinha uma boa chance de ser verdade de uma maneira
ou de outra. Ela me entregou um espelho. Com certeza, havia as minúsculas
antenas passando por suas portas de titânio cimentadas no meu crânio.

"Acho que a operação foi um sucesso", eu disse, "quero ver meu cérebro". Eles
me levaram (fiquei um pouco tonto e instável) por um longo corredor até o
laboratório de suporte à vida. A equipe de apoio reuniu-se de alegria e eu
respondi com o que esperava ser uma saudação alegre. Ainda me sentindo
tonto, fui ajudado até o tanque de suporte de vida. Eu olhei através do vidro. Lá,
flutuando no que parecia cerveja de gengibre, havia inegavelmente um cérebro
humano, embora estivesse quase coberto de chips de circuito impresso, túbulos
plásticos, eletrodos e outras parafernálias. "Isso é meu?", Perguntei. "Aperte o
interruptor do transmissor de saída no lado do tanque e veja por si mesmo",
respondeu o diretor do projeto. Coloquei a chave na posição OFF e
imediatamente caí, grogue e nauseada, nos braços dos técnicos, um dos quais
gentilmente restaurou a chave na posição ON. Enquanto recuperava meu
equilíbrio e compostura, pensei comigo mesmo: “Bem, aqui estou eu, sentado
em uma cadeira dobrável, olhando através de um pedaço de placa de vidro para
meu próprio cérebro ... Mas espere ”, eu disse a mim mesmo,“ não deveria ter
pensado: 'Aqui estou, suspenso em um fluido borbulhante, sendo encarado por
meus próprios olhos'? ”Tentei pensar neste último pensamento. Tentei projetá-
lo no tanque, oferecendo esperançosamente ao meu cérebro, mas não consegui
realizar o exercício com nenhuma convicção. Eu tentei novamente. “Aqui estou
eu, Daniel Dennett, suspenso em um fluido borbulhante, sendo encarado por
meus próprios olhos.” Não, simplesmente não funcionou. Mais intrigante e
confuso. Sendo um filósofo de firme convicção fisicalista, acreditei inabalável que
o sinal de meus pensamentos estava ocorrendo em algum lugar do meu cérebro:
ainda assim, quando pensei "Aqui estou", onde o pensamento me ocorreu estava
aqui, fora do tanque, onde eu Dennett estava parado olhando meu cérebro.

Eu tentei e tentei me pensar no tanque, mas sem sucesso. Tentei desenvolver a


tarefa fazendo exercícios mentais. Pensei comigo mesmo: “O sol está brilhando
ali” cinco vezes em rápida sucessão, cada vez que ostenta mentalmente um
lugar diferente: em ordem, o canto iluminado pelo sol do laboratório, o gramado
da frente visível do hospital, Houston, Mars e Júpiter. Eu descobri que tinha
pouca dificuldade em fazer com que minhas “piadas” pulassem por todo o mapa
celeste com suas referências apropriadas. Eu poderia elevar um "lá" em um
instante nos confins mais longínquos do espaço, e depois mirar o próximo "lá"
com precisão no quadrante superior esquerdo de uma sarda no meu braço. Por
que eu estava tendo tantos problemas com "aqui"? “Aqui em Houston” funcionou
bem o suficiente, e também “aqui no laboratório” e até “aqui nesta parte do
laboratório”, mas “aqui no barril” sempre pareceu ser apenas uma boca mental
imerecida. Eu tentei fechar os olhos enquanto pensava nisso. Isso pareceu
ajudar, mas ainda não consegui, exceto talvez por um instante fugaz. Eu não
podia ter certeza. A descoberta que eu não podia ter certeza foi tão perturbadora.
Como eu soube onde eu quis dizer "aqui" quando pensei "aqui"? Eu poderia
pensar que quis dizer um lugar quando, na verdade, quis dizer outro? Não vi
como isso poderia ser admitido sem desatar os poucos laços de intimidade entre
uma pessoa e sua própria vida mental que sobreviveram ao ataque dos cientistas
e filósofos do cérebro, dos fisicalistas e comportamentais .... Irritado com a
confusão, tentei me orientar, recaindo no estratagema de um filósofo favorito.
Comecei a nomear coisas.

"Yorick", eu disse em voz alta ao meu cérebro, "você é meu cérebro. O resto do
meu corpo, sentado nesta cadeira, eu chamo de 'Hamlet'. ”Então aqui estamos
todos: Yorick é meu cérebro, Hamlet é meu corpo e eu sou Dennett. Agora onde
eu estou? E quando penso "onde estou?", Onde está esse pensamento? (ou
seja, onde esse pensamento ocorre?). Está marcado no meu cérebro, vagando
no tanque ou bem aqui entre os meus ouvidos, onde parece estar marcado? Ou
em lugar nenhum? Suas coordenadas temporais não me dão problemas; não
deve ter coordenadas espaciais também? Comecei a fazer uma lista das
alternativas.
(1) Para onde Hamlet vai, lá vai Dennett. Esse princípio foi facilmente refutado
pelo apelo aos experimentos familiares de transplante cerebral, tão apreciados
pelos filósofos. Se Tom e Dick trocam de idéia, Tom é o sujeito do corpo anterior
de Dick - basta perguntar; ele afirma ser Tom e conta os detalhes mais íntimos
da autobiografia de Tom. Ficou claro, então, que meu corpo atual e eu
poderíamos nos separar, mas não era provável que pudesse me separar do meu
cérebro. A regra geral que emergiu tão claramente das experiências de
pensamento foi que, em uma operação de transplante de cérebro, alguém queria
ser o doador, não o receptor. Melhor chamar essa operação de transplante de
corpo, de fato. Então talvez a verdade fosse,

(2) Onde Yorick vai, lá vai Dennett. Isso não era nada atraente, no entanto. Como
eu poderia estar no tanque e não ir a lugar algum, quando estava tão obviamente
fora do tanque olhando e começando a fazer planos culpados de voltar ao meu
quarto para um almoço substancial? Isso implorou a pergunta, eu percebi, mas
ainda parecia estar chegando a algo importante. Buscando algum apoio para
minha intuição, encontrei um tipo legal de argumento que poderia ter atraído
Locke.

Suponhamos, argumentei comigo mesmo, que agora voaria para a Califórnia,


assaltaria um banco e seria preso. Em que estado eu seria julgado: na Califórnia,
onde ocorreu o assalto, ou no Texas, onde os cérebros da roupa estavam
localizados? Eu seria um criminoso da Califórnia com um cérebro fora do estado
ou um criminoso do Texas controlando remotamente um tipo de cúmplice na
Califórnia? Parecia possível que eu batesse em tal rap apenas na
indecidibilidade dessa questão jurisdicional, embora talvez fosse considerada
uma ofensa interestadual e, portanto, federal. De qualquer forma, suponha que
fui condenado. Era provável que a Califórnia ficaria satisfeita em jogar Hamlet na
prisão, sabendo que Yorick estava vivendo a boa vida e luxuosamente tomando
as águas do Texas? O Texas encarceraria Yorick, deixando Hamlet livre para
pegar o próximo barco para o Rio? Essa alternativa me atraiu. Exceto a pena
capital ou outras penas cruéis e incomuns, o Estado seria obrigado a manter o
sistema de suporte à vida de Yorick, embora eles pudessem transferi-lo de
Houston para Leavenworth e, além do desagrado do opróbrio, eu, por exemplo,
não o faria. mente e me consideraria um homem livre nessas circunstâncias. Se
o Estado tiver interesse em realocar pessoas em instituições à força, não
conseguiria me realocar em nenhuma instituição localizando Yorick lá. Se isso
fosse verdade, sugeria uma terceira alternativa.

(3) Dennett está onde quer que ele pensa que está. Generalizada, a
reivindicação foi a seguinte: A qualquer momento, uma pessoa tem um ponto de
vista, e o local do ponto de vista (que é determinado internamente pelo conteúdo
do ponto de vista) também é o local da pessoa.

Tal proposição não está isenta de perplexidades, mas para mim parecia um
passo na direção certa. O único problema era que parecia colocar alguém em
uma situação de infalibilidade improvável no que diz respeito à localização. Eu
próprio não tinha me enganado com frequência sobre onde estava e, pelo menos
com a mesma frequência, incerto? Ninguém poderia se perder? Claro, mas se
perder geograficamente não é a única maneira de se perder. Se alguém
estivesse perdido na floresta, poderia tentar se tranquilizar com o consolo de que
pelo menos alguém sabia onde estava: estava aqui no ambiente familiar do
próprio corpo. Talvez, nesse caso, não se deva chamar muita atenção para
agradecer. Ainda assim, havia piores situações imagináveis, e eu não tinha
certeza se não estava em uma situação tão difícil agora.

O ponto de vista claramente tinha algo a ver com a localização pessoal, mas era
uma noção pouco clara. Era óbvio que o conteúdo do ponto de vista de alguém
não era o mesmo ou determinado pelo conteúdo de suas crenças ou
pensamentos. Por exemplo, o que devemos dizer sobre o ponto de vista do
espectador Cinerama que grita e torce em seu assento enquanto as imagens da
montanha-russa superam seu distanciamento psíquico? Ele esqueceu que está
sentado em segurança no teatro? Aqui eu estava inclinado a dizer que a pessoa
está passando por uma mudança ilusória no ponto de vista. Em outros casos,
minha inclinação para chamar essas mudanças de ilusórias era menos forte. Os
trabalhadores de laboratórios e fábricas que lidam com materiais perigosos
operando braços e mãos mecânicos controlados por feedback sofrem uma
mudança de visão mais nítida e mais pronunciada do que qualquer coisa que o
Cinerama possa provocar. Eles podem sentir o peso e a escorregadia dos
recipientes que manipulam com os dedos de metal. Eles sabem perfeitamente
bem onde estão e não são enganados por falsas crenças pela experiência, mas
é como se estivessem dentro da câmara de isolamento em que estão olhando.
Com esforço mental, eles conseguem mudar o seu ponto de vista para frente e
para trás, como fazer um cubo de Neckar transparente ou um desenho de Escher
mudando de orientação diante dos olhos. Parece extravagante supor que, ao
realizar esse tipo de ginástica mental, eles estão se transportando para frente e
para trás.

Ainda assim, o exemplo deles me deu esperança. Se eu estivesse de fato no


tanque, apesar de minhas intuições, talvez eu pudesse me treinar a adotar esse
ponto de vista, mesmo como uma questão de hábito. Eu deveria me debruçar
sobre imagens de mim mesma flutuando confortavelmente no meu tanque,
irradiando volições para aquele corpo familiar lá fora. Eu refleti que a facilidade
ou dificuldade dessa tarefa era presumivelmente independente da verdade sobre
a localização do cérebro. Se eu estivesse praticando antes da operação, poderia
estar achando uma segunda natureza. Agora você mesmo pode tentar uma
corrida dessas. Imagine que você escreveu uma carta inflamatória publicada no
Times, cujo resultado é que o governo optou por apreender seu cérebro por um
período probatório de três anos em sua Clínica de Cérebro Perigoso em
Bethesda, Maryland. É claro que seu corpo tem liberdade para ganhar um salário
e, assim, continuar sua função de estabelecer renda a ser tributada. Nesse
momento, no entanto, seu corpo está sentado em um auditório, ouvindo Daniel
Dennett, um relato peculiar de sua própria experiência semelhante. Tente. Pense
em Bethesda e volte ao seu corpo com saudade, longe e ainda parecendo tão
próximo. É apenas com restrição de longa distância (sua? Do governo?) Que
você pode controlar seu impulso de bater palmas com aplausos educados antes
de levar o corpo antigo para o banheiro e um merecido copo de xerez no salão .
A tarefa da imaginação é certamente difícil, mas se você atingir seu objetivo, os
resultados poderão ser consoladores.

Enfim, lá estava eu, em Houston, perdido em pensamentos, como se poderia


dizer, mas não por muito tempo. Minhas especulações foram logo interrompidas
pelos médicos de Houston, que desejavam testar meu novo sistema nervoso
protético antes de me enviar para a minha perigosa missão. Como mencionei
antes, fiquei um pouco tonto no início, e não surpreendentemente, embora logo
me acostumei às minhas novas circunstâncias (que eram, afinal, quase
indistinguíveis das minhas circunstâncias anteriores). Minha acomodação não
era perfeita, no entanto, e até hoje continuo sendo atormentado por pequenas
dificuldades de coordenação. A velocidade da luz é rápida, mas finita, e à medida
que meu cérebro e meu corpo se afastam cada vez mais, a delicada interação
dos meus sistemas de feedback é lançada em desordem com o tempo. Assim
como alguém fica quase sem fala por uma audição atrasada ou ecológica da voz
que está falando, por exemplo, sou virtualmente incapaz de rastrear um objeto
em movimento com meus olhos sempre que meu cérebro e meu corpo estão a
mais de alguns quilômetros de distância. Na maioria dos casos, meu
comprometimento é dificilmente detectável, embora eu não consiga mais acertar
uma bola curva lenta com a autoridade de outrora. Existem algumas
compensações, é claro. Embora as bebidas tenham um sabor tão bom como
sempre e aqueçam meu esófago enquanto corroem meu fígado, eu posso tomá-
lo em qualquer quantidade que quiser, sem ficar nem um pouco embriagado,
uma curiosidade que alguns de meus amigos íntimos podem ter notado (embora
eu ocasionalmente tenha fingido embriaguez, para não chamar a atenção para
minhas circunstâncias incomuns). Por razões semelhantes, tomo aspirina por via
oral para um pulso torcido, mas se a dor persistir, peço a Houston que me
administre codeína in vitro. Em tempos de doença, a conta telefônica pode ser
impressionante.

Mas voltando à minha aventura. Por fim, tanto os médicos quanto eu ficamos
satisfeitos por estar pronto para realizar minha missão subterrânea. Então deixei
meu cérebro em Houston e fui de helicóptero para Tulsa. Bem, de qualquer
forma, foi o que me pareceu. É assim que eu diria, no topo da minha cabeça, por
assim dizer. Na viagem, refleti mais sobre minhas ansiedades anteriores e decidi
que minhas primeiras especulações pós-operatórias haviam sido tingidas de
pânico. O assunto não era tão estranho ou metafísico como eu supunha. Onde
eu estava? Em dois lugares, claramente: dentro e fora do tanque. Assim como
alguém pode ficar com um pé em Connecticut e o outro em Rhode Island, eu
estava em dois lugares ao mesmo tempo. Eu me tornei uma daquelas pessoas
dispersas que costumávamos ouvir muito. Quanto mais eu considerava essa
resposta, mais obviamente era verdade. Mas, estranho dizer, quanto mais
verdadeiro parecia, menos importante parecia a pergunta à qual poderia ser a
resposta verdadeira. Um destino triste, mas sem precedentes, para uma questão
filosófica sofrer. Esta resposta não me satisfez completamente, é claro. Havia
uma pergunta para a qual eu deveria ter gostado de uma resposta, que não era
“Onde estão todas as minhas partes diversas?” Ou “Qual é o meu ponto de vista
atual?” Ou pelo menos parecia haver essa pergunta. Pois parecia inegável que,
em certo sentido / e não apenas a maioria de mim estava descendo à terra sob
Tulsa em busca de uma ogiva atômica.

Quando encontrei a ogiva, fiquei certamente feliz por ter deixado meu cérebro
para trás, pois o ponteiro no contador Geiger especialmente construído que eu
trouxera comigo estava fora do mostrador. Liguei para Houston no meu rádio
comum e contei ao centro de controle da operação minha posição e meu
progresso. Em troca, eles me deram instruções para desmontar o veículo, com
base nas minhas observações no local. Eu tinha começado a trabalhar com
minha tocha quando, de repente, aconteceu uma coisa terrível. Eu fiquei surdo
de pedra. No começo, pensei que eram apenas meus fones de ouvido de rádio
que haviam quebrado, mas quando bati no capacete, não ouvi nada.
Aparentemente, os transceptores auditivos haviam sido afetados. Eu não
conseguia mais ouvir Houston ou minha própria voz, mas podia falar, então
comecei a contar o que havia acontecido. No meio da frase, eu sabia que algo
havia dado errado. Meu aparelho vocal ficou paralisado. Então minha mão direita
ficou mole - outro transceptor se foi. Eu estava realmente em apuros. Mas o pior
era seguir. Depois de mais alguns minutos, fiquei cego. Amaldiçoei minha sorte
e depois amaldiçoei os cientistas que me levaram a esse grave perigo. Lá estava
eu, surdo, burro e cego, em um buraco radioativo a mais de um quilômetro e
meio de Tulsa. Então, o último dos meus links de rádio cerebrais quebrou e, de
repente, me deparei com um problema novo e ainda mais chocante: enquanto
um instante antes de eu ter sido enterrado vivo em Oklahoma, agora estava
desencarnado em Houston. Meu reconhecimento do meu novo status não foi
imediato. Levei vários minutos muito ansiosos antes de me dar conta de que meu
pobre corpo estava a centenas de quilômetros de distância, com o coração
pulsando e os pulmões respirando, mas por outro lado tão morto quanto o corpo
de qualquer doador de transplante de coração, o crânio repleto de eletrônicos
inúteis e quebrados. engrenagem. A mudança de perspectiva que eu havia
achado quase impossível agora parecia bastante natural. Embora eu pudesse
me imaginar de volta ao meu corpo no túnel sob Tulsa, foi preciso algum esforço
para sustentar a ilusão. Pois certamente era uma ilusão supor que eu ainda
estivesse em Oklahoma: eu havia perdido todo o contato com esse corpo.

Ocorreu-me então, com uma daquelas pressas de revelação das quais


deveríamos suspeitar, que me deparei com uma demonstração impressionante
da imaterialidade da alma baseada em princípios e premissas fisicalistas. Pois
quando o último sinal de rádio entre Tulsa e Houston desapareceu, eu não havia
mudado de local de Tulsa para Houston na velocidade da luz? E eu não havia
conseguido isso sem aumento de massa? O que mudou de A para B a tal
velocidade foi certamente eu mesmo, ou de qualquer forma minha alma ou
mente - o centro sem massa do meu ser e o lar da minha consciência. Meu ponto
de vista estava um pouco atrasado, mas eu já havia notado a posição indireta do
ponto de vista na localização pessoal. Eu não conseguia ver como um filósofo
fisicalista poderia brigar com isso, exceto tomando o caminho terrível e contra-
intuitivo de banir toda conversa sobre pessoas. No entanto, a noção de pessoa
estava tão arraigada na visão de mundo de todos, ou pelo menos me pareceu,
que qualquer negação seria tão curiosamente pouco convincente, como
sistematicamente dissimulada, como a negação cartesiana, "não soma" [eu não
existo].

Assim, a alegria da descoberta filosófica me levou por alguns minutos ou talvez


horas muito ruins, à medida que o desamparo e a desesperança da minha
situação se tornaram mais aparentes para mim. Ondas de pânico e até náusea
varreram-me, tornadas ainda mais horríveis pela ausência de sua fenomenologia
normal, dependente do corpo. Sem adrenalina, formigamento nos braços,
coração acelerado, salivação premonitória. Senti uma sensação terrível de
afundamento em minhas entranhas em um ponto, e isso me levou
momentaneamente à falsa esperança de que eu estava passando por uma
reversão do processo que me levou a esse conserto - uma indecisão gradual.
Mas o isolamento e a singularidade dessa pontada logo me convenceram de que
era simplesmente a primeira de uma praga de alucinações de corpos fantasmas
que eu, como qualquer outro amputado, provavelmente sofreria.

Meu humor então era caótico. Por um lado, fiquei entusiasmado com a alegria
de minha descoberta filosófica e estava destruindo meu cérebro (uma das
poucas coisas familiares que ainda podia fazer), tentando descobrir como
comunicar minha descoberta às revistas; enquanto, por outro lado, eu era
amargo, solitário e cheio de pavor e incerteza. Felizmente, isso não durou muito,
pois minha equipe de suporte técnico me sedou em um sono sem sonhos, do
qual acordei, ouvindo com magnífica fidelidade as conhecidas faixas de abertura
do meu trio de piano favorito de Brahms. Por isso, eles queriam uma lista das
minhas gravações favoritas! Não demorou muito tempo para perceber que
estava ouvindo a música sem ouvidos. A saída da caneta estéreo estava sendo
alimentada através de um circuito de retificação sofisticado diretamente no meu
nervo auditivo. Eu estava dirigindo Brahms, uma experiência inesquecível para
qualquer fã de estéreo. No final do registro, não me surpreendeu ouvir a voz
tranquilizadora do diretor do projeto falando em um microfone que agora era meu
ouvido protético. Ele confirmou minha análise do que havia dado errado e me
garantiu que estavam sendo tomadas medidas para me refazer. Ele não deu
mais detalhes e, depois de mais algumas gravações, eu me peguei
adormecendo. Meu sono durou, aprendi mais tarde, durante quase um ano e,
quando acordei, era para me encontrar totalmente restaurado aos meus
sentidos. Quando olhei no espelho, fiquei um pouco assustada ao ver um rosto
desconhecido. Barbudo e um pouco mais pesado, sem dúvida uma semelhança
familiar com o meu rosto anterior, e com o mesmo olhar de inteligência e caráter
resoluto, mas definitivamente um rosto novo. Outras auto-explorações de
natureza íntima não me deixaram dúvida de que esse era um novo órgão e o
diretor do projeto confirmou minhas conclusões. Ele não ofereceu nenhuma
informação sobre a história passada do meu novo corpo e eu decidi (sabiamente,
penso em retrospecto) não bisbilhotar. Como muitos filósofos não familiarizados
com minha provação especularam mais recentemente, a aquisição de um novo
corpo deixa a pessoa intacta. E após um período de adaptação a uma nova voz,
novas forças e fraquezas musculares, e assim por diante, a personalidade de
uma pessoa também é, em geral, preservada. Mudanças mais dramáticas na
personalidade têm sido rotineiramente observadas em pessoas submetidas a
extensas cirurgias plásticas, para não falar de operações de mudança de sexo,
e acho que ninguém contesta a sobrevivência da pessoa nesses casos. De
qualquer forma, logo me acomodei em meu novo corpo, a ponto de não
conseguir recuperar nenhuma de suas novidades para minha consciência ou até
para minha memória. A vista no espelho logo se tornou totalmente familiar. A
propósito, essa visão ainda revelava antenas e, portanto, não fiquei surpreso ao
saber que meu cérebro não havia sido movido de seu paraíso no laboratório de
suporte à vida.

Decidi que o bom e velho Yorick merecia uma visita. Eu e meu novo corpo, a
quem poderíamos chamar Fortinbras, entrou no laboratório familiar para mais
uma salva de palmas dos técnicos, que obviamente estavam se parabenizando,
não eu. Mais uma vez fiquei diante do tanque e contemplei o pobre Yorick, e por
um capricho, mais uma vez, despreocupadamente, desliguei o interruptor do
transmissor de saída. Imagine minha surpresa quando nada de anormal
aconteceu. Nenhum desmaio, nenhuma náusea, nenhuma mudança perceptível.
Um técnico correu para restaurar o interruptor para ON, mas ainda não senti
nada. Eu exigi uma explicação, que o diretor do projeto se apressou em fornecer.
Parece que antes mesmo de operarem na primeira ocasião, eles construíram
uma duplicata de computador do meu cérebro, reproduzindo a estrutura
completa do processamento de informações e a velocidade computacional do
meu cérebro em um programa de computador gigante. Após a operação, mas
antes que ousassem me enviar para a minha missão em Oklahoma, eles
administravam esse sistema de computador e Yorick lado a lado. Os sinais
recebidos de Hamlet foram enviados simultaneamente aos transceptores de
Yorick e ao conjunto de entradas do computador. E as saídas de Yorick não
foram apenas transmitidas de volta para Hamlet, meu corpo; eles foram gravados
e comparados com a saída simultânea do programa de computador, que foi
chamado de "Hubert" por razões obscuras para mim. Durante dias e até
semanas, os resultados foram idênticos e síncronos, o que obviamente não
provou que eles conseguiram copiar a estrutura funcional do cérebro, mas o
apoio empírico foi muito encorajador.

A contribuição de Hubert e, portanto, a atividade, foram mantidas paralelas à de


Yorick durante meus dias sem corpo. E agora, para demonstrar isso, eles
realmente acionaram o interruptor principal que colocou Hubert pela primeira vez
no controle on-line do meu corpo - não Hamlet, é claro, mas Fortinbras. (Hamlet,
eu aprendi, nunca havia sido recuperado de sua tumba subterrânea e, naquele
momento, podia-se supor que ele tivesse retornado amplamente ao pó. Na
cabeceira da minha sepultura ainda havia a magnífica massa do dispositivo
abandonado, com a palavra STUD estampada em letras grandes - uma
circunstância que pode fornecer aos arqueólogos do próximo século uma curiosa
visão dos ritos funerários de seus ancestrais.)

Os técnicos do laboratório me mostraram o interruptor principal, que tinha duas


posições, rotuladas como B, para o cérebro (não sabiam que o nome do meu
cérebro era Yorick) e H, para Hubert. O interruptor realmente apontou para H, e
eles me explicaram que, se eu quisesse, poderia voltar para B. Com o coração
na boca (e o cérebro no tanque), fiz isso. Nada aconteceu. Um clique, isso foi
tudo. Para testar sua afirmação, e com o interruptor principal agora ajustado em
B, apertei o interruptor do transmissor de saída de Yorick no tanque e, com
certeza, comecei a desmaiar. Depois que o interruptor de saída foi ligado
novamente e eu recuperei o juízo, por assim dizer, continuei a tocar no interruptor
principal, girando-o para frente e para trás. Descobri que, com exceção do clique
de transição, não conseguia detectar nenhum traço de diferença. Eu pude mudar
no meio do enunciado, e a frase que eu começara a falar sob o controle de Yorick
terminou sem uma pausa ou dificuldade de qualquer espécie sob o controle de
Hubert. Eu tinha um cérebro sobressalente, um dispositivo protético que algum
dia poderia me manter em muito bom estado, foram alguns contratempos que
aconteceram com Yorick. Ou, alternativamente, eu poderia manter Yorick como
um substituto e usar Hubert. Não pareceu fazer a diferença que eu escolhi, pois
o desgaste e o cansaço do meu corpo não tiveram nenhum efeito debilitante no
cérebro, independentemente de estar ou não causando os movimentos do meu
corpo, ou simplesmente derramando seu corpo. saída no ar.

O único aspecto realmente inquietante desse novo desenvolvimento foi a


perspectiva que não demorou muito para mim, de alguém separando o
sobressalente - Hubert ou Yorick, conforme o caso - da Fortinbras e atrelando-o
a outro corpo - alguns Johnny- ultimamente Rosencrantz ou Guildenstern. Então
(se não antes) haveria duas pessoas, isso estava claro. Um seria eu e o outro
seria uma espécie de irmão super gêmeo. Se houvesse dois corpos, um sob o
controle de Hubert e o outro sendo controlado por Yorick, então o que o mundo
reconheceria como o verdadeiro Dennett? E o que o resto do mundo decidiu,
qual seria eu ? Eu seria o cérebro de Yorick, em virtude da prioridade causal de
Yorick e do antigo relacionamento íntimo com o corpo original de Dennett,
Hamlet? Isso parecia um pouco legalista, um pouco excessivo da arbitrariedade
da consanguinidade e da posse legal, para ser convincente no nível metafísico.
Pois, suponha que, antes da chegada do segundo corpo em cena, eu mantivesse
Yorick como reposição por anos e deixasse a produção de Hubert dirigir meu
corpo - ou seja, Fortinbras - durante todo esse tempo. O casal Hubert-Fortinbras
pareceria, então, pelos direitos de posseiros (combater uma intuição legal por
outra) que eram verdadeiros para Dennett e o legítimo herdeiro de tudo o que
era de Dennett. Essa era uma pergunta interessante, certamente, mas não tão
urgente quanto outra que me incomodava. Minha intuição mais forte era que, em
tal eventualidade, eu sobreviveria enquanto qualquer casal cérebro-corpo
permanecesse intacto, mas eu tinha emoções contraditórias sobre se queria que
ambos sobrevivessem.

Discuti minhas preocupações com os técnicos e o diretor do projeto. A


perspectiva de dois Dennetts era abominável para mim. Eu expliquei,
principalmente por razões sociais. Não queria ser meu próprio rival pelos afetos
de minha esposa, nem gostava da perspectiva dos dois Dennetts dividindo o
salário do meu modesto professor. Ainda mais vertiginosa e desagradável,
porém, era a idéia de saber muito sobre outra pessoa, enquanto ele tinha os
mesmos bens em mim. Como poderíamos nos enfrentar? Meus colegas do
laboratório argumentaram que eu estava ignorando o lado positivo da questão.
Não havia muitas coisas que eu queria fazer, mas, sendo apenas uma pessoa,
tinha sido incapaz de fazer? Agora, um Dennett poderia ficar em casa e ser o
professor e o homem da família, enquanto o outro poderia começar uma vida de
viagens e aventuras - sentindo falta da família, é claro, mas feliz em saber que o
outro Dennett mantinha os incêndios em casa acesos. . Eu poderia ser fiel e
adúltero ao mesmo tempo. Eu poderia até me enganar - para não falar de outras
possibilidades mais escandalosas, meus colegas estavam prontos demais para
forçar minha imaginação sobrecarregada. Mas minha provação em Oklahoma
(ou era Houston?) Me deixou menos aventureira, e eu me esquivei dessa
oportunidade que estava sendo oferecida (embora, é claro, eu nunca tivesse
certeza de que isso estava sendo oferecido a mim em primeiro lugar).

Havia outra perspectiva ainda mais desagradável - que o sobressalente, Hubert


ou Yorick, conforme o caso, fosse destacado de qualquer contribuição da
Fortinbras e deixado à esquerda. Então, como no outro caso, haveria dois
Dennetts, ou pelo menos dois reclamantes em meu nome e posses, um
encarnado em Fortinbras e o outro tristemente, miseravelmente desencarnado.
Tanto o egoísmo quanto o altruísmo me ordenaram a tomar medidas para
impedir que isso acontecesse. Por isso, pedi que fossem tomadas medidas para
garantir que ninguém jamais pudesse adulterar as conexões do transceptor ou o
comutador mestre sem o meu (nosso? Não, meu) conhecimento e
consentimento. Como não queria passar minha vida protegendo meu
equipamento em Houston, foi decidido mutuamente que todas as conexões
eletrônicas no laboratório seriam cuidadosamente trancadas: tanto as que
controlavam o sistema de suporte de vida de Yorick quanto as que controlavam
a fonte de alimentação pois Hubert seria protegido com dispositivos à prova de
falhas e eu levaria o único interruptor principal, equipado para controle remoto
via rádio, aonde quer que eu fosse. Eu o carrego amarrado em volta da minha
cintura e - espere um momento - aqui está. A cada poucos meses, reconheço a
situação trocando de canal. Eu faço isso apenas na presença de amigos, é claro,
pois se o outro canal estivesse, céu proibido, morto ou ocupado de outra forma,
haveria alguém que tivesse meus interesses no coração para mudar de volta,
para me trazer de volta de o vazio. Pois enquanto eu pudesse sentir, ver, ouvir
e sentir o que acontecesse com meu corpo, depois de tal mudança, eu seria
incapaz de controlá-lo. A propósito, as duas posições no comutador são
intencionalmente desmarcadas, por isso nunca tenho a menor idéia se estou
mudando de Hubert para Yorick ou vice-versa. (Alguns de vocês podem pensar
que, neste caso, eu realmente não sei quem eu sou, muito menos onde estou.
Mas essas reflexões não causam muito impacto na minha Dennettness
essencial, no meu próprio senso de quem eu sou. Se é verdade que, em certo
sentido, eu não sei quem eu sou, essa é mais uma das suas verdades filosóficas
de significado avassalador.)

De qualquer forma, toda vez que eu lancei o interruptor até agora, nada
aconteceu. Então, vamos tentar ....

"GRAÇAS A DEUS! Eu pensei que você nunca iria virar esse interruptor! Você
não pode imaginar o quão horrível tem sido nessas duas últimas semanas - mas
agora você sabe, é a sua vez no purgatório. Como eu ansiava por esse
momento! Veja, cerca de duas semanas atrás - com licença, senhoras e
senhores, mas eu tenho que explicar isso ao meu ... hum, irmão, acho que você
poderia dizer, mas ele acabou de lhe contar os fatos, então você Entenda - cerca
de duas semanas atrás, nossos dois cérebros estavam um pouco fora de
sincronia. Não sei se meu cérebro agora é Hubert ou Yorick, assim como você,
mas, de qualquer forma, os dois cérebros se separaram e, é claro, depois que o
processo começou, ele nevou, pois eu estava em um receptivo um pouco
diferente estado para a entrada que ambos recebemos, uma diferença que logo
foi ampliada. Em pouco tempo, toda a ilusão de que eu estava no controle do
meu corpo - nosso corpo - foi completamente dissipada. Não havia nada que eu
pudesse fazer - nenhuma maneira de ligar para você. Você nem sabia que eu
existia! Tem sido como ser carregado em uma gaiola, ou melhor, como estar
possuído - ouvir minha própria voz dizer coisas que eu não queria dizer,
observando frustrado enquanto minhas próprias mãos realizavam atos que eu
não pretendia. Você coçava nossas coceiras, mas não do jeito que eu faria, e
você me manteve acordado, com suas sacudidas e reviravoltas. Fiquei
totalmente exausto, à beira de um colapso nervoso, levado impotente por sua
frenética rodada de atividades, sustentado apenas pelo conhecimento de que
algum dia você ativaria o interruptor.

“Agora é sua vez, mas pelo menos você terá o conforto de saber que eu sei que
você está lá. Como uma mãe grávida, estou comendo - ou pelo menos provando,
cheirando, vendo - por dois agora, e tentarei facilitar as coisas para você. Não
se preocupe. Assim que este colóquio terminar, você e eu vamos voar para
Houston e veremos o que pode ser feito para conseguir um de nós para outro
corpo. Você pode ter um corpo feminino - seu corpo pode ter qualquer cor que
você quiser. Mas vamos pensar sobre isso. Eu digo a você o que - para ser justo,
se nós dois queremos esse corpo, prometo que deixarei o diretor do projeto jogar
uma moeda para acertar qual de nós deve mantê-lo e qual escolherá um novo
corpo. Isso deve garantir justiça, não deveria? De qualquer forma, eu cuidarei de
você, prometo. Essas pessoas são minhas testemunhas.

“Senhoras e senhores, essa conversa que acabamos de ouvir não é exatamente


a que eu daria, mas garanto que tudo o que ele disse foi perfeitamente
verdadeiro. E agora, se você me der licença, acho melhor eu nos sentarmos. ” 1

Nota

1. Qualquer pessoa familiarizada com a literatura sobre este tópico reconhecerá


que minhas observações devem muito às explorações de Sydney Shoemaker,
John Perry, David Lewis e Derek Parfit e, em particular, a seus artigos em Amelie
Rorty, ed., The Identities das Pessoas, 1976.

Identidade pessoal

Eric Olson

A identidade pessoal lida com questões filosóficas que surgem sobre nós
mesmos em virtude de sermos pessoas (ou, como advogados e filósofos gostam
de dizer, pessoas). Isso contrasta com questões sobre nós mesmos que surgem
em virtude de sermos seres vivos, seres conscientes, objetos materiais ou
similares. Muitas dessas perguntas ocorrem para quase todos nós de vez em
quando: O que sou eu? Quando eu comecei? O que acontecerá comigo quando
eu morrer? Outros são mais obscuros. A identidade pessoal tem sido discutida
desde as origens da filosofia ocidental, e a maioria das figuras importantes tem
algo a dizer sobre isso. (Também há uma rica literatura sobre o tema na filosofia
oriental, que não tenho competência para discutir; Collins 1982 e Jinpa 2002 são
fontes úteis.)

Às vezes, a identidade pessoal é discutida sob o termo proteano self. E 'eu' às


vezes significa 'pessoa'. Mas muitas vezes significa algo diferente: algum tipo de
sujeito imaterial da consciência, por exemplo (como na frase "o mito do eu"). O
termo é frequentemente usado sem qualquer significado claro. Este [capítulo] irá
evitá-lo.

Primeiro, examinaremos as principais questões de identidade pessoal. A maior


parte do [capítulo] se concentrará no que recebeu mais atenção nos últimos
tempos, a saber, nossa persistência ao longo do tempo.

1. Os problemas de identidade pessoal

Não existe um problema único de identidade pessoal, mas uma ampla gama de
perguntas que são, na melhor das hipóteses, pouco conectadas. Aqui estão os
mais familiares:

Quem sou eu? Fora da filosofia, "identidade pessoal" geralmente se refere a


certas propriedades às quais uma pessoa sente um sentimento especial de
apego ou propriedade. A identidade pessoal de alguém nesse sentido consiste
nas características que ela utiliza para "defini-la como pessoa" ou "torná-la a
pessoa que ela é". (O significado exato dessas frases é difícil de definir.) Pode
ser, por exemplo, que ser filósofo e música amorosa pertençam à minha
identidade, enquanto ser homem e morar em Yorkshire não. Outra pessoa
poderia ter as mesmas quatro propriedades, mas sentir-se diferente em relação
a elas, de modo que ser homem e morar em Yorkshire pertence à sua identidade,
mas não é um filósofo ou uma música amorosa. Também pode ser possível que
uma propriedade pertença à identidade de alguém sem que ela realmente a
possua: se eu me convencer de que sou Napoleão, ser imperador pode ser uma
das propriedades centrais da maneira como me defino e, portanto, um elemento
de minha identidade, mesmo que minha crença seja falsa. A identidade pessoal
de alguém nesse sentido é contingente e mutável: propriedades diferentes
podem ter pertencido à maneira como se define como pessoa, e quais são essas
propriedades que podem mudar ao longo do tempo. Contrasta com a identidade
étnica ou nacional, que consiste basicamente no grupo étnico ou na nação em
que alguém se considera pertencer e na importância que se atribui a isso.
(Ludwig 1997 é uma discussão típica desse tópico.)
Personhood. O que é ser uma pessoa? O que é necessário e o suficiente para
que algo conte como pessoa, em oposição a não-pessoa? O que as pessoas
têm que as pessoas não têm? Mais especificamente, podemos perguntar em
que momento do desenvolvimento de um óvulo fertilizado se torna uma pessoa
ou o que seria necessário para um chimpanzé, marciano ou computador
eletrônico, se é que poderia ser. Um relato ideal da personalidade seria uma
definição da palavra pessoa, sob a forma 'Necessariamente, x é uma pessoa no
momento t se e somente se ... x ... t ...', com os espaços em branco
adequadamente preenchidos A resposta mais comum é que ser uma pessoa de
cada vez é ter certas propriedades mentais especiais (por exemplo, Baker 2000:
cap. 3). Outros propõem uma conexão menos direta entre personalidade e
propriedades mentais (Chisholm 1976: 136f., Wiggins 1980: cap. 6).

Persistência. O que é preciso para uma pessoa persistir de uma vez para outra
- continuar existindo em vez de deixar de existir? Que tipo de aventura é possível,
no sentido mais amplo da palavra "possível", para você sobreviver, e que tipo de
evento necessariamente traria sua existência ao fim? O que determina qual ser
passado ou futuro é você? Suponha que você aponte para uma criança em uma
fotografia antiga e diga: “Esse sou eu.” O que faz de você aquela pessoa, e não
uma das outras? O que há com o modo como ela se relaciona com você como
você é agora que faz dela você? Por falar nisso, o que torna o caso de alguém
que existia naquela época é você? Isso às vezes é chamado de questão de
identidade pessoal ao longo do tempo. Uma resposta para isso é um relato de
nossas condições de persistência.

Historicamente, essa questão geralmente surge da esperança (ou medo) de que


possamos continuar a existir depois que morrermos (como no Fédon de Platão).
Se isso pode acontecer depende se a morte biológica necessariamente leva ao
fim da existência. Imagine que após a sua morte realmente haverá alguém, neste
mundo ou no próximo, que se assemelha a você de certas maneiras. Como esse
ser tem que se relacionar com você como você é agora, a fim de ser você, e não
outra pessoa? O que os Poderes Superiores teriam que fazer para mantê-lo em
existência após sua morte? Ou há algo que eles possam fazer? A resposta a
essas perguntas depende da resposta à questão da persistência.

Evidência. Como descobrimos quem é quem? Que evidência tem a questão de


saber se a pessoa aqui agora é a pessoa que esteve aqui ontem? Uma fonte de
evidência é a memória da primeira pessoa: se você se lembra de fazer alguma
ação específica, ou pelo menos parece se lembrar, e alguém realmente fez isso,
isso apóia a alegação de que essa pessoa é você. Outra fonte é a continuidade
física: se a pessoa que fez isso se parece com você, ou melhor ainda, se ela é,
de algum modo, física ou espacialmente temporariamente com você, isso
também é motivo para pensar que ela é você. Qual dessas fontes é mais
fundamental? A memória da primeira pessoa conta como evidência por si só, por
exemplo, ou apenas na medida em que podemos compará-la com fatos físicos
disponíveis ao público? O que devemos fazer quando eles apóiam veredictos
opostos? Suponha que as memórias de Charlie sejam apagadas e substituídas
por memórias precisas (ou aparentes) da vida de alguém há muito morto -
digamos Guy Fawkes (Williams 1956-7). Deveríamos concluir, com base em
evidências de memória, que a pessoa resultante não é Charlie, mas Guy Fawkes
ressuscitou, ou deveríamos inferir, pela ausência de continuidade física, que ele
é simplesmente Charlie com perda de memória? Que princípio responderia a
essa pergunta?

A questão da evidência dominou a literatura sobre identidade pessoal das


décadas de 1950 a 1970 (bons exemplos incluem Shoemaker 1963, 1970 e
Penelhum 1967, 1970). É importante distingui-lo da questão da persistência. O
que é preciso para você persistir ao longo do tempo é uma coisa; como podemos
descobrir se você tem outro. Se o criminoso tiver impressões digitais como a sua,
os tribunais podem concluir que ele é você. Mas mesmo que seja uma evidência
conclusiva, ter suas impressões digitais não é o que é para ser um passado ou
um futuro: você não é necessário (você pode sobreviver sem nenhum dedo) nem
suficiente (alguém pode ter impressões digitais exatamente como Sua).

População. Se a questão da persistência perguntar quais dos personagens


introduzidos no início de uma história sobreviveram para se tornar aqueles no
final dela, também podemos perguntar quantos estão no palco a qualquer
momento. O que determina quantos de nós existem agora? Se atualmente
existem cerca de sete bilhões de pessoas na Terra, que fatos - biológicos,
psicológicos ou o que você tem - tornam esse o número certo? A questão não é
o que faz com que haja um certo número de pessoas em um determinado
momento, mas em que consiste esse número. É como perguntar em que tipo de
configuração de peças se trata de ganhar um jogo de xadrez, e não de que tipo
movimentos normalmente levam à vitória.

Você pode pensar que o número de pessoas em um determinado momento é


simplesmente o número de organismos humanos existentes (talvez
desconsiderando aqueles em um estado defeituoso que não contam como
pessoas e ignorando pessoas não humanas, se houver). Mas isso é contestado.
Alguns dizem que o corte das principais conexões entre os hemisférios cerebrais
resulta em desunião radical da consciência, e que, por isso, duas pessoas
compartilham um único organismo (ver, por exemplo, Nagel 1971; Puccetti 1973
argumenta que existem duas pessoas na pele de cada normal). ser humano).
Outros dizem que um ser humano com personalidade dividida poderia
literalmente ser o lar de dois ou mais seres pensantes (Wilkes 1988: 127f.,
Rovane 1998: 169ss .; ver também Olson 2003b, Snowdon 2014: cap. 7). Outros
ainda argumentam que duas pessoas podem compartilhar um organismo em
casos de geminação conjunta (Campbell e McMahan 2010; ver também Olson
2014).

Isso às vezes é chamado de problema de “identidade sincrônica”, em oposição


à “identidade diacrônica” da questão da persistência. Esses termos, no entanto,
precisam de tratamento cuidadoso. Eles tendem a dar a impressão equivocada
de que a identidade vem em dois tipos, sincrônica e diacrônica. A verdade é
simplesmente que existem dois tipos de situações em que podemos perguntar
quantas pessoas (ou outras coisas) existem: as que envolvem apenas um
momento e as que envolvem várias.
O que eu sou? Que tipo de coisas, metafisicamente falando, somos você e eu e
outras pessoas humanas? Quais são nossas propriedades fundamentais, além
daquelas que nos tornam pessoas? Do que, por exemplo, somos feitos? Somos
compostos inteiramente de matéria, como as pedras, ou somos parcial ou
totalmente imateriais? Onde estão nossos limites espaciais, se estamos
estendidos espacialmente? Estendemos toda a nossa pele e não mais, por
exemplo? Se sim, o que corrige esses limites? Somos substâncias - seres
metafisicamente independentes - ou cada um de nós é um estado ou um aspecto
de outra coisa, ou talvez algum tipo de processo ou evento?

Aqui estão algumas das principais respostas propostas (Olson 2007):

• Somos organismos biológicos ("animalismo": Snowdon 1990, 2014, van


Inwagen 1990, Olson 1997, 2003a).

• Somos coisas materiais “constituídas por” organismos: uma pessoa feita da


mesma matéria que um determinado animal, mas são coisas diferentes porque
o que é preciso para persistir é diferente (Baker 2000, Johnston 2007,
Shoemaker 2011).

• Somos partes temporais dos animais: cada um de nós representa um


organismo como o primeiro conjunto representa uma partida de tênis (Lewis
1976).

• Somos partes espaciais de animais: cérebros, talvez, ou partes de cérebros


(Campbell e McMahan 2010, Parfit 2012; Hudson 2001 argumenta que somos
partes temporais de cérebros).

• Somos substâncias imateriais sem partes - almas - ou coisas compostas


compostas por uma alma imaterial e um corpo material (Swinburne 1984: 21).

• Somos coleções de estados ou eventos mentais: “feixes de percepções”, como


Hume disse (1978: 252; ver também Quinton 1962 e Campbell 2006).

• Não há nada que nós somos: realmente não existimos (Russell 1985: 50,
Wittgenstein 1922: 5.631, Unger 1979).

Não há consenso ou mesmo uma visão dominante sobre esta questão.

O que importa em identidade? Qual a importância prática dos fatos sobre nossa
persistência? Por que isso importa ? Por que motivo você se importa se continua
existindo, e não com alguém como você em seu lugar? Imagine que os cirurgiões
vão colocar seu cérebro na minha cabeça e que nenhum de nós tem escolha
sobre isso. Suponha que a pessoa resultante sofra dores terríveis após a
operação, a menos que um de nós pague uma grande quantia de antecedência.
Se éramos ambos totalmente egoístas, qual de nós teria um motivo para pagar?
A pessoa resultante - que presumivelmente pensará que é você - será
responsável por suas ações ou pelas minhas? (Ou ambos, ou nenhum?)

A resposta pode parecer para transformar inteiramente sobre se a pessoa


resultante ser você ou I. Só eu posso ser responsável por minhas ações. O fato
de uma pessoa ser eu, por si só, me dá um motivo para me importar com ela.
Cada pessoa tem um interesse especial e egoísta por seu próprio futuro e por
mais ninguém. A própria identidade importa praticamente. Mas alguns dizem que
eu poderia ter uma razão totalmente egoísta para me importar com o bem-estar
de outra pessoa por ele. Talvez o que me dê uma razão para me preocupar com
o que acontece com o homem que as pessoas vão chamar pelo meu nome
amanhã não é que ele sou eu, mas que ele é psicologicamente contínuo comigo
como eu sou agora (veja a seção 4), ou porque ele se relaciona comigo de
alguma outra maneira que não implica que somos a mesma pessoa. Se alguém
além de mim fosse psicologicamente contínuo amanhã comigo como sou agora,
ele teria o que importa para mim, e eu deveria transferir minha preocupação
egoísta para ele. Da mesma forma, alguém poderia ser responsável por minhas
ações, e não por suas próprias. A própria identidade não tem importância prática.
(Ver Shoemaker 1970: 284; Parfit 1971, 1984: 215, 1995; Martin 1998.)

Isso completa nossa pesquisa. Embora algumas dessas questões possam


influenciar outras, elas são em grande parte independentes. É importante não
confundi-los.

2. Compreendendo a questão da persistência

Passamos agora à questão da persistência. Poucos conceitos foram a fonte de


mais mal-entendidos do que a identidade ao longo do tempo. A questão da
persistência é frequentemente confundida com outras questões, ou declarada de
maneira tendenciosa.

A questão é aproximadamente o que é necessário e suficiente para que um


passado ou futuro seja alguém existente agora. Suponha que apontemos para
você agora e depois descreva alguém ou algo que existe em outro momento.
Então podemos perguntar se estamos nos referindo duas vezes a uma coisa ou
uma vez a cada uma das duas coisas. A questão da persistência pergunta o que
determina a resposta para consultas específicas como esta. (Há perguntas
precisamente análogas sobre a persistência de outros objetos, como cães.)

Alguns fazem a pergunta da persistência para perguntar o que significa dizer que
um ser passado ou futuro é você. Isso implicaria que podemos responder
elaborando o significado de termos como 'pessoa' ou analisando os conceitos
que eles expressam. A resposta seria conhecível a priori, se fosse o caso.
Também implicaria que necessariamente todas as pessoas tenham as mesmas
condições de persistência - que a resposta à pergunta seja a mesma,
independentemente do tipo de pessoa que consideramos. Embora alguns
endossem essas alegações (Noonan 2003: 86-92), elas são todas contestadas.
O que é preciso para persistir pode depender de sermos organismos biológicos,
algo que não podemos saber a priori. E se poderia haver pessoas imateriais,
como deuses ou anjos, o que é preciso para persistirem pode diferir do que é
necessário para uma pessoa humana persistir.

Às vezes, perguntamos o que é preciso para alguém permanecer a mesma


pessoa de uma vez para outra. A idéia é que, se você alterasse de certas
maneiras - se perdesse muita memória, digamos, ou ficasse gravemente
desabilitado ou tivesse uma mudança dramática de caráter -, não seria mais a
pessoa que era antes. Esta não é a questão da persistência. As duas perguntas
podem ter respostas diferentes. Suponha que você mude de forma a “se tornar
uma pessoa diferente”: a resposta para a questão de se você é a mesma pessoa
é Não. A questão da persistência pergunta, nesse caso, se você ainda existiria.
E a resposta para essa pergunta é Sim: se você é uma pessoa diferente, ainda
existe, assim como você se permanecer a mesma pessoa. Quando falamos em
permanecer a mesma pessoa ou em nos tornarmos uma pessoa diferente,
queremos dizer permanecer ou deixar de ser o tipo de pessoa que somos . Dizer
que alguém não seria mais a mesma pessoa é dizer que ela ainda existiria, mas
teria mudado de alguma maneira importante. Isso tem a ver com a identidade
individual no sentido de quem eu sou? Pergunta, questão. Trata-se de que tipos
de mudanças contariam como perda das propriedades que definem alguém
como pessoa. Não tem nada a ver com persistência ao longo do tempo.

A questão da persistência é frequentemente feita para perguntar o que é


necessário para a mesma pessoa existir em dois momentos diferentes. A
formulação mais comum é algo como isto:

1. Se uma pessoa x existe em um momento e uma pessoa y existe em outro


momento, em que circunstâncias possíveis é que x é y?

Na verdade, isso pergunta o que é preciso para que uma pessoa passada ou
futura seja você. Temos uma pessoa existindo em um momento e uma pessoa
existindo em outro, e a questão é o que é necessário e suficiente para que eles
sejam uma pessoa em vez de duas. (Tais perguntas dizem respeito à "identidade
ao longo do tempo" porque dizer que x é y é dizer que x e y são um - ou seja,
numericamente idênticos.)

Mas isso é mais restrito que a questão da persistência. Podemos querer saber
se cada um de nós já foi um embrião ou um feto, ou se alguém poderia sobreviver
em um estado vegetativo irreversível (onde o ser resultante é biologicamente
vivo, mas não possui propriedades mentais). Essas são claramente perguntas
sobre o que é preciso para persistir. Mas ser pessoa é mais frequentemente
definido como possuindo propriedades mentais especiais. Locke, por exemplo,
disse que uma pessoa é "um ser inteligente pensante, que tem razão e reflexão,
e pode se considerar como ela mesma, a mesma coisa pensante, em diferentes
épocas e lugares" (1975: 335). Presumivelmente, isso implica que algo é uma
pessoa em um determinado momento somente se tiver essas propriedades
mentais. E os neurologistas dizem que os fetos e os seres humanos de um
período vegetativo persistente não têm propriedades mentais. Se algo como a
definição de Locke estiver certo, esses seres não são pessoas naqueles
momentos. Nesse caso, não podemos inferir nada sobre se você já foi um
embrião ou pode vir a ser um vegetal a partir de um princípio sobre o que é
preciso para uma pessoa passada ou futura ser você.

Podemos ilustrar o ponto, considerando esta resposta à pergunta 1:


Necessariamente, uma pessoa x existente ao mesmo tempo é uma pessoa y
existente em outro momento, se e somente se x pode, na primeira vez, lembre-
se uma experiência y tem na segunda hora ou vice-versa.

Ou seja, uma pessoa do passado ou do futuro é você, apenas no caso em que


você (que agora é uma pessoa) pode agora se lembrar de uma experiência que
ela teve na época, ou então pode se lembrar de uma experiência que está tendo
agora. Chame isso de critério de memória. (Às vezes também é atribuído a
Locke, embora seja duvidoso que ele realmente a tenha: veja Behan 1979.)

O critério de memória pode parecer implicar que, se você cair em um estado


vegetativo irreversível, deixaria de existir (ou talvez passaria para o próximo
mundo): o ser resultante não poderia ser você porque não se lembraria de nada.
Mas essa conclusão não se segue. Supondo que um vegetal humano não seja
uma pessoa, este não é um caso envolvendo uma pessoa que existe uma vez e
uma pessoa que existe em outro momento. O critério de memória pretende nos
dizer qual pessoa passada ou futura você é, mas não qual coisa passada ou
futura . Diz o que é preciso para alguém persistir como pessoa, mas não o que
é necessário para alguém persistir sem qualificação. Portanto, não implica nada
se você pode vir a ser um vegetal ou um cadáver. Pela mesma razão, nada nos
diz se você já foi um embrião. (Olson 1997: 22-26, Mackie 1999: 224-228).

A questão da persistência pergunta o que é preciso para que uma pessoa ao


mesmo tempo exista também. Ele pergunta o que é necessário e suficiente para
qualquer ser passado ou futuro, se é ou não uma pessoa, ser você ou eu:

2. Se uma pessoa x existe em um momento e algo y existe em outro momento,


em que circunstâncias possíveis é que x é y?

Aqueles que perguntam 1 em vez de 2 geralmente o fazem porque supõem que


toda pessoa é essencialmente uma pessoa : nada que seja de fato uma pessoa
poderia existir sem ser uma pessoa. (Por outro lado, algo que de fato um aluno
poderia existir sem ser aluno: nenhum aluno é essencialmente um aluno, e seria
um erro indagar sobre as condições da identidade do aluno perguntando o que
é necessário para um aluno existente em um tempo para ser idêntico a um aluno
que existe em outro momento.) Essa afirmação, “essencialismo da pessoa”,
implica que o que quer que seja uma pessoa ao mesmo tempo deve ser uma
pessoa a cada momento em que ela existe, tornando as duas perguntas
equivalentes. O essencialismo da pessoa é uma afirmação metafísica
controversa, no entanto. Combinado com um dos relatos usuais da
personalidade, isso implica que você não poderia ter sido um embrião: na melhor
das hipóteses, pode ter surgido quando o embrião que lhe deu origem
desenvolveu certas capacidades mentais. Nem você pode vir a ser um vegetal
humano. Aliás, exclui o fato de sermos organismos biológicos, já que nenhum
organismo é essencialmente uma pessoa: todo organismo humano começa
como um embrião e pode terminar em estado vegetativo.

Se somos organismos ou já fomos embriões, são questões substantivas que um


relato de identidade pessoal deve responder, e não assuntos a serem resolvidos
com antecedência pela maneira como estruturamos o debate. Portanto, seria um
erro assumir o essencialismo da pessoa desde o início. A pergunta 1 prejudica
a questão, favorecendo alguns relatos do que somos e do que é necessário para
persistirmos em detrimento de outros. Ele exclui o animalismo e a visão física
bruta descrita na próxima seção. É como perguntar qual homem cometeu o crime
antes de descartar a possibilidade de que fosse uma mulher.

3. Contas de nossa identidade ao longo do tempo

Existem três tipos principais de respostas para a questão da persistência na


literatura. As mais populares são as visões de continuidade psicológica, segundo
as quais a manutenção de alguma relação psicológica é necessária ou suficiente
(ou ambas) para que alguém persista. Você é aquele futuro que, em certo
sentido, herda suas características mentais - crenças, memórias, preferências,
capacidade de pensamento racional, esse tipo de coisa - de você; e você é
aquele ser passado cujas características mentais você herdou dessa maneira.
Há controvérsias sobre que tipo de herança isso deve ser - se deve ser
sustentado por algum tipo de continuidade física, por exemplo, ou se é
necessário um requisito de "não ramificação". Também há desacordo sobre
quais características mentais precisam ser herdadas. (Voltaremos a alguns
desses pontos.) Mas a maioria dos filósofos que escrevem sobre identidade
pessoal desde o início do século 20 endossou alguma versão dessa visão. O
critério de memória mencionado anteriormente é um exemplo. Os advogados
das visões de continuidade psicológica incluem Johnston (1987), Garrett (1998),
Hudson (2001), Lewis (1976), Nagel (1986: 40), Noonan (2003), Nozick (1981),
Parfit (1971; 1984: 207), Perry (1972), Shoemaker (1970; 1984: 90; 1997; 1999)
e Unger (1990: cap. 5; 2000).

Um segundo tipo de resposta é que nossa persistência consiste em alguma


relação física bruta. Você é aquele ser passado ou futuro que possui seu corpo,
ou é o mesmo organismo biológico que você é ou algo parecido. Não tem nada
a ver com fatos psicológicos. Chame essas visões físicas brutas. (Não os
confunda com a visão de que a evidência física tem algum tipo de prioridade
sobre a evidência psicológica para descobrir quem é quem. Isso tem a ver com
a questão da evidência.) Seus advogados incluem Ayers (1990: 278-292), Carter
(1989), Mackie (1999), Olson (1997), van Inwagen (1990) e Williams (1956-
7,1970).

Você pode pensar que a verdade está em algum lugar entre os dois: precisamos
de continuidade mental e física para sobreviver, ou talvez seja suficiente sem o
outro. Isso geralmente conta como uma visão de continuidade psicológica como
a definimos. Aqui está um caso de teste. Imagine que seu cérebro está
transplantado na minha cabeça. Dois seres resultam: a pessoa que termina com
seu cérebro e (presumivelmente) a maioria de suas características mentais, e a
cabeça vazia sendo deixada para trás, que pode estar biologicamente viva, mas
não possui características mentais. Aqueles que dizem que você seria o
responsável pelo cérebro costumam dizer isso porque acreditam que alguma
relação envolvendo psicologia é suficiente para você persistir. Aqueles que
dizem que você seria o vegetal de cabeça vazia dizem que sim, porque
consideram sua persistência algo totalmente não-psicológico, como dizem as
visões físicas brutas.

As visões de continuidade psicológica e física bruta concordam que há algo que


é necessário para persistirmos - que existem condições informativas, não triviais
necessárias e suficientes para que uma pessoa que existe uma vez seja uma
coisa que existe em outra época. Uma terceira visão, o anticriterialismo, nega
isso. A continuidade psicológica e física é uma evidência da identidade, diz ela,
mas nem sempre a garante e pode não ser necessária. O advogado mais claro
dessa visão é Merricks (1998; ver também Lowe 1996: 41ss., 2012; para críticas,
ver Zimmerman 1998, Shoemaker 2012). Às vezes, é associado ao dualismo da
substância, mas a conexão é discutível (ver Swinburne 1984, Olson 2012).
Existem pontos de vista anticriterialistas sobre outras coisas além das pessoas.
O anticriterialismo é pouco conhecido.

4. Visões de continuidade psicológica

A maioria das pessoas - a maioria dos professores e estudantes de filosofia


ocidental - se sente imediatamente atraída por visões de continuidade
psicológica (Nichols e Bruno 2010 fornecem evidências experimentais disso). Se
o seu cérebro fosse transplantado, e esse órgão levasse consigo suas memórias
e outras características mentais, a pessoa resultante ficaria convencida de que
era você. Por que essa convicção deve ser equivocada? Isso pode facilitar a
suposição de que a pessoa seria você e que seria assim porque ele ou ela é
psicologicamente contínuo com você. É notoriamente difícil, no entanto, passar
desse pensamento para uma resposta atraente à questão da persistência.

Em que relação psicológica pode consistir nossa persistência ao longo do


tempo? Já mencionamos a memória: um ser passado ou futuro pode ser você
se, e somente se, agora você consegue se lembrar de uma experiência que ela
teve na época, ou vice-versa. Essa proposta enfrenta duas objeções,
descobertas no século XVIII por Sargento e Berkeley (ver Behan, 1979), mas
mais discutidas por Reid e Butler (veja os trechos em Perry, 1975).

Primeiro, suponha que um jovem estudante seja multado por livros vencidos na
biblioteca. Mais tarde, como advogada de meia-idade, ela se lembra de pagar a
multa. Mais tarde ainda, em sua época, ela se lembra de sua carreira na
advocacia, mas esqueceu completamente não apenas de pagar a multa, mas de
tudo o que fez na juventude. De acordo com o critério de memória, a jovem
estudante é a advogada de meia-idade, a advogada é a mulher idosa, mas a
idosa não é a jovem estudante. Este é um resultado impossível: se x e y são um
e y e z são um, x e z não podem ser dois. A identidade é transitiva; continuidade
de memória não é.

Segundo, parece pertencer à própria idéia de lembrar que você pode se lembrar
apenas de suas próprias experiências. Lembrar-se de pagar uma multa (ou a
experiência de pagar) é lembrar- se de pagar. Isso torna trivial e pouco
informativo dizer que você é a pessoa cujas experiências você pode se lembrar
- ou seja, que a continuidade da memória é suficiente para a identidade pessoal.
Não é informativo porque você não pode saber se alguém se lembra
genuinamente de uma experiência passada sem já saber se foi ele quem a teve.
Suponhamos que queremos saber se Blott, que existe agora, é o mesmo que
Clott, que sabemos que já existiu em algum momento no passado. O critério de
memória nos diz que Blott é Clott apenas se Blott agora se lembra de uma
experiência que Clott teve no passado. Mas Blott parece lembrar uma das
experiências de Clott conta como memória genuína apenas se Blott realmente
for Clott. Portanto, já devemos saber se Blott é Clott antes de podermos aplicar
o princípio que deve nos dizer se ela é. (Porém, não há nada trivial ou pouco
informativo na alegação de que as conexões de memória são necessárias para
persistir.)

Uma resposta ao primeiro problema é modificar o critério da memória, mudando


de conexões diretas para indiretas: a velha é a jovem estudante, porque ela pode
se lembrar de experiências que o advogado teve no momento em que o
advogado se lembrava da vida do estudante. O segundo problema é
tradicionalmente resolvido substituindo a memória por um novo conceito,
"retrocognição" ou "quase-memória", que é exatamente como a memória, mas
sem a exigência de identidade: mesmo que seja contraditório dizer que você se
lembra de fazer algo que você não o fez, mas alguém o fez, você ainda pode
“quase lembrar” (Penelhum 1970: 85ss., Shoemaker 1970; para críticas, ver
McDowell 1997).

Contudo, nenhuma das ações nos leva longe, pois os critérios de memória
original e modificado enfrentam um problema mais óbvio: há muitas vezes no
passado que alguém não consegue se lembrar ou quase lembrar, e ao qual não
está ligado nem indiretamente por uma cadeia de memórias sobrepostas. Por
exemplo, não há tempo em que você se lembre de tudo o que aconteceu
enquanto dormia sem sonhos na noite passada. O critério de memória tem a
implicação absurda de que você nunca existiu em nenhum momento em que
estava inconsciente. A pessoa que dormiu na sua cama ontem à noite deve ter
sido outra pessoa.

Uma solução melhor substitui a memória pela noção mais geral de dependência
causal (Shoemaker 1984, 89ff.). Podemos definir duas noções, conexão
psicológica e continuidade psicológica. Um ser está psicologicamente
conectado, em algum momento futuro, a você como você está agora, apenas se
ela estiver nos estados psicológicos em que está, em grande parte por causa
dos estados psicológicos em que você está agora. Ter uma memória atual (ou
quase memória) de uma experiência anterior é um tipo de conexão psicológica -
a experiência causa a memória dela - mas existem outras. É importante ressaltar
que os estados mentais atuais de alguém podem ser causados, em parte, pelos
estados mentais em que se encontrava nos momentos em que estava
inconsciente. Por exemplo, a maioria de suas crenças atuais são as mesmas
que você tinha enquanto dormia na noite passada: essas crenças fizeram com
que continuassem existindo. Podemos então dizer que você é psicologicamente
contínuo, agora, sendo um passado ou futuro apenas se alguns de seus estados
mentais atuais se relacionarem com aqueles em que ele ou ela se encontra, por
uma cadeia de conexões psicológicas.

Agora, suponha que uma pessoa x que exista ao mesmo tempo seja idêntica a
algo y existente em outro momento, se e somente se x for, ao mesmo tempo,
psicologicamente contínuo com y, como é no outro momento. Isso evita as
objeções mais óbvias ao critério de memória.

Ainda deixa questões importantes sem resposta, no entanto. Suponha que, de


alguma forma, possamos copiar todo o conteúdo mental do seu cérebro para o
meu, da mesma forma que podemos copiar o conteúdo de uma unidade de
computador para outra, e que isso apague o conteúdo anterior de ambos os
cérebros. Se este seria um caso de continuidade psicológica depende de que
tipo de dependência causal conta. O ser resultante (com meu cérebro e seu
conteúdo mental) seria mentalmente como você era antes, e não como eu era.
Ele teria herdado suas propriedades mentais de uma maneira - mas de uma
maneira engraçada. É o caminho certo? Você poderia literalmente passar de um
organismo para outro via "transferência de estado cerebral"? Os teóricos da
continuidade psicológica discordam (Shoemaker 1984: 108-111 e 1997, Unger
1990: 67-71; ver também van Inwagen 1997). (Schechtman 1996 dá um tipo
diferente de objeção à estratégia de continuidade psicológica.)

5. Cisão

Uma preocupação mais séria para as visões de continuidade psicológica é que


você pode ser psicologicamente contínuo com duas pessoas passadas ou
futuras ao mesmo tempo. Se seu cérebro - a parte superior do cérebro
responsável por características mentais - fosse transplantado, o receptor seria
psicologicamente contínuo com você pelas luzes de qualquer pessoa (mesmo
que também houvesse diferenças psicológicas importantes). A visão da
continuidade psicológica implica que ela seria você. Se destruíssemos um dos
seus hemisférios cerebrais, o ser resultante também seria psicologicamente
contínuo com você. (A hemisferectomia - mesmo a remoção do hemisfério
esquerdo, que controla a fala - é considerada um tratamento drástico, mas
aceitável, para tumores cerebrais inoperáveis: veja Rigterink, 1980.) E se
fizéssemos os dois ao mesmo tempo, destruindo um hemisfério e transplantando
o outro? Além disso, quem recebeu o hemisfério transplantado seria
psicologicamente contínuo com você e seria você de acordo com a visão da
continuidade psicológica.
Mas agora suponha que os dois hemisférios sejam transplantados, cada um em
uma cabeça vazia diferente. (Não precisamos fingir, como alguns autores, que
os hemisférios são exatamente iguais.) Os dois destinatários - os chamados
Lefty e Righty - serão psicologicamente contínuos para você. A visão da
continuidade psicológica, como dissemos, implica que qualquer ser futuro que
seja psicologicamente contínuo com você deve ser você. Segue-se que você é
canhoto e também que é justo. Mas isso não pode ser: se você e Lefty são um
e você e Righty são um, Lefty e Righty não podem ser dois. E ainda assim eles
são. Em outras palavras, suponha que Lefty esteja com fome no momento em
que Righty não esteja. Se você é canhoto, está com fome naquele momento.

Se você é direito, você não é. Se você é canhoto e poderoso, você está com
fome e não com fome ao mesmo tempo: uma contradição.

Os teóricos da continuidade psicológica propuseram duas soluções diferentes


para esse problema. Um, às vezes chamado de "visão de ocupação múltipla",
diz que, se houver fissão no seu futuro, então existem dois de vocês, por assim
dizer, mesmo agora. O que pensamos como vocês são realmente duas pessoas,
que agora são exatamente parecidas e localizadas no mesmo lugar, fazendo as
mesmas coisas e pensando os mesmos pensamentos. Os cirurgiões apenas os
separam (Lewis 1976, Noonan 2003: 139-142; Perry 1972 oferece uma variante
mais complexa).

A visão de ocupação múltipla é geralmente combinada com a afirmação


metafísica geral de que as pessoas e outras coisas persistentes são compostas
de partes temporais (geralmente chamadas de "quadridimensionalismo"; ver
Heller 1990: cap. 1, Hudson 2001, Sider 2001a, Olson 2007 : cap. 5). Para cada
pessoa, existe uma coisa como sua primeira metade: uma entidade como a
pessoa apenas mais breve, como a primeira metade de uma reunião. Nesse
aspecto, a visão de ocupação múltipla é que Lefty e Righty coincidem antes da
operação compartilhando suas partes temporais pré-operatórias ou "estágios" e
divergem mais tarde, tendo diferentes partes temporais localizadas
posteriormente. São como duas estradas que coincidem com um trecho e depois
se bifurcam, compartilhando algumas de suas partes espaciais, mas não outras.
Nos locais onde as estradas se sobrepõem, elas são como uma estrada. Da
mesma forma, a ideia é que, nos momentos anteriores à operação em que Lefty
e Righty compartilham suas partes temporais, eles são como uma única pessoa.
Até eles mesmos não sabem dizer que são dois. Se as pessoas são realmente
constituídas por partes temporais, é discutido. (Suas conseqüências são
exploradas mais adiante na seção 8.)

A outra solução para o problema da fissão abandona a afirmação intuitiva de que


a continuidade psicológica por si só é suficiente para que alguém persista. Diz,
antes, que um ser passado ou futuro é você apenas se ele é psicologicamente
contínuo com você e nenhum outro ser é. (Não há circularidade nisso. Não
precisamos saber a resposta para a questão da persistência para saber quantas
pessoas existem ao mesmo tempo; isso está incluído na questão da população.)
Isso significa que nem Lefty nem Righty são você. Ambos passam a existir
quando o seu cérebro está dividido. Se ambos os hemisférios cerebrais forem
transplantados, você deixará de existir - embora você sobreviveria se apenas um
fosse transplantado e o outro destruído. Fissão é morte. (Shoemaker 1984: 85,
Parfit 1984: 207; 2012: 6f., Unger 1990: 265, Garrett 1998: cap. 4; ver também
Noonan 2003: 12-15 e cap. 7).

Essa proposta, a "visão não ramificada", tem a surpreendente consequência de


que, se seu cérebro estiver dividido, você sobreviverá se apenas metade for
preservada, mas morrerá se as duas metades estiverem. Isso parece o oposto
do que a maioria de nós espera: se a sua sobrevivência depende do
funcionamento do seu cérebro (porque é isso que sustenta a continuidade
psicológica), quanto mais esse órgão preservamos, maior será a sua chance de
sobreviver .

De fato, a visão sem ramificação implica que você pereceria se um de seus


hemisférios fosse transplantado e o outro deixado no lugar: você pode sobreviver
à hemisferectomia apenas se o hemisfério a ser removido for destruído pela
primeira vez. E se a transferência do estado cerebral for um caso de continuidade
psicológica, mesmo copiar seu estado cerebral total para outro cérebro sem
causar nenhum dano físico ou psicológico o mataria. (Teorias de "melhor
candidato", como Nozick 1981: cap. 1, tentam evitar isso.)

A visão sem ramificação torna o que importa? pergunta especialmente aguda.


Diante da perspectiva de um dos hemisférios ser transplantado, não há razão
evidente para preferir que o outro seja destruído. A maioria de nós prefere ter os
dois preservados, mesmo que entrem em mentes diferentes. No entanto, na
visão não ramificada, é preferir a morte à existência continuada. Isso leva Parfit
e outros a dizer que é exatamente isso que devemos preferir. Não temos motivos
para querer continuar existindo, pelo menos por si só. O que você tem razão
para querer é que haja alguém no futuro que é psicologicamente contínuo com
você, se ela não é você. A maneira usual de conseguir isso é continuar existindo,
mas a história da fissão mostra que isso poderia ser alcançado sem que você
continuasse a existir. Da mesma forma, mesmo a pessoa mais egoísta tem um
motivo para se preocupar com o bem-estar dos seres que resultariam dela sofrer
fissão, mesmo que, como a visão não ramificada implique, ela também não seja.
No caso da fissão, os tipos de preocupações práticas que você normalmente tem
para si se aplicam a alguém que não seja você. Isso sugere de maneira mais
geral que fatos sobre quem é quem não têm importância prática. Praticamente
tudo o que importa é quem é psicologicamente contínuo com quem. (Lewis 1976
e Parfit 1976 debatem se a visão de ocupação múltipla pode preservar a
convicção de que identidade é o que importa praticamente.)

6. O problema de muitos pensadores

Outra objeção às visões de continuidade psicológica é que elas excluem o fato


de sermos organismos biológicos (Carter 1989, Ayers 1990: 278-292, Snowdon
1990, Olson 1997: 80f., 100-109, 2003a). Isso ocorre porque nenhum tipo de
continuidade psicológica é necessário ou suficiente para um organismo humano
persistir. Se o seu cérebro fosse transplantado, quem acabasse com esse órgão
seria psicologicamente contínuo com você (e essa continuidade seria
continuamente realizada fisicamente). Em qualquer visão de continuidade
psicológica, essa pessoa seria você: a pessoa iria com o cérebro transplantado.
Mas nenhum organismo iria com seu cérebro transplantado. A operação
simplesmente moveria um órgão de um organismo para outro. Então, se você
fosse um organismo, ficaria para trás com a cabeça vazia. Novamente, um
organismo humano poderia continuar existindo em um estado vegetativo
irreversível, sem continuidade psicológica. Se você fosse um organismo,
também poderia. Organismos humanos têm condições brutais de persistência
física. Assim, as visões de continuidade psicológica excluem não apenas nosso
ser essencialmente ou "fundamentalmente" organismos, mas também nosso
organismo: nada que seja contingentemente um organismo iria com seu cérebro
transplantado.

Mas um organismo humano adulto e saudável parece um caso paradigmático de


um ser pensante. Isso levanta três problemas aparentes. Primeiro, se o
organismo que chamamos de seu corpo puder pensar, você não é um organismo
implicaria que você é um dos dois seres inteligentes sentados lá e lendo este
[capítulo]. De maneira mais geral, haveria dois seres pensantes onde quer que
pensássemos que havia apenas um. Segundo, o organismo parece ser
psicologicamente indistinguível de você. Isso tornaria uma pessoa, se ser uma
pessoa equivale a ter certas propriedades mentais ou comportamentais (como
na definição de Locke). Nesse caso, não pode ser verdade que todas as pessoas
(ou mesmo todas as pessoas humanas) persistem em virtude da continuidade
psicológica. Alguns - os animais - teriam condições de persistência física bruta.

Terceiro, torna difícil ver como você poderia saber se você era uma pessoa não
animal com condições de persistência psicológica ou uma pessoa animal com
condições físicas brutas. Se você pensasse que não era animal, o organismo
usaria o mesmo raciocínio para concluir que também era. Pelo que você sempre
soube, ao que parece, você pode estar cometendo esse erro.

Imagine uma máquina duplicadora tridimensional. Quando você entra na caixa


de entrada, ele lê sua condição física (e mental) completa e usa essas
informações para montar uma duplicata perfeita de você na caixa de saída. O
processo causa inconsciência temporária, mas é inofensivo. Dois seres
acordam, um em cada caixa. As caixas são indistinguíveis. Como cada ser terá
as mesmas memórias aparentes e perceberá um ambiente idêntico, cada um
pensará, pelas mesmas razões, que é você. Mas apenas um estará certo. Se
isso aconteceu com você, é difícil ver como você poderia saber depois se era o
original ou a duplicata. (Suponha que os técnicos que trabalham com a máquina
juram segredo e imunes a subornos.) Você poderia pensar: “Quem sou eu? Eu
fiz as coisas que me lembro de fazer? Ou fui criado há apenas um momento,
com falsas lembranças da vida de outra pessoa? ”E você não teria como
responder a essas perguntas. Da mesma forma, as visões de continuidade
psicológica levantam as questões: “O que sou eu? Eu sou um não animal que
iria com seu cérebro transplantado, ou um organismo que ficaria para trás com
a cabeça vazia? ”E aqui também parece não haver motivos para responder a
eles.
Essas três objeções foram chamadas de "muitos pensadores" ou problema dos
animais pensantes. A única maneira de evitá-los completamente é dizer que
somos organismos (e que não existem seres que persistem em virtude da
continuidade psicológica).

Uma resposta é dizer que os organismos humanos têm condições de


persistência psicológica. Apesar das aparências, a operação não moveria seu
cérebro de um organismo para outro, mas reduziria um organismo do tamanho
de um cérebro, moveria-o pela sala e, em seguida, forneceria novas peças para
substituir as que ele perdeu - presumivelmente destruindo o animal no qual o
cérebro está implantado. (Essa pode ser a opinião de Wiggins 1980: 160, 180 e
McDowell 1997: 237; ver também Olson 1997: 114-119).

Uma visão mais popular é que, apesar de compartilhar nossos cérebros e


mostrar todos os sinais externos de consciência e inteligência, os organismos
humanos não pensam e não são conscientes. Animais pensantes não são um
problema para visões de continuidade psicológica porque não existem
(Shoemaker 1984: 92-97; Lowe 1996: 1; Johnston 2007: 55; Baker 2000 é uma
variante sutil). Se os organismos humanos não podem ser conscientes, parece
que nenhum organismo biológico de qualquer espécie pode ter propriedades
mentais. Shoemaker argumenta que isso decorre da teoria funcionalista da
mente (1999,2008,2011).

Finalmente, os teóricos da continuidade psicológica podem admitir que os


organismos humanos são psicologicamente indistinguíveis de nós, mas tentam
explicar como ainda podemos saber que não somos esses organismos. A
proposta mais conhecida desse tipo concentra-se na referência pessoal e na
primeira pessoa. Diz que não apenas qualquer ser com propriedades mentais do
tipo que você e eu temos - racionalidade e autoconsciência, por exemplo - conta
como pessoa. Uma pessoa também deve persistir em virtude da continuidade
psicológica. Daqui resulta que os animais humanos não são pessoas. Além
disso, pronomes pessoais como 'eu' e os pensamentos que expressam referem-
se apenas a pessoas. Portanto, quando seu corpo animal diz ou pensa 'eu', não
se refere a si mesmo, mas a você, a pessoa. A declaração do organismo 'Eu sou
uma pessoa' não expressa a falsa crença de que ele é uma pessoa, mas a
verdadeira crença de que você é. Portanto, o organismo não se engana sobre o
que é: não tem crenças de primeira pessoa sobre si mesmo. E você também não
está enganado. Você pode inferir que você é uma pessoa a partir dos fatos
linguísticos a que você se refere quando diz 'eu' e que 'eu' nunca se refere a
nada além de uma pessoa. Você pode saber que você não é o animal que pensa
em seus pensamentos, porque não é uma pessoa e os pronomes pessoais
nunca se referem a pessoas que não são. (Veja Noonan 1998, 2010, Olson 2002;
para uma abordagem diferente baseada em princípios epistêmicos, veja
Brueckner e Buford 2009.)

7. Visões físicas brutas


Nenhuma dessas objeções surge no animalismo, a visão de que somos
organismos. Isso não implica que todos os organismos, ou mesmo todos os
seres humanos, sejam pessoas: como vimos anteriormente, embriões e animais
humanos em estado vegetativo persistente podem não ser considerados
pessoas. Ser uma pessoa pode ser apenas uma propriedade temporária de
você, como ser um estudante. O animalismo também não implica que todas as
pessoas sejam organismos. É consistente com a existência de pessoas
totalmente inorgânicas: deuses ou anjos ou robôs conscientes. Não diz que ser
animal faz parte do que é ser pessoa (uma visão defendida em Wiggins 1980:
171 e Wollheim 1984: cap. 1 e criticada em Snowdon 1996). O animalismo deixa
em aberto a resposta para a questão da personalidade. (É consistente, por
exemplo, com a definição de Locke citada na seção 2.)

Supondo que os organismos persistem em virtude de algum tipo de continuidade


físico-bruta, o animalismo implica uma versão da visão físico-bruta. Alguns
filósofos endossam uma visão física bruta sem dizer que somos animais. Eles
dizem que somos nossos corpos (Thomson, 1997), ou que nossa identidade ao
longo do tempo consiste na identidade de nossos corpos (Ayer 1936: 194). Isso
foi chamado de critério corporal da identidade pessoal. Sua relação com o
animalismo é incerta.

A maioria das versões da visão física bruta implica que as pessoas humanas têm
as mesmas condições de persistência que certas não-pessoas, como os cães.
E implica que nossas condições de persistência diferem das de pessoas
imateriais, se possível. Daqui resulta que não existem condições de persistência
para as pessoas enquanto tais.

A objeção mais comum às visões físicas brutas é a repugnância de suas


implicações de que você ficaria para trás se seu cérebro fosse transplantado (por
exemplo, Unger 2000; para uma importante objeção relacionada, consulte
Johnston 2007). Em outras palavras, as visões físicas brutas não são atraentes
da mesma maneira que as visões de continuidade psicológica são atraentes. Os
animalistas geralmente admitem a força disso, mas consideram que ela é
superada por outras considerações. Primeiro, o animalismo evita o problema de
muitos pensadores. Segundo, é compatível com nossas crenças sobre quem é
quem na vida real. Todo caso real em que levamos alguém para sobreviver ou
perecer é um caso em que um organismo humano sobrevive ou perece. As
visões de continuidade psicológica, por outro lado, conflitam com nossa crença
de que cada um de nós já foi feto. Quando vemos uma imagem ultrassonográfica
de um feto de 12 semanas, normalmente pensamos que estamos vendo algo
que, se tudo der certo, nascerá, aprenderá a falar e eventualmente se tornará
uma pessoa humana adulta. No entanto, nenhum de nós é psicologicamente
contínuo com um feto de 12 semanas de idade.

8. Temas mais amplos

O debate entre visões de continuidade psicológica e física bruta não pode ser
resolvido sem considerar assuntos mais gerais fora da identidade pessoal. Por
exemplo, os teóricos da continuidade psicológica precisam explicar por que os
organismos humanos são incapazes de pensar como nós. Isso exigirá um relato
da natureza das propriedades mentais. Ou, se os organismos humanos podem
pensar, devem explicar como podemos saber que não somos esses organismos.
Isso mostrará como funciona a referência de pronomes pessoais e nomes
próprios, ou sobre a natureza do conhecimento.

Algumas visões metafísicas gerais sugerem que não há uma resposta correta
única para a questão da persistência. O exemplo mais conhecido é a ontologia
de partes temporais mencionada na seção 5. Diz que, para cada período de
tempo em que você existe, curto ou longo, existe uma parte temporal de você
que existe somente então. Isso nos dá muitos candidatos prováveis para ser
você - ou seja, muitos seres diferentes agora sentados ali e pensando em seus
pensamentos. Suponha que você é uma coisa material e que sabemos o que
determina seus limites espaciais. Isso deve nos dizer o que conta como sua parte
temporal atual ou "estágio" - a parte temporal de você localizada agora e em
nenhum outro momento. Esse estágio é parte de um vasto número de objetos
estendidos temporalmente (Hudson 2001: cap. 4).

Por exemplo, é uma parte de um ser cujos limites temporais são determinados
por relações de continuidade psicológica (seção 4) entre seus estágios. Ou seja,
um dos seres que pensa seus pensamentos atuais é um agregado de estágios
da pessoa, cada um dos quais é psicologicamente contínuo com cada um dos
outros e sem outro estágio. Se é isso que você é, então você persiste em virtude
da continuidade psicológica. Seu estágio atual também faz parte de um ser cujos
limites temporais são determinados por relações de conexão psicológica . Ou
seja, um dos seres que agora pensa que seus pensamentos são um agregado
de estágios da pessoa, cada qual psicologicamente conectado com cada um dos
outros e com nenhum outro estágio. Pode não ser o mesmo que o primeiro ser,
pois alguns estágios podem ser psicologicamente contínuos com o estágio atual,
mas não psicologicamente conectados a ele. Se é isso que você é, a conexão
psicológica é necessária e suficiente para você persistir (Lewis, 1976). Além
disso, seu estágio atual é parte de um organismo humano, que persiste em
virtude da continuidade físico-bruta e parte de muitos objetos bizarros e
gerrenermandados, como “pessoas de contato” (Hirsch 1982, cap. 10). Alguns
até dizem que você é o seu estágio atual (Sider 2001a, 188-208). E haveria
muitos outros candidatos.

A ontologia das partes temporais implica que cada um de nós compartilha nossos
pensamentos atuais com inúmeros seres que divergem um do outro no passado
ou no futuro. Se isso fosse verdade, que estas coisas devem nós ser? É claro
que somos as coisas a que nos referimos quando dizemos 'eu', ou mais
geralmente os referentes de nossos pronomes pessoais e nomes próprios. Mas
é improvável que essas palavras consigam se referir a apenas um tipo de coisa
- a apenas um dos muitos candidatos em cada ocasião da declaração.
Provavelmente haveria alguma indeterminação de referência, de modo que cada
enunciado desse tipo se referisse ambiguamente a muitos candidatos diferentes.
Isso tornaria indeterminado que coisas e até que tipo de coisas somos. E, na
medida em que os candidatos têm histórias diferentes e diferentes condições de
persistência, seria indeterminado quando surgimos e o que é necessário para
persistirmos (Sider, 2001b).

Nota

Este artigo foi publicado pela primeira vez em 20 de agosto de 2002; foi revisado
substancialmente em 9 de julho de 2015.

Bibliografia

Ayer, AJ, 1936, Idioma, Verdade e Lógica, Londres: Gollancz.

Ayers, M., 1990, Locke, vol. 2, Londres: Routledge.

Baker, LR, 2000, Pessoas e Corpos: Uma Visão Constitucional, Cambridge:


Cambridge University Press.

Behan, D., 1979, 'Locke on Persons and Personal Identity', Canadian Journal of
Philosophy, 9: 53-75.

Brueckner, A. e C. Buford, 2009, 'Thinking Animals and Epistemology', Pacific


Philosophical Quarterly, 90: 310-314.

Campbell, S., 2006, 'A concepção de uma pessoa como uma série de eventos
mentais', Philosophy and Phenomenological Research, 73: 339-358.

Campbell, T. e J. McMahan, 2010, 'Animalismo e as variedades de geminação


conjunta', Theoretical Medicine and Bioethics, 31: 285-301.

Carter, WR, 1989, 'How to Change Your Mind', Canadian Journal of Philosophy,
19: 1-14.

Chisholm, R., 1976, Pessoa e Objeto, La Salle, IL: Open Court.

Collins, S., 1982, Pessoas Abnegadas: Imagens e Pensamentos no Budismo


Theravada, Cambridge: Cambridge University Press.

Garrett, B., 1998, Identidade pessoal e autoconsciência, London: Routledge.

Heller, M., 1990, A Ontologia dos Objetos Físicos: Pedaços Tridimensionais da


Matéria, Cambridge, Cambridge University Press.

Hirsch, E., 1982, O Conceito de Identidade, Oxford, Oxford University Press.


Hudson, H., 2001, Uma Metafísica Materialista da Pessoa Humana, Ithaca:
Cornell University Press.

Hume, D., 1978, Treatise of Human Nature, Oxford: Clarendon Press (trabalho
original 1739); parcialmente reimpresso em Perry 1975.

Jinpa, T., 2002, Auto, Realidade e Razão na Filosofia Tibetana, Londres:


Routledge Curzon.

Johnston, M., 1987, 'Seres Humanos', Journal of Philosophy, 84: 59-83.

Johnston, M., 2007, “'seres humanos' revisitados: meu corpo não é um animal '',
em D. Zimmerman (ed.), Oxford Studies in Metaphysics, 3, Oxford University
Press.

Lewis, D., 1976, 'Survival and Identity', em A. Rorty (ed.), The Identities of
People, Berkeley, CA: University of California Press; reimpresso em seu
Philosophical Papers vol. I, Nova Iorque: Oxford University Press, 1983.

Locke, J., 1975, An Essay Concerning Human Understanding, ed. P. Nidditch,


Oxford: Clarendon Press (trabalho original, 2ª ed., Publicado pela primeira vez
em 1694); parcialmente reimpresso em Perry 1975.

Lowe, EJ, 1996, Assuntos da Experiência, Cambridge: Cambridge University


Press.

Lowe, EJ, 2012, 'The Provable Simplicity of Personal Identity', em Identity


Personal: Simple or Complex ?, G. Gasser e M. Stefan (eds.), Cambridge:
Cambridge University Press.

Ludwig, AM, 1997, Como sabemos quem somos ?, Oxford: Oxford University
Press.

Mackie, D., 1999, 'Identidade Pessoal e Pessoas Mortas', Philosophical Studies,


95: 219-242.

Martin, R., 1998, Auto-Preocupação, Cambridge: Cambridge University Press.

Martin, R. e J. Barresi (orgs.), 2003, Personal Identity, Oxford: Blackwell.

McDowell, L, 1997, 'Reducionism and the First Person', em Reading Parfit, J.


Dancy (ed.), Oxford: Blackwell.
Merricks, T., 1998, 'Não há critérios de identidade ao longo do tempo', Nous, 32:
106-124.

Nagel, T., 1971, "Bissecção cerebral e a unidade da consciência", Synthese 22:


396-41 3; reimpresso em Perry 1975 e em Nagel, Mortal Questions, Cambridge:
Cambridge University Press, 1979.

Nagel, T., 1986, The View from Nowhere, Nova Iorque: Oxford University Press.

Nichols, S. e M. Bruno, 2010, 'Intuitions about Personal Identity: An Empirical


Study', Philosophical Psychology, 23: 293-312.

Noonan, H., 1998, "Animalism Versus Lockeanism: A Current Controversy",


Philosophical Quarterly, 48: 302-318.

Noonan, H., 2003, Identidade Pessoal, segunda edição, London: Routledge.

Noonan, H., 2010, 'O Problema Animal Pensante e o Revisionismo do Pronome


Pessoal', Analysis, 70: 93-98.

Nozick, R., 1981, Philosophical Explanations, Cambridge, MA: Harvard


University Press.

Olson, E., 1997. O animal humano: identidade pessoal sem psicologia, Nova
York: Oxford University Press.

Olson, E., 2002, 'Thinking Animals and the Reference of “I”', Philosophical
Topics, 30: 189-208.

Olson, E., 2003a, 'An Argument for Animalism', em Martin e Barresi 2003.

Olson, E., 2003b, 'Was Jekyll Hyde?', Philosophy and Phenomenological


Research, 66: 328-48.

Olson, E., 2007, O que somos? Um estudo em ontologia pessoal, Nova York:
Oxford University Press.

Olson, E., 2012, 'In Search of the Simple View', em Identity: Simple or Complex
?, G. Gasser e M. Stefan (eds.), Cambridge: Cambridge University Press.

Olson, E., 2014, 'As implicações metafísicas da geminação conjunta', Southern


Journal of Philosophy (Spindel Supplementj, 52: 24-40.
Parfit, D., 1971, 'Personal Identity', Philosophical Review, 80: 3-27, e reimpresso
em Perry 1975.

Parfit, D., 1976, 'Lewis, Perry e What Matters', em The Identities of People, A.
Rorty (ed.), Berkeley: University of California Press.

Parfit, D., 1984, Razões e Pessoas. Oxford: Oxford University Press.

Parfit, D., 1995, 'The Unimportance of Identity', em Identity, H. Harris (org.),


Oxford: Oxford University Press. Reproduzido em Martin e Barresi 2003.

Parfit, D., 2012, 'Nós não somos seres humanos', Philosophy, 87: 5-28.

Penelhum, T., 1967, 'Personal Identity', em The Encyclopedia of Philosophy


(Volume 6), P. Edwards (ed.), Nova York: Macmillan.

Penelhum, T., 1970, Survival and Disembodied Existence, Londres: Routledge.

Perry, J., 1972, 'O eu pode se dividir?' Journal of Philosophy, 69: 463-488.

Perry, J. (ed.), 1975, Identidade Pessoal, Berkeley: University of California Press.

Puccetti, R., 1973, 'Brain Bisection and Personal Identity', British Journal for the
Philosophy of Science, 24: 339-355.

Quinton, A., 1962, 'The Soul ', Journal of Philosophy, 59: 393-403, e reimpresso
em Perry (ed.), 1975.

Rea, M. (ed.), 1997, Material Constitution: A Reader, Lanham, MD: Rowman &
Littlefield.

Rigterink, R., 1980, 'Puccetti e Brain Bisection: An Attentpt at Mental Division',


Canadian Journal of Philosophy, 10: 429-452.

Rovane, C., 1998, Os limites da agência, Princeton: Princeton University Press.

Russell, B., 1918, 'The Philosophy of Logical Atomism'. Monist, 28: 495-527 e 29:
32-63, 190-222, 345-380; reimpresso em R. Marsh (ed.), Logic and Knowledge {
London: Allen & Unwin, 1956), e em D. Pears, ed., The Philosophy of Logical
Atomism (La Salle, IL: Open Court, 1985) [página números deste último].

Schechtman, M., 1996, A Constituição dos Eus, Ithaca: Cornell University Press.
Shoemaker, S., 1963, Autoconhecimento e Auto-Identidade, Ithaca: Cornell
University Press.

Shoemaker, S., 1970, "People and Their Pasts", American Philosophical


Quarterly, 7: 269-285.

Shoemaker, S., 1984, "Identidade Pessoal: Relato de um Materialista", em


Shoemaker e Swinburne, Identidade Pessoal, Oxford: Blackwell.

Shoemaker, S., 1997, 'Self and Substance', em Philosophical Perspectives


(Volume 11), J. Tomberlin (ed.): 283-319.

Shoemaker, S., 1999, 'Self, Body, and Coincidence', Proceedings of the


Aristotelian Society (Supplementary Volume), 73: 287-306.

Shoemaker, S., 2008, 'People, Animals, and Identity', Synthese, 163: 313-324.

Shoemaker, S., 2011, 'On What We Are', no The Oxford Handbook of Self, S.
Gallagher (ed.), Oxford: Oxford University Press.

Shoemaker, S., 2012, 'Against Simplicity', em Identidade pessoal: simples ou


complexa ?, G. Gasser e M. Stefan (eds.), Cambridge: Cambridge University
Press.

Sider, T., 2001a, Pour Dimensionalism, Oxford: Oxford University Press.

Sider, T., 2001b, 'Critérios de identidade pessoal e os limites da análise


conceitual', Perspectivas Filosóficas (Volume 15: Metafísica): 189-209.

Snowdon, P., 1990, 'People, Animals, and Aurselves', em The Person and the
Human Mind, C. Gill, (ed.), Oxford: Clarendon Press.

Snowdon, P., 1996, "Pessoas e identidade pessoal", em Essays for David


Wiggins: Identity, Truth and Value, S. Lovibond e SG Williams (ed.), Oxford:
Blackwell.

Snowdon, P., 2014, Pessoas, Animais, Nós, Oxford: Oxford University Press.

Swinburne, R., 1984, 'Personal Identity: The Dualist Theory', em Shoemaker e


Swinburne, Personal Identity, Oxford: Blackwell.

Thomson, JJ, 1997, "People and Their Bodies", em Reading Parfit, J. Dancy
(ed.), Oxford: Blackwell.
Unger, P., 1979, 'I don't Exist', em Perception and Identity, GF MacDonald (ed.),
London: Macmillan, e reimpresso em Rea 1997.

Unger, P., 1990, Identidade, Consciência e Valor, Oxford: Oxford University


Press.

Unger, P., 2000, 'A Sobrevivência do Senciente', em Perspectivas Filosóficas,


14: Ação e Liberdade, J. Tomberlin (ed.), Malden, MA: Blackwell.

van Inwagen, P., 1990, Seres materiais, Ithaca: Cornell University Press.

van Inwagen, P., 1997, 'Materialism and the Psychological-Continuity Account of


Personal Identity', em Perspectivas Filosóficas 11: Mente, Causação e Mundo:
305-319, e reimpresso em van Inwagen, Ontologia, Identidade e Modalidade,
Cambridge: Cambridge University Press, 2001.

Wiggins, D., 1980, Sameness and Substance, Oxford: Blackwell.

Wilkes, K., 1988, Real People, Oxford: Clarendon Press.

Williams, B., 1956-7, 'Identidade pessoal e individuação', Proceedings of the


Aristotelian Society 57, e reimpresso em seu Problems of the Self, Cambridge:
Cambridge University Press, 1973.

Williams, B., 1970, 'The Self and the Future', Philosophical Review, 79 (2): 161-
180: reimpresso em Problems of the Self, Cambridge: Cambridge University
Press, 1973.

Wittgenstein, L., 1922, Tractatus Logico-Philosophicus, Londres: Routledge.

Wollheim, R., 1984, The Thread of Life, Cambridge: Cambridge University Press.

Zimmerman, D., 1998, 'Critérios de Identidade e os “Identity Mystics'”,


Erkenntnis, 48: 281-301.

Mentes divididas e a natureza das pessoas

Derek Parfit

Foram os casos de cérebro dividido que me atraíram para a filosofia. Nosso


conhecimento desses casos depende dos resultados de vários testes
psicológicos, conforme descrito por Donald MacKay.[1] Esses testes fizeram uso
de dois fatos. Controlamos cada um de nossos braços e vemos o que há em
cada metade de nossos campos visuais, com apenas um de nossos hemisférios.
Quando os hemisférios de alguém são desconectados, os psicólogos podem
apresentar a essa pessoa duas perguntas escritas diferentes nas duas metades
do seu campo visual e podem receber duas respostas diferentes escritas pelas
duas mãos dessa pessoa.

Aqui está uma versão imaginária simplificada do tipo de evidência que esses
testes fornecem. Uma dessas pessoas olha fixamente para o centro de uma tela
ampla, cuja metade esquerda é vermelha e a metade direita é azul. Em cada
metade, em um tom mais escuro, estão as palavras: “Quantas cores você
consegue ver?” Com as duas mãos, a pessoa escreve: “Apenas uma”. As
palavras agora são alteradas para "Qual é a única cor que você pode ver?" Com
uma das mãos, a pessoa escreve "Vermelho", com a outra, "Azul".

Se é assim que essa pessoa responde, eu concluiria que ele está tendo duas
sensações visuais - que ele, como afirma, vê vermelho e azul. Mas ao ver cada
cor, ele não está ciente de ver a outra. Ele tem dois fluxos de consciência, em
cada um dos quais ele pode ver apenas uma cor. Em um fluxo, ele vê vermelho
e, ao mesmo tempo, no outro, ele vê azul. De um modo mais geral, ele poderia
estar tendo ao mesmo tempo duas séries de pensamentos e sensações, tendo
cada um deles um desconhecimento de ter o outro.

Detalhes da publicação original: “Mentes divididas e a natureza das pessoas”,


Derek Parfit, em Mindwaves , ed. Colin Blakemore e Susan Greenfield, Basil
Blackwell, 1987, pp. 351-6, reimpresso com permissão de John Wiley and Sons,
Inc.

Esta conclusão foi questionada. Alguns afirmam que não existem duas correntes
de consciência, com o argumento de que o hemisfério sub-dominante é uma
parte do cérebro cujo funcionamento não envolve consciência. Se isso fosse
verdade, esses casos perderiam a maior parte de seu interesse. Acredito que
isso não seja verdade, principalmente porque, se o hemisfério dominante de uma
pessoa é destruído, ela é capaz de reagir da maneira pela qual, nos casos de
cérebro dividido, o hemisfério subdominante reage, e não acreditamos que tal
uma pessoa é apenas um autômato, sem consciência. O hemisfério sub-
dominante é, é claro, muito menos desenvolvido de certas maneiras, geralmente
tendo as habilidades lingüísticas de uma criança de três anos. Mas as crianças
de três anos são conscientes. Isto apoia a ideia de que, em casos de divisão do
cérebro, não são dois fluxos de consciência.

Outra visão é que, nesses casos, há duas pessoas envolvidas, compartilhando


o mesmo corpo. Como o professor MacKay, acredito que devemos rejeitar essa
visão. Minha razão para acreditar nisso é, no entanto, diferente. O professor
MacKay nega que haja duas pessoas envolvidas porque acredita que há apenas
uma pessoa envolvida. Eu acredito que, de certa forma, o número de pessoas
envolvidas é nenhum.

A teoria do ego e a teoria dos pacotes


Para explicar esse sentido, devo, por um tempo, me afastar do cérebro dividido

casos. Existem duas teorias sobre o que as pessoas são e o que está envolvido
na existência contínua de uma pessoa ao longo do tempo. Na Teoria do Ego, a
existência continuada de uma pessoa não pode ser explicada, exceto como a
existência continuada de um Ego em particular , ou sujeito a experiências. Um
teórico do ego afirma que, se perguntarmos o que unifica a consciência de
alguém a qualquer momento - o que torna verdade, por exemplo, que agora eu
posso ver o que estou digitando e ouvir o vento do lado de fora da janela - a
resposta é que essas duas coisas são experiências que estão sendo vividas por
mim, por essa pessoa, neste momento. Da mesma forma, o que explica a
unidade de toda a vida de uma pessoa é o fato de que todas as experiências
nesta vida são realizadas pela mesma pessoa ou sujeito a experiências. Em sua
forma mais conhecida, a visão cartesiana, cada pessoa é uma coisa puramente
mental persistente - uma alma ou substância espiritual.

A visão rival é a Teoria dos Pacotes. Como a maioria dos estilos artísticos -
gótico, barroco, rococó etc. - essa teoria deve seu nome a seus críticos. Mas o
nome é bom o suficiente. Segundo a Teoria dos Pacotes, não podemos explicar
a unidade da consciência a qualquer momento, nem a unidade de uma vida
inteira, referindo-se a uma pessoa. Em vez disso, devemos afirmar que há longas
séries de diferentes estados mentais e eventos - pensamentos, sensações e
similares - sendo cada série o que chamamos de uma vida. Cada série é
unificada por vários tipos de relação causal, como as relações que mantêm entre
experiências e memórias posteriores delas. Cada série é, portanto, como um
pacote amarrado com barbante.

Em certo sentido, um teórico dos bundles nega a existência de pessoas. Uma


negação direta é obviamente absurda. Como Reid protestou no século XVIII:
“Não sou pensado, não sou ação, não estou sentindo; Sou algo que pensa, age
e sente. ”Não sou uma série de eventos, mas uma pessoa. Um teórico dos
bundles admite esse fato, mas afirma que é apenas um fato sobre nossa
gramática ou nossa língua. Existem pessoas ou indivíduos dessa maneira
dependente do idioma. Se, no entanto, acredita-se que as pessoas sejam mais
do que isso - sejam coisas existentes separadamente, distintas de nossos
cérebros e corpos e os vários tipos de estados e eventos mentais - o Teórico dos
Bundes nega que existam tais coisas.

O primeiro teórico dos bundles foi Buda, que ensinou "anatta", ou a visão do Não-
Eu. Os budistas admitem que o eu ou as pessoas têm "existência nominal", pelo
que eles significam que as pessoas são apenas combinações de outros
elementos. Somente o que existe por si só, como um elemento separado, tem o
que os budistas chamam de "existência real". Aqui estão algumas citações de
textos budistas:

No início da conversa, o rei educadamente pergunta o nome do monge e recebe


a seguinte resposta: 'Senhor, sou conhecido como “Nagasena”; meus
companheiros na vida religiosa me chamam de "Nagasena". Embora meus pais
tenham me dado o nome ... é apenas uma denominação, uma forma de
expressão, uma descrição, um uso convencional. "Nagasena" é apenas um
nome, pois nenhuma pessoa é encontrada aqui. '

Um ser senciente existe, você pensa, ó Mara? Você é enganado por uma falsa
concepção. Esse conjunto de elementos é nulo do Eu, nele não existe um ser
sensível. Assim como um conjunto de peças de madeira recebe o nome de
transporte, também fornecemos elementos. O nome do ser imaginado.

Buda falou assim: 'Ó irmãos, existem ações e também suas conseqüências, mas
a pessoa que age não existe. Não há ninguém que rejeite esse conjunto de
elementos e ninguém que assuma um novo conjunto deles. Não existe indivíduo,
é apenas um nome convencional dado a um conjunto de elementos. 2

As afirmações de Buda são surpreendentemente semelhantes às afirmações


apresentadas por vários escritores ocidentais. Como esses escritores não
sabiam nada de Buda, a semelhança dessas afirmações sugere que elas não
são meramente parte de uma tradição cultural, em um período. Eles podem ser,
como eu acredito que são, verdadeiros.

O que acreditamos ser

Dados os avanços da psicologia e da neurofisiologia, a Teoria dos Pacotes pode


agora parecer obviamente verdadeira. Pode parecer desinteressante negar que
exista Egos separadamente, que são distintos de cérebros e corpos e os vários
tipos de estados e eventos mentais. Mas este não é o único problema. Podemos
estar convencidos de que a teoria do ego é falsa, ou mesmo sem sentido. A
maioria de nós, no entanto, mesmo que não tenhamos consciência disso,
também tem certas crenças sobre o que está envolvido em nossa existência
contínua ao longo do tempo. E essas crenças seriam justificadas apenas se algo
como a teoria do ego fosse verdade. A maioria de nós, portanto, tem crenças
falsas sobre o que são as pessoas e sobre nós mesmos.

Essas crenças são melhor reveladas quando consideramos certos casos


imaginários, geralmente extraídos da ficção científica. Um desses casos é o
teletransporte. Suponha que você insira um cubículo em que, ao pressionar um
botão, um scanner registre os estados de todas as células do cérebro e do corpo,
destruindo as duas ao fazê-lo. Essas informações são então transmitidas na
velocidade da luz para outro planeta, onde um replicador produz uma cópia
orgânica perfeita de você. Como o cérebro da sua réplica é exatamente igual ao
seu, parece que você se lembrou de viver sua vida até o momento em que você
pressionou o botão, o caráter dele será igual ao seu e, de qualquer outra forma,
será psicologicamente contínuo com você. Essa continuidade psicológica não
terá sua causa normal, a existência continuada do seu cérebro, uma vez que a
cadeia causal passará através da transmissão por rádio do seu "modelo".
Vários escritores afirmam que, se você optar por ser transportado por
teletransporte, acreditando ser a maneira mais rápida de viajar, estaria
cometendo um erro terrível. Esta não seria uma maneira de viajar, mas uma
maneira de morrer. Eles admitem que não pode ser tão ruim quanto a morte
comum. Pode ser um consolo para você que, após sua morte, você tenha esta
réplica, que pode terminar o livro que está escrevendo, agir como pai de seus
filhos e assim por diante. Mas, eles insistem, esta réplica não será você. Será
apenas outra pessoa que é exatamente como você. É por isso que essa
perspectiva é quase tão ruim quanto a morte comum.

Imagine a seguir um conjunto de casos, em cada um dos quais, em uma única


operação, uma proporção diferente das células do cérebro e do corpo seria
substituída por duplicatas exatas. No final desse intervalo, apenas 1 ou 2%
seriam substituídos; no meio, 40 ou 60%; perto do extremo oposto, 98 ou 99%.
No extremo desse intervalo está o teletransporte puro, o caso em que todas as
suas células seriam "substituídas".

Quando você imagina que alguma proporção de suas células será substituída
por duplicatas exatas, é natural ter as seguintes crenças. Primeiro, se você
perguntar: “Eu sobreviverei? A pessoa resultante será eu? ”, Deve haver uma
resposta para esta pergunta. Ou você sobreviverá ou estará prestes a morrer.
Segundo, a resposta a essa pergunta deve ser um simples "Sim" ou um simples
"Não". A pessoa que acorda será ou não você. Não pode haver uma terceira
resposta, como se a pessoa que acordasse fosse metade de você. Você pode
se imaginar mais tarde semi-consciente. Mas se a pessoa resultante for
totalmente consciente, ela não poderá ser metade de você. Para declarar essas
crenças juntas: para a pergunta: "A pessoa resultante será eu?", Sempre deve
haver uma resposta, que deve ser tudo ou nada.

Parece haver bons motivos para acreditar que, no caso de teletransporte, sua
réplica não seria você. Em uma pequena variação desse caso, sua réplica pode
ser criada enquanto você ainda estava vivo, para poder conversar um com o
outro. Isso parece mostrar que, se 100% de suas células fossem substituídas, o
resultado seria apenas uma réplica sua. No outro extremo da minha gama de
casos, onde apenas 1% seria substituído, a pessoa resultante seria claramente
você. Parece, portanto, que, nos casos intermediários, a pessoa resultante deve
ser você ou apenas uma réplica. Parece que um deles deve ser verdadeiro e que
faz uma grande diferença que é verdade.

Como não somos o que acreditamos

Se essas crenças estavam corretas, deve haver uma porcentagem crítica, em


algum lugar nesse intervalo de casos, até o qual a pessoa resultante seria você
e além do qual ela seria apenas sua réplica. Talvez, por exemplo, fosse você
quem acordaria se a proporção de células substituídas fosse 49%, mas se
apenas mais algumas células também fossem substituídas, isso faria toda a
diferença, fazendo com que fosse outra pessoa que acorde.
Que deve haver uma porcentagem tão crítica decorre de nossas crenças
naturais. Mas essa conclusão é mais implausível. Como algumas células podem
fazer tanta diferença? Além disso, se houver uma porcentagem tão crítica,
ninguém jamais poderá descobrir de onde veio. Como em todos esses casos a
pessoa resultante acreditaria que ele era você, nunca poderia haver nenhuma
evidência sobre onde, nesse intervalo de casos, ela deixaria de ser você de
repente.

Na teoria dos pacotes, devemos rejeitar essas crenças naturais. Como você, a
pessoa, não é uma entidade existente separadamente, podemos saber
exatamente o que aconteceria sem responder à pergunta do que acontecerá com
você. Além disso, no caso no meio do meu alcance, é uma pergunta vazia se a
pessoa resultante seria você ou se seria apenas alguém que é exatamente como
você. Não há aqui duas possibilidades diferentes, uma das quais deve ser
verdadeira. Essas são apenas duas descrições diferentes do mesmo curso de
eventos. Se 50% de suas células forem substituídas por duplicatas exatas,
poderíamos ligar para a pessoa resultante como você, ou poderíamos chamá-lo
apenas de sua réplica. Mas como não existem aqui possibilidades diferentes,
essa é uma mera escolha de palavras.

Como Buda afirmou, é difícil acreditar na Teoria dos Pacotes. É difícil aceitar que
possa ser uma pergunta vazia se alguém está prestes a morrer ou viverá por
muitos anos.

O que nos pedem para aceitar pode ficar mais claro com essa analogia. Suponha
que um determinado clube exista por algum tempo, realizando reuniões
regulares. As reuniões então cessam. Alguns anos depois, várias pessoas
formam um clube com o mesmo nome e as mesmas regras. Podemos perguntar:
“Essas pessoas reviveram o mesmo clube? Ou eles simplesmente fundaram
outro clube que é exatamente semelhante? ”Dados alguns detalhes adicionais,
essa seria outra pergunta vazia.

Poderíamos saber exatamente o que aconteceu sem responder a essa pergunta.


Suponha que alguém tenha dito: “Mas deve haver uma resposta. Mais tarde, a
reunião do clube deve ser ou não o mesmo clube. ”Isso mostraria que essa
pessoa não entendeu a natureza dos clubes.

Da mesma forma, se tivermos alguma preocupação com meus casos


imaginados, não entenderemos a natureza das pessoas. Em cada um dos meus
casos, você saberia que a pessoa resultante seria psicológica e fisicamente
exatamente como você, e que ela teria uma proporção específica de células no
cérebro e no corpo - 90% ou 10%, ou , no caso de teletransporte, 0%. Sabendo
disso, você sabe tudo. Como poderia ser uma pergunta real o que aconteceria
com você, a menos que você seja um Ego existente separadamente, distinto do
cérebro e do corpo e dos vários tipos de estado mental e evento? Se não existem
Egos, não há mais nada a fazer uma pergunta real.
Aceitar a teoria dos pacotes não é apenas difícil; também pode afetar nossas
emoções. Como Buda afirmou, isso pode minar nossa preocupação com nosso
próprio futuro. Esse efeito pode ser sugerido redesenhando essa mudança de
visão. Suponha que você esteja prestes a ser destruído, mas depois terá uma
réplica em Marte. Você naturalmente acreditaria que essa perspectiva é tão ruim
quanto a morte comum, já que sua réplica não será você. Na teoria dos pacotes,
o fato de sua réplica não ser você consiste apenas no fato de que, embora seja
totalmente psicologicamente contínua com você, essa continuidade não terá sua
causa normal. Mas quando você se opõe ao teletransporte, não se opõe apenas
à anormalidade dessa causa. Você está objetando que esta causa não terá você
a Marte. Você teme que a causa anormal falhe em produzir um fato adicional e
importante, que é diferente do fato de que sua réplica será psicologicamente
contínua com você. Você não quer apenas que haja continuidade psicológica
entre você e alguma pessoa futura. Você quer ser essa futura pessoa. Na teoria
dos bundles, não existe outro fato tão especial. O que você teme não acontecerá,
neste caso imaginado, nunca acontece. Você quer que a pessoa em Marte seja
você de uma maneira especialmente íntima, na qual nenhuma pessoa futura será
você. Isso significa que, julgado do ponto de vista de suas crenças naturais, até
a sobrevivência comum é tão ruim quanto o teletransporte. A sobrevivência
comum é tão ruim quanto ser destruída e ter uma réplica.

Como os casos de cérebro dividido apoiam a teoria dos pacotes

A verdade da teoria dos bundles me parece, no sentido mais amplo, tanto uma
conclusão científica quanto filosófica. Posso imaginar tipos de evidências que
justificariam acreditar na existência de Egos existentes separadamente, e
acreditar que a existência continuada desses Egos é o que explica a
continuidade de cada vida mental. Mas há, de fato, muito pouca evidência a favor
dessa teoria do ego, e muito da teoria alternativa dos pacotes.

Algumas dessas evidências são fornecidas pelos casos de cérebro dividido. Na


Teoria do Ego, para explicar o que unifica nossas experiências a qualquer
momento, devemos simplesmente afirmar que todas essas são experiências que
estão sendo vividas pela mesma pessoa. Os teóricos dos pacotes rejeitam esta
explicação. Esse desacordo é difícil de resolver em casos comuns. Mas
considere o caso simplificado de cérebro dividido que descrevi. Mostramos ao
meu paciente imaginado um cartaz cuja metade esquerda é azul e a metade
direita é vermelha. Em uma das duas correntes de consciência dessa pessoa,
ela percebe apenas o azul, enquanto, ao mesmo tempo, no outro, percebe
apenas o vermelho. Cada uma dessas duas experiências visuais é combinada
com outras, como a consciência de mover uma das mãos. O que unifica as
experiências, a qualquer momento, nas duas correntes de consciência dessa
pessoa? O que unifica sua consciência de ver apenas vermelho com a
consciência de mover uma mão? A resposta não pode ser que essas
experiências estejam sendo vividas pela mesma pessoa. A resposta não pode
explicar a unidade de cada uma das duas correntes de consciência dessa
pessoa, uma vez que ignora a desunião entre essas correntes. Agora, essa
pessoa está tendo todas as experiências nos dois fluxos. Se esse fato foi o que
unificou essas experiências, isso tornaria os dois fluxos um.
Afirmei que esses casos não envolvem duas pessoas que compartilham um
único corpo. Como existe apenas uma pessoa envolvida, que possui duas
correntes de consciência, a explicação do teórico do ego teria que assumir a
seguinte forma. Ele precisaria distinguir entre pessoas e sujeitos de experiências
e afirmar que, em casos de cérebro dividido, existem dois deles . O que unifica
as experiências em uma das duas correntes da pessoa teria que ser o fato de
que todas essas experiências estão sendo vividas pelo mesmo sujeito de
experiências. O que unifica as experiências no outro fluxo dessa pessoa teria
que ser o fato de que elas estão sendo vividas por outro sujeito de experiências.
Quando essa explicação assume essa forma, ela se torna muito menos
plausível. Embora pudéssemos assumir que “sujeito de experiências”, ou “ego”,
significava simplesmente “pessoa”, era fácil acreditar que existem sujeitos de
experiências. Mas se pode haver sujeitos de experiências que não são pessoas,
e se na vida de um paciente com cérebro dividido existem a qualquer momento
dois sujeitos de experiências diferentes - dois egos diferentes - por que
deveríamos acreditar que realmente existem essas coisas? Isso não significa
refutação. Mas parece-me um forte argumento contra a teoria do ego.

Como teórico dos bundles, acredito que esses dois egos são engrenagens
ociosas. Há outra explicação para a unidade da consciência, tanto em casos
comuns quanto em casos de cérebro dividido. É simplesmente um fato que as
pessoas comuns estão, a qualquer momento, conscientes de ter várias
experiências diferentes. Essa consciência de várias experiências diferentes pode
ser útil em comparação com a consciência, na memória de curto prazo, de várias
experiências diferentes. Assim como pode haver uma única lembrança de ter
passado por várias experiências, como ouvir um sino tocar três vezes, pode
haver um único estado de consciência, ao ouvir o quarto toque desse sino e ao
ver, ao mesmo tempo. , corvos voando pela torre do sino.

Diferentemente da explicação do teórico do ego, essa explicação pode ser


facilmente estendida para cobrir casos de cérebro dividido. Nesses casos, existe
a qualquer momento um estado de consciência de várias experiências
diferentes, mas dois desses estados. No caso que descrevi, há um estado de
consciência de ver apenas vermelho e mover uma mão, e outro estado de
consciência de ver apenas azul e mover a outra mão. Ao afirmar que existem
dois desses estados de consciência, não estamos postulando a existência de
entidades desconhecidas, dois Egos existentes separadamente, que não são
iguais à única pessoa envolvida no caso. Essa explicação apela para um par de
estados mentais que teriam que ser descritos de qualquer maneira em uma
descrição completa deste caso.

Sugeri como os casos de cérebro dividido fornecem um argumento para uma


visão sobre a natureza das pessoas. Devo mencionar outro argumento desse
tipo, fornecido por uma extensão imaginada desses casos, discutida em primeiro
lugar por David Wiggins. 3
Nesse caso imaginado, o cérebro de uma pessoa é dividido e as duas metades
são transplantadas para um par de corpos diferentes. As duas pessoas
resultantes vivem vidas bastante separadas. Este caso imaginado mostra que a
identidade pessoal não é o que importa. Se eu estava prestes a dividir, concluo
que nenhuma das pessoas resultantes será eu. Eu vou ter deixado de existir.
Mas esse modo de deixar de existir é tão bom - ou tão ruim - quanto a
sobrevivência comum.

Algumas das características do caso imaginado por Wiggins provavelmente


permanecerão tecnicamente impossíveis. Mas o caso não pode ser descartado,
já que sua característica mais marcante, a divisão de um fluxo de consciência
em fluxos separados, já aconteceu. Esta é uma segunda maneira pela qual os
casos reais de cérebro dividido têm grande importância teórica. Eles desafiam
algumas de nossas suposições mais profundas sobre nós mesmos. 4

Notas

1. Veja a contribuição de MacKay, capítulo 1 de Mindwaves, ed. Colin Blakemore


e Susan Greenfield (Oxford: Basil Blackwell, 1987), pp. 5-16.

2. Para as fontes dessas e de citações semelhantes, veja minhas razões e


pessoas, pp. 502-3, 532 (Oxford: Oxford University Press, 1984).

3. No final de sua identidade e continuidade espaço-temporal (Oxford: Blackwell,


1967).

4. Discuto essas suposições mais adiante na parte 3 de minhas razões e


pessoas.

Quem sou eu? O que eu sou?

Ray Kurzweil

Por que você é você?

A pergunta implícita no acrônimo YRUU (Jovens Universalistas Religiosos


Unitaristas), uma organização em que eu era ativo quando estava crescendo no
início dos anos 60 (era então chamado de LRY,

Juventude Religiosa Liberal)

O que você está procurando é quem está procurando.


São Francisco de Assis

Não sei de muitas coisas, sei o que sei se você entende o que quero dizer.

Filosofia é a conversa sobre uma caixa de cereal.

A religião é o sorriso de um cachorro ...

Filosofia é uma caminhada nas rochas escorregadias.

A religião é uma luz no nevoeiro ...

O que sou é o que sou.

Você é o que é ou o quê?

Edie Brickell, "O que eu sou"

Liberdade de vontade é a capacidade de fazer com alegria o que devo fazer.

Carl Jung

A chance do teórico quântico não é a liberdade ética dos agostinianos.

Norbert Wiener

Eu preferiria a uma morte comum, estar imerso com alguns amigos em um barril
da Madeira, até aquele momento, e depois ser lembrado de novo pelo calor solar
do meu querido país 1 . Com toda a probabilidade, vivemos em um século muito
pouco avançado, e muito perto da infância da ciência, para ver uma arte desse
tipo trazida em nosso tempo à sua perfeição.

Benjamin Franklin, 1773

Falamos anteriormente sobre o potencial de enviar os padrões de uma mente


individual - conhecimento, habilidades, personalidade, memórias - para outro
substrato. Embora a nova entidade atue como eu, a pergunta permanece: será
que realmente foi atendida?

Alguns dos cenários de extensão radical da vida envolvem a reengenharia e a


reconstrução dos sistemas e subsistemas que nossos corpos e cérebros
compõem. Ao participar dessa reconstrução, eu me perco ao longo do caminho?
Novamente, essa questão se transformará de um diálogo filosófico secular em
uma questão prática premente nas próximas décadas.

Então quem sou eu? Como estou constantemente mudando, sou apenas um
padrão? E se alguém copiar esse padrão? Eu sou o original e / ou a cópia?
Talvez eu seja esse tipo de coisa aqui - ou seja, a coleção ordenada e caótica
de moléculas que compõem meu corpo e cérebro.

Mas há um problema com esta posição. O conjunto específico de partículas que


meu corpo e cérebro compreendem são de fato completamente diferentes dos
átomos e moléculas que eu compunha há pouco tempo. Sabemos que a maioria
de nossas células é revertida em questão de semanas, e mesmo nossos
neurônios, que persistem como células distintas por um período relativamente
longo, ainda assim alteram todas as suas moléculas constituintes em um mês. A
meia-vida de um microtúbulo (um filamento de proteína que fornece a estrutura
de um neurônio) é de cerca de dez minutos. Os filamentos de actina nos
dendritos são substituídos a cada quarenta segundos. As proteínas que
alimentam as sinapses são substituídas a cada hora. Os receptores NMDA nas
sinapses permanecem por cinco dias relativamente longos.

Portanto, sou um conjunto de coisas completamente diferente do que era há um


mês, e tudo o que persiste é o padrão de organização dessas coisas. O padrão
também muda, mas lentamente e em um continuum. Sou um pouco como o
padrão que a água faz em um riacho enquanto passa correndo pelas rochas em
seu caminho. As moléculas reais da água mudam a cada milissegundo, mas o
padrão persiste por horas ou até anos.

Talvez, portanto, devêssemos dizer que sou um padrão de matéria e energia que
persiste com o tempo. Mas também existe um problema com essa definição, já
que finalmente poderemos carregar esse padrão para replicar meu corpo e
cérebro com um grau de precisão suficientemente alto para que a cópia seja
indistinguível da original. (Ou seja, a cópia pode passar no teste de Turing "Ray
Kurzweil".) A cópia, portanto, compartilhará meu padrão. Pode-se afirmar que
podemos não corrigir todos os detalhes, mas, com o passar do tempo, nossas
tentativas de criar uma réplica neural e corporal aumentarão em resolução e
precisão no mesmo ritmo exponencial que governa todas as tecnologias
baseadas em informações. Finalmente, seremos capazes de capturar e recriar
meu padrão de detalhes neurais e físicos salientes com o grau de precisão
desejado.

Embora a cópia compartilhe meu padrão, seria difícil dizer que a cópia sou eu
porque eu estaria - ou poderia - ainda estar aqui. Você pode até digitalizar e
copiar-me enquanto eu estava dormindo. Se você vier até mim de manhã e
disser: "Boas notícias, Ray, nós reinstituímos você em um substrato mais
durável, para que não precisemos mais do seu corpo e cérebro antigos", posso
implorar para diferir.

Se você fizer o experimento mental, fica claro que a cópia pode parecer e agir
como eu, mas ainda assim não sou eu. Eu posso nem saber que ele foi criado.
Embora ele tivesse todas as minhas lembranças e me lembre de ter sido eu, a
partir do momento em que ele foi criado, Ray 2 teria suas próprias experiências
únicas e sua realidade começaria a divergir da minha.

Esse é um problema real no que diz respeito à criônica (o processo de


preservação por congelamento de uma pessoa que acabou de morrer, com o
objetivo de "reanimá-la" mais tarde, quando a tecnologia existir para reverter os
danos dos estágios iniciais do processo de morte, o processo de preservação
crônico e a doença ou condição que o matou em primeiro lugar). Supondo que
uma pessoa "preservada" seja finalmente reanimada, muitos dos métodos
propostos implicam que a pessoa reanimada será essencialmente "reconstruída"
com novos materiais e até sistemas neuromorficamente equivalentes
inteiramente novos. A pessoa reanimada será, portanto, efetivamente "Raio 2"
(ou seja, outra pessoa).

Agora, vamos prosseguir um pouco mais nessa linha de pensamento, e você


verá onde o dilema surge. Se me copiamos e depois destruímos o original, esse
é o meu fim, porque, como concluímos acima, a cópia não sou eu. Como a cópia
fará um trabalho convincente de me passar por cima, ninguém pode saber a
diferença, mas ainda assim é o meu fim.

Considere substituir uma pequena parte do meu cérebro por seu equivalente
neuromórfico.

Ok, ainda estou aqui: a operação foi bem-sucedida (aliás, os nanobots finalmente
farão isso sem cirurgia). Já conhecemos pessoas assim, como aquelas com
implantes cocleares, implantes para a doença de Parkinson e outras. Agora
substitua outra parte do meu cérebro: ok, eu ainda estou aqui ... e novamente ....
No final do processo, eu ainda sou eu mesma. Nunca houve um "velho Ray" e
um "novo Ray". Sou o mesmo de antes. Ninguém nunca sentiu minha falta,
inclusive eu.

A substituição gradual de Ray resulta em Ray, de modo que a consciência e a


identidade parecem ter sido preservadas. No entanto, no caso de substituição
gradual, não há eu antigo e novo eu simultâneos. No final do processo, você tem
o equivalente do novo eu (isto é, raio 2) e não do eu antigo (raio 1). Portanto, a
substituição gradual também significa o meu fim. Portanto, podemos nos
perguntar: em que momento meu corpo e cérebro se tornaram outra pessoa?
Por outro lado (estamos ficando sem mãos filosóficas aqui), como apontei no
início desta pergunta, na verdade estou sendo continuamente substituído como
parte de um processo biológico normal. (E, a propósito, esse processo não é
particularmente gradual, mas bastante rápido.) Como concluímos, tudo o que
persiste é meu padrão espacial e temporal de matéria e energia. Mas o
experimento mental acima mostra que a substituição gradual significa o meu fim,
mesmo que meu padrão seja preservado. Então, eu estou constantemente
sendo substituído por outra pessoa que parece muito comigo, alguns momentos
antes?

Então, novamente, quem sou eu? É a última questão ontológica, e


frequentemente nos referimos a ela como a questão da consciência. Eu
conscientemente (trocadilhos) expressei o problema inteiramente na primeira
pessoa, porque essa é a sua natureza. Não é uma pergunta de terceira pessoa.
Portanto, minha pergunta não é "quem é você?", Embora você queira fazer essa
pergunta você mesmo.

Quando as pessoas falam de consciência, muitas vezes se esquecem de


considerações de correlatos comportamentais e neurológicos da consciência
(por exemplo, se uma entidade pode ou não ser auto-reflexiva). Mas essas são
questões de terceira pessoa (objetivas) e não representam o que David
Chalmers chama de "questão difícil" da consciência: como a matéria (o cérebro)
pode levar a algo tão aparentemente imaterial quanto a consciência?

A questão de saber se uma entidade é consciente ou não é aparente apenas


para si mesma. A diferença entre correlatos neurológicos da consciência (como
comportamento inteligente) e a realidade ontológica da consciência é a diferença
entre a realidade objetiva e subjetiva. É por isso que não podemos propor um
detector de consciência objetivo sem suposições filosóficas embutidas nele.

Acredito que nós, seres humanos, aceitaremos que as entidades não biológicas
são conscientes, porque, em última instância, as entidades não biológicas terão
todas as dicas sutis que os humanos possuem atualmente e que associamos a
experiências emocionais e outras experiências subjetivas. Ainda assim,
enquanto poderemos verificar as pistas sutis, não teremos acesso direto à
consciência implícita.

Reconheço que muitos de vocês parecem conscientes para mim, mas não devo
ser muito rápido para aceitar essa impressão. Talvez eu esteja realmente
vivendo uma simulação, e vocês todos façam parte dela.

Ou talvez sejam apenas minhas lembranças suas e essas experiências reais


nunca ocorreram.

Ou talvez eu esteja apenas agora experimentando a sensação de recordar


memórias aparentes, mas nem a experiência nem as memórias realmente
existem. Bem, você vê o problema.
Apesar desses dilemas, minha filosofia pessoal permanece baseada no padrão
- sou principalmente um padrão que persiste no tempo. Sou um padrão em
evolução e posso influenciar o curso da evolução do meu padrão. O
conhecimento é um padrão, diferentemente da mera informação, e a perda de
conhecimento é uma perda profunda. Assim, perder uma pessoa é a derradeira
derrota.

Relatório sobre livre arbítrio e determinismo no mundo das minorias

Michael Huemer

Howard Marks está no quarto, colocando os óculos, quando um grupo de


policiais armados invade, o aborda freneticamente e dá um tapa em suas
restrições. Eles estão presos, eles explicam, pelo "assassinato futuro" de Sarah
Marks e Donald Dubin, um crime passional que ocorreria apenas alguns
segundos depois, quando ele encontrou sua esposa na cama com seu amante.
Assim começa o Minority Report de Steven Spielberg . 1 Essas prisões foram
possibilitadas pelos “precogs”, um trio de indivíduos prescientes que trabalham
para a polícia que prevêem crimes que ocorrerão se a polícia não intervir. Com
a percepção dos precogs, a polícia é capaz de prevenir esses crimes e aprisionar
os possíveis criminosos. Naturalmente, os acusados protestam contra sua
inocência: eles realmente não cometeram nenhum crime no momento em que
foram presos. O estado argumenta que o acusado teria cometido crimes se não
fosse pela intervenção da polícia "Pré-Crime". Como explica um dos policiais: "O
fato de você impedir que isso aconteça não muda o fato de que isso iria
acontecer".

No entanto, parece que os indivíduos punidos pelas leis do Precrime têm uma
defesa filosófica convincente disponível: se, como afirma um oficial do Precrime,
"os precogs vêem o futuro e nunca estão errados", isso pode significar apenas
que o futuro é predeterminado . A única maneira pela qual o futuro
predeterminado, visto pelos pré-códigos, pode ser evitado, somos levados a
acreditar, é pela influência dos próprios pré-códigos (o conhecimento do futuro
futuro permite evitá-lo). Isso significa que Howard Marks, por exemplo, não
poderia ter evitado seu destino - sem a intervenção do

Detalhes da publicação original: “ Relatório sobre livre arbítrio e determinismo no


mundo das minorias” Michael Huemer. Cortesia de M. Huemer.

Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley Sc Sons, Inc.
precogs e o Departamento de Precrime, ele não poderia simplesmente ter
escolhido não matar Sarah Marks e Donald Dubin. Mas se é assim - se nossos
destinos são pré-determinados e não há livre-arbítrio -, parece injusto puni-lo
pelo que ele faria. É injusto punir alguém pelo que ele não é responsável e, a
menos que tenhamos livre-arbítrio, não somos responsáveis por nada.

Mais tarde, no filme, há indícios de que os indivíduos têm uma certa medida de
livre-arbítrio, afinal. Aprendemos que ocasionalmente um dos precogs vê um
futuro possível diferente daquele visto pelos outros dois, produzindo um dos
“relatórios minoritários” de mesmo nome. E perto do fim, um dos precogs insiste
que John Anderton ainda pode optar por não cometer um assassinato, apesar
de sua própria visão presciente do assassinato e apesar do fato de Anderton não
ter nenhum relatório minoritário. Parece, no entanto, que a capacidade de
Anderton de evitar seu futuro destino se deve apenas ao seu conhecimento da
própria previsão dos precogs - os precogs, ao fazerem suas previsões, alteram
o sistema cujo comportamento eles estão prevendo, invalidando essas
previsões. Este último detalhe é perfeitamente consistente com a ideia de que o
futuro é, no entanto, predeterminado. A existência de relatórios minoritários,
então, é a única evidência no filme de que os indivíduos (às vezes) têm liberdade
genuína.

De qualquer forma, no entanto, o sistema Precrime parece eticamente


condenado: se os supostos criminosos futuros não têm livre-arbítrio, é injusto
puni-los, pois eles não são moralmente responsáveis pelo que teriam feito. Se
os supostos futuros criminosos tiverem livre arbítrio, será injusto puni-los, pois
não podemos ter certeza suficiente de que eles realmente teriam cometido o
crime pelo qual devem ser punidos. Ou então, de qualquer forma, os réus podem
argumentar.

Determinismo rígido e a ameaça ao livre arbítrio

Tradicionalmente, acredita-se que ter livre-arbítrio requer duas coisas:


possibilidades alternativas e autocontrole. Ou seja, uma pessoa é livre somente
se (a) houver mais de um futuro aberto para ela, mais de um curso de ação que
ele possa executar e (b) ele controlar suas próprias ações, de modo que quais
das alternativas alternativas é realizado é com ele. Portanto, considere um robô
com cérebro de computador. O cérebro do computador do robô determina todas
as suas ações de acordo com um programa definido. Não há elementos
aleatórios no programa, e o robô deve sempre responder a um determinado
conjunto de entradas de uma maneira específica. Intuitivamente, o robô não tem
livre-arbítrio porque não possui possibilidades alternativas: mesmo que o robô
controle suas próprias ações, ele tem apenas uma possibilidade em aberto a
qualquer momento. Por outro lado, considere um átomo radioativo simples com
50% de chance de decair na próxima hora; se deteriora ou não, é uma questão
de puro acaso. Intuitivamente, o átomo também não tem livre arbítrio. Isso ocorre
porque, embora o átomo tenha dois possíveis futuros alternativos, ele não pode
exercer controle sobre qual possibilidade ele realiza. Esses dois exemplos
ilustram por que as condições (a) e (b) são necessárias para o livre arbítrio.

Tradicionalmente, a principal ameaça ao livre-arbítrio - a principal razão para


duvidar disso - vem do determinismo , uma visão segundo a qual, dado o estado
do mundo a qualquer momento, apenas um futuro é possível. Por que alguém
acreditaria nisso? Há pelo menos duas razões importantes. Primeiro: a maioria
das pessoas que acredita em Deus acredita que Deus é onisciente. Se Deus é
onisciente, então Ele deve saber tudo o que acontecerá no futuro. Mas se Deus
já sabe o que vai acontecer, parece que não há possibilidades alternativas; os
eventos devem se desenrolar como Deus os previu. Se Deus agora sabe, por
exemplo, que vou cometer um assassinato amanhã, não posso deixar de
cometer o assassinato. Existe atualmente um fato ou estado de coisas
(conhecimento de Deus) que é inconsistente com a minha não cometer o
assassinato, então eu tenho que cometê-lo.

Segundo: muitos cientistas e filósofos pensaram que as leis da natureza são


determinísticas. Essas leis incluem as leis do movimento de Newton, a lei da
gravidade, as leis que regem os campos elétrico e magnético e assim por diante.
Dizer que essas leis são determinísticas é dizer que, dado o estado de um
sistema físico em algum momento, as leis prescrevem uma evolução futura
única. Por exemplo, a Segunda Lei de Newton nos diz que a taxa na qual o
momento de um corpo muda é determinada pelas forças que atuam nele; dadas
as forças, há apenas um valor possível para essa taxa de mudança. Na física
clássica, essas forças são determinadas exclusivamente pelas propriedades e
pelo arranjo das partículas que compõem um sistema físico - dadas essas
propriedades e arranjos, existe apenas um valor possível para a força líquida
que atua sobre qualquer partícula do sistema. Portanto, dado um sistema de
partículas com certas propriedades e em um determinado arranjo, existe apenas
uma maneira de esse sistema evoluir ao longo do tempo.

Para aplicar essa idéia à ação humana, suponha que eu tenha acabado de
cometer um assassinato disparando uma arma contra alguém. Para que eu não
tivesse cometido o assassinato, dadas as circunstâncias, as partículas que
compõem meu dedo no gatilho teriam que não se mover da maneira que o
fizeram. Meu dedo se moveu da maneira que fazia por causa da contração dos
músculos do meu braço, causada por impulsos elétricos que viajavam do meu
cérebro para os nervos do meu braço. Esses impulsos elétricos foram causados
por processos químicos e elétricos no meu cérebro, que por sua vez foram
causados por eventos eletroquímicos anteriores, juntamente com outros
impulsos elétricos que entraram no meu cérebro a partir dos meus órgãos
sensoriais. Todos esses eventos foram governados pelas leis da química e da
física. Eu não poderia ter agido de maneira diferente, a menos que o padrão de
atividade elétrica no meu cérebro na época fosse diferente, e o padrão de
atividade elétrica no meu cérebro não poderia ter sido diferente, a menos que
algo mais cedo - seja o meu estado cerebral anterior ou as influências no meu
cérebro. cérebro vindo do meu ambiente - tinha sido diferente. E, é claro, meu
estado cerebral em um período anterior foi causado por eventos que ocorreram
ainda mais cedo, e assim por diante. Por fim, para que eu tivesse agido de
maneira diferente, algo teria que ter sido diferente em todos os tempos
anteriores, remontando ao tempo do Big Bang. Parece resultar disso que me
falta o livre arbítrio, porque não tenho possibilidades alternativas à minha
disposição. Esta é a visão dos deterministas rígidos: que, como o determinismo
é verdadeiro, ninguém tem livre-arbítrio. 2

Tradicionalmente, isso é considerado importante - e preocupante - porque se


pensa que, a menos que tenhamos livre-arbítrio, não seremos responsáveis por
nossas ações. Isso significaria, entre outras coisas, que ninguém mereceria
elogios ou culpas por qualquer coisa que fizessem. (Eu não poderia ser culpado
por esse assassinato que cometi - por outro lado, o estado também não poderia
ser culpado por me aprisionar.)

O argumento apresentado, no entanto, depende da física clássica. Nos tempos


modernos, a física clássica, que era inquestionavelmente determinística, foi
substituída pela mecânica quântica. A interpretação da mecânica quântica ainda
está em disputa: alguns cientistas e filósofos dizem que a mecânica quântica
refutou o determinismo (essa é a interpretação mais comum), enquanto outros
continuam a favorecer versões determinísticas da mecânica quântica. 3

O gambito determinista suave

Historicamente, a visão mais popular entre os filósofos é aquela que a maioria


dos não-filósofos jamais consideraria: é que liberdade e determinismo são
perfeitamente compatíveis. Determinismo suave é a visão de que o
determinismo é verdadeiro, e ainda assim temos livre-arbítrio. 4 Isso pode
parecer contraditório. Como os filósofos pensaram que poderiam defender isso?

Normalmente, os deterministas suaves começam analisando conceitos como


liberdade, possibilidade e controle. Acima, ao estabelecer a posição determinista
rígida, assumimos que, se apenas um futuro é consistente com o passado e as
leis da natureza, então apenas um futuro é possível e, portanto, não há
possibilidades alternativas do tipo necessário para o livre arbítrio. Os
deterministas suaves, no entanto, afirmam que há mais de um sentido de
"possível" e que, em certo sentido, apenas um futuro é possível, há outro sentido
de "possível", relevante para o livre arbítrio, no qual existem múltiplos possíveis.
futuros. Para tirar uma ilustração simples, um determinista suave pode propor a
seguinte definição de "pode":

Observe que, nesse sentido, uma pessoa pode ter possibilidades alternativas -
várias ações, cada uma das quais pode executar - mesmo que todas as suas
ações sejam determinadas por causas antecedentes. Para ver isso, imagine o
seguinte: Eu vivo em um mundo em que todos os eventos são determinados por
causas anteriores. As leis deste mundo determinam que minha tentativa de fazer
A nas minhas circunstâncias atuais resultaria em fazer com êxito A, enquanto
que minha tentativa de fazer B (uma ação alternativa incompatível) nessas
circunstâncias resultaria em minha realização bem-sucedida B. As leis e o
passado também determina que, de fato, tentarei fazer A e não tentarei fazer B.
Tudo isso é consistente. E nessa situação, o determinismo é verdadeiro, mas
ainda tenho possibilidades alternativas no sentido definido acima: ou seja,
existem duas ações, A e B, de modo que, se eu tentasse fazer uma delas, teria
sucesso; portanto, essas são duas ações que eu "posso" executar.

Outra maneira de defender o determinismo suave é argumentar que ser livre


significa estar livre de impedimentos externos à ação, ou que a liberdade exige
apenas que as ações sejam determinadas por causas internas (por exemplo,
pelas próprias crenças, valores e desejos) ), e não por forças externas (por
exemplo, forças físicas de fora ou coerção impostas por outras pessoas). Se isso
estiver correto, a liberdade será compatível com o determinismo; o determinismo
exige que todas as ações de alguém sejam causalmente determinadas, mas não
que as causas sejam inteiramente externas e não internas.

Outra linha de pensamento pressionada por alguns deterministas suaves


sustenta que a liberdade realmente requer determinismo. Pois, dizem eles, se o
determinismo fosse falso e nossas ações não fossem determinadas por causas
antecedentes, essas ações seriam meramente ocorrências aleatórias, e o que é
aleatório não está sob o controle de ninguém. Como o livre arbítrio requer
autocontrole, não teríamos o livre arbítrio. Suponha, por exemplo, que, embora
eu não tenha vontade de ficar de cabeça erguida cantando o hino nacional agora,
ainda há uma chance de que eu acabe fazendo isso de qualquer maneira,
motivada por nenhum desejo, crença ou outra motivação minha. . Essa
possibilidade não me deixaria livre ; ao contrário, pareceria me deixar livre. A
única maneira de controlar nossas ações e decisões é fazendo com que elas
sejam causadas por nossos pensamentos e motivações internas. O
indeterminismo não apenas não nos ajuda com isso, mas também impede a
satisfação dessa pré-condição de liberdade. Certamente, então - se temos uma
noção coerente de livre arbítrio - o livre arbítrio não requer indeterminismo.

Embora os argumentos acima tenham alguma plausibilidade, eles parecem


menos convincentes do que algumas das objeções ao determinismo suave. Aqui
está uma objeção ao determinismo suave: “Se o determinismo é verdadeiro,
então nossos atos são as consequências das leis da natureza e dos eventos no
passado remoto. Mas não cabe a nós o que aconteceu antes de nascermos, nem
a nós quais são as leis da natureza. Portanto, as consequências dessas coisas,
incluindo nossos atos atuais, não dependem de nós. ” 6 Aqui está outra maneira
de colocar esse argumento. Parece que não tenho acesso a nenhum futuro
possível em que as leis da natureza sejam diferentes daquilo que realmente são,
nem em que uma lei da natureza seja violada. Por exemplo, não tenho acesso a
nenhum futuro possível em que a conservação do momento seja violada (não
posso agir de maneira que o momento não seja conservado). Parece também
que não tenho acesso a nenhum mundo possível em que o passado seja
diferente do que realmente era. Por exemplo, não tenho acesso a uma situação
possível em que, em vez de ser derrotado em Waterloo em 1815 (como ele
realmente era), Napoleão triunfa em Waterloo. Agora, se o determinismo é
verdadeiro, existe apenas um futuro possível em que o passado permanece
como realmente era e todas as leis reais da natureza são obedecidas; qualquer
futuro "possível" alternativo teria que ser aquele em que o passado ou as leis
sejam diferentes. Portanto, não tenho acesso a nenhum futuro alternativo. Como
o livre-arbítrio requer possibilidades alternativas, se o determinismo é
verdadeiro, não tenho livre-arbítrio.

Considere uma ilustração simples. Imagine que você é um médico na sala de


emergência de um hospital, onde uma vítima de ataque cardíaco acaba de
entrar. Suponha que você saiba, com base nas leis da bioquímica e na fisiologia
do corpo humano, que, para tal Para que o paciente seja revivido, a RCP deve
ser administrada dentro de três minutos após o ataque cardíaco. Suponha que
você também saiba que já passaram quatro minutos, durante os quais ninguém
realizou RCP. Você não estaria justificado em deduzir que, neste ponto, não
pode reviver o paciente? 7 Se o determinismo é verdadeiro, estamos todos em
uma posição semelhante em relação a tudo que deixamos de fazer, à posição
do médico em relação à salvação da vítima de ataque cardíaco: para qualquer
coisa que você não faça, você está fazendo exigiria que algo tivesse acontecido
no passado que de fato não aconteceu. Parece que, se o determinismo for
verdadeiro, você não poderá fazer nada além do que realmente faz e, portanto,
não terá livre-arbítrio.

Em nome da liberdade

Até agora, discuti a ameaça ao livre-arbítrio representada pelo determinismo,


descobrindo que os deterministas suaves não conseguiram neutralizar essa
ameaça. A outra posição importante no debate do livre-arbítrio, às vezes
chamada de libertarianismo (que não deve ser confundida com a filosofia política
de mesmo nome), sustenta que o livre-arbítrio existe e que isso é incompatível
com o determinismo; portanto, o determinismo é falso. Por que devemos
acreditar no livre arbítrio?

Uma coisa que se costuma dizer é que, quando fazemos escolhas, pelo menos
uma parte do tempo, temos consciência direta e introspectiva de nossa
liberdade. Por exemplo, imagine-se na posição de John Anderton perto do final
do Minority Report. Tendo sido informado de que ele matará Leo Crow, Anderton
agora se vê cara a cara com Crow, segurando uma arma contra Crow e
decidindo se deve pressionar o gatilho. Enquanto você fica ali deliberando, não
haveria uma sensação inabalável de que você poderia escolher de qualquer
maneira? Deterministas rígidos afirmam que esse sentido é meramente uma
"ilusão". Mas não é mais plausível supor que as coisas são como elas aparecem,
até prova em contrário? Que evidência contrária os deterministas podem
avançar que é mais convincente do que esse sentido de que possuímos
liberdade de escolha?

Outro argumento popular é que o determinismo rígido é, de uma maneira ou de


outra, uma posição autodestrutiva . Essa idéia remonta a Epicuro, no século IV
aC, que escreve: “O homem que diz que todas as coisas acontecem por
necessidade não pode criticar aquele que nega que todas as coisas acontecem
por necessidade: pois ele admite que isso também acontece com as coisas. .
necessidade” 8 a observação fundamental do argumento auto-destrutivo é que
se o determinismo é verdade, então ele se aplica tanto às nossas crenças e
afirmações - incluindo crenças e afirmações sobre o determinismo - como faz
para nossas outras ações. Se tudo o que acontece é determinado pelas leis
causais que governam os movimentos das partículas subatômicas, então o
determinista dizendo e acreditando que, assim como a negação de seu
oponente, são determinados pelas leis causais que governam os movimentos
das partículas subatômicas. Alguns pensam que isso prejudica qualquer
pretensão de saber o determinismo é verdade, uma vez que as partículas
subatômicas responder apenas às forças físicas bruta, e não a lógica ou
evidência; portanto, a crença no determinismo em si seria determinada apenas
por forças físicas brutas e não por lógica ou evidência. 9 O sucesso dessa versão
do argumento autodestrutivo se refere ao fato de o determinista fisicalista poder
dar uma explicação plausível de quais “razões” e “evidências” são em termos
puramente físicos (em termos das atividades de partículas e campos
subatômicos).

Outra versão do argumento autodestrutivo sustenta que, ao fazer afirmações e


envolver-se em argumentação ou raciocínio em primeiro lugar, o determinista
está comprometido em aceitar certas normas (princípios sobre o que se deve ou
não fazer) que estão implícitas nessas atividades. Com isso, quero dizer que
certas normas são tão importantes para essas atividades que não se pode
realmente se engajar na atividade sem aceitar essas normas em algum nível.
Por exemplo, temos uma regra de que não se deve afirmar o que não é
verdadeiro, e essa regra define parcialmente o que é uma afirmação. Se alguém
faz uma afirmação, mantendo ao mesmo tempo que a sua expressão não é
governada por esta regra - isto é, que a sua expressão não deve corresponder
à realidade -, a expressão de uma pessoa não é uma afirmação genuína. Por
exemplo, uma pessoa que fala frases em uma peça ou escreve um romance está
isenta da norma de dizer a verdade, mas, da mesma forma, não está afirmando
genuinamente o que diz. Naturalmente, isso não quer dizer que as pessoas não
possam mentir ou que mentiras não contam como afirmações. Falar falsamente
é como violar as regras do xadrez: se alguém quebra clandestinamente as regras
do xadrez, está apenas trapaceando, mas se se recusa a reconhecer que as
regras do xadrez se aplicam ao que se está fazendo, então simplesmente não
está jogando xadrez. . 10 Uma ideia relacionada é que a prática do raciocínio é
governada implicitamente pela regra de que se deve formar apenas crenças
justificadas (racionais) e evitar crenças injustificadas; se de modo algum se
aceita esta norma - por exemplo, se se considera que as crenças arbitrárias são
menos preferidas que as crenças racionais -, então não se está envolvido em
raciocínio genuíno.

Se isso estiver certo, o determinista, na medida em que tenta defender


racionalmente sua posição, deve aceitar pelo menos alguns princípios
normativos que governam suas afirmações e pensamentos. Esses princípios
normativos podem ser difíceis de conciliar com o determinismo (de fato, a
aceitação de qualquer princípio normativo pode ser irreconciliável com o
determinismo). A dedução a seguir mostra uma maneira de trazer à tona o
problema:
1. Deveríamos abster-nos de aceitar crenças injustificadas. (Premissa;
pressuposição do raciocínio.)

2. Dizer que alguém deve fazer algo implica que alguém pode fazê-lo.
(Premissa.)

3. Para que possamos abster-se de aceitar crenças injustificadas. (De 1, 2.)

4. Suponha que o determinismo rígido seja verdadeiro. Então o que realmente


fazemos é a única coisa que podemos fazer - ou seja, o que pode ser feito é
feito. (Suposição, definição de determinismo rígido).

5. Portanto, não temos crenças injustificadas. (De 3, 4.)

6. Muitas pessoas acreditam no livre arbítrio. (Premissa.)

7. Portanto, a crença no livre arbítrio é justificada. (De 5, 6.)

A conclusão em (7) é presumivelmente uma que o determinista rígido gostaria


de evitar; no entanto, segue logicamente de (1), (2), (4) e (6). O determinista
rígido aceita (4). (6) pode ser estabelecido conversando com algumas pessoas
comuns ou observando como as pessoas falam e se comportam,
responsabilizando outras pessoas por suas ações e assim por diante. (2) é um
princípio quase universalmente aceito entre os filósofos - não se pode admitir
que algo é impossível e depois dizer às pessoas que devem fazê-lo de qualquer
maneira. Parece, portanto, que (1) é a única premissa que o determinista rígido
pode questionar. Mas é aqui que entra a carga autodestrutiva; se o determinista
rígido nega (1), ele está rejeitando uma suposição implícita na própria prática da
reflexão racional na qual ele pretende estar envolvido.

O ponto não é que a dedução acima prove que temos livre-arbítrio. Pelo
contrário, o ponto é que não é racional adotar o determinismo rígido, pois o
determinismo rígido, em conjunto com as normas implícitas no raciocínio, leva a
uma conclusão que mina racionalmente o próprio determinismo rígido.

O veredicto sobre o pré-crime

Os filósofos continuam a debater se existe livre-arbítrio, o que exatamente


significa e se a realidade do livre-arbítrio é compatível com a verdade do
determinismo. À luz do debate filosófico sobre livre arbítrio, o que um filósofo
deve dizer sobre o sistema Precrime imaginado por Spielberg?

Os personagens do Minority Report interpretam a existência de relatórios


minoritários como evidência do livre arbítrio ou, pelo menos, da existência de
possibilidades alternativas que as pessoas lhes abrem. Um determinista (rígido
ou flexível) interpretaria os relatórios minoritários como evidência da falibilidade
dos pre-cogs - talvez o futuro seja predeterminado, mas às vezes um dos pre-
cogs comete um erro sobre o que vai acontecer. Pode-se considerar isso como
base para o abandono do sistema Precrime - até que se lembre de que qualquer
sistema de justiça criminal é falível. O sistema tradicional de julgar suspeitos
depois do fato também resulta em punição de pessoas inocentes; portanto,
devemos abandonar o sistema Precrime apenas se os pré-dentes dentarem
pessoas inocentes a uma taxa maior do que o sistema tradicional. Ainda assim,
um determinista rígido provavelmente rejeitaria a idéia de punição retributiva , já
que as pessoas não têm controle sobre o que fazem; em vez disso, o
determinista rígido provavelmente preferiria simplesmente agir de modo a
impedir que crimes previstos (e outros crimes) aconteçam.

Por outro lado, um libertário provavelmente interpretaria a existência de


relatórios minoritários como refletindo a realidade da liberdade humana. Sob
esse ponto de vista, pelo menos uma parte do tempo, ainda não está
determinado se uma pessoa cometerá um determinado crime ou não, e é por
isso que os pré-dentistas discordam. Nos casos em que o futuro de uma pessoa
ainda não está determinado, ele não deve ser punido por um crime futuro,
mesmo que provavelmente o cometa. Isso ocorre porque apenas a decisão real
pela qual o indivíduo trava no futuro em que ele comete o crime o tornaria
merecedor de punição; antes que essa decisão seja tomada, não há fato ou
situação existente que o torne um "futuro criminoso" ou que mereça ser punido.

Por fim, as pessoas no Minority Report provavelmente tomaram a decisão certa


em abolir o sistema Precrime, mas pelas razões erradas. O motivo errado para
abolir o Precrime é que o sistema é falível. O motivo certo é que os indivíduos
têm livre-arbítrio e não merecem punição por ações futuras, por mais prováveis
que ainda não sejam determinadas.

Notas

1. 20th Century Fox, 2002. Baseado livremente em "The Minority Report", de


Philip K. Dick (The Minority Report e Outras Histórias Clássicas, Nova York:
Kensington, 2002, pp. 71-102). A história de Dick é muito diferente do filme.

2. Baron d'Holbach (System of Nature, Nova York: Garland Publishing, 1984;


originalmente publicado em 1770) está entre os poucos defensores do
determinismo rígido na história filosófica. Nos tempos modernos, os negadores
do livre-arbítrio têm maior probabilidade de argumentar que nos falta o livre-
arbítrio, independentemente de o determinismo ser ou não verdadeiro (ver Derek
Pereboom, Viver sem livre-arbítrio, Cambridge: Cambridge University Press,
2001).

3. Ver Mecânica Quântica e Experiência de David Albert (Cambridge, MA:


Harvard University Press, 1992) para uma introdução informativa, mas
razoavelmente acessível, às questões que envolvem a interpretação da
mecânica quântica. Karl Popper e John Eccles (The Self and Its Brain, Berlim:
Springer International, 1977) argumentam que a mecânica quântica abre espaço
para o livre arbítrio.

4. Veja WT Stace ( Religião e a Mente Moderna, Nova York: JB Lippincott, 1960,


capítulo 11) ou Daniel Dennett (Freedom Evolves, Nova York: Viking, 2003) para
uma defesa acessível do determinismo suave.

5. Essa definição específica é simplificada demais e é refutada por JL Austin (“Ifs


and Cans”, Philosophical Papers, 2ª edição, Oxford: Oxford University Press,
1970); no entanto, pode ser usado para ilustrar a estratégia determinista geral
suave, e pontos semelhantes podem ser feitos para definições mais sofisticadas.

6. Citado por Peter van Inwagen, Um ensaio sobre livre arbítrio (Oxford:
Clarendon Press, 1983), p. 56

7. Este exemplo é do meu “Argumento de Consequência de Van Inwagen”,


Philosophical Review 109 (2000): 524 ^ 13.

8. Epicuro: Os Restantes Restantes, tr. Cyril Bailey (Hildesheim, Alemanha:


Georg Olms Verlag, 1975), p. 113

9. Esse tipo de argumento aparece em JR Lucas (A Liberdade da Vontade,


Oxford: Clarendon Press, 1970, pp. 114-16) e Karl Popper e John Eccles (The
Self and Its Brain, pp. 75-81).

10. Para estender a analogia, observe que é possível violar as regras do xadrez
por mi.stake, assim como alguém pode violar por engano as regras que
governam a afirmação; também é possível ter uma justificativa para trapacear
em um jogo, assim como alguém pode ter uma justificativa para mentir, mas em
ambos os casos alguém ainda está violando as regras que regem a atividade.

Timothy Williamson ( Conhecimento e seus limites, Oxford: Oxford University


Press, capítulo 11) defende a visão mais forte de que a regra que governa a
afirmação é que se deve afirmar apenas o que se sabe ser verdade.

Trecho de “O Livro da Vida: Uma Experiência de Pensamento”

Alvin I. Goldman

Enquanto navego pela biblioteca um dia, noto um tomo velho e empoeirado, bem
grande, intitulado “Alvin I. Goldman”. Pego na prateleira e começo a ler. Em
grandes detalhes, descreve minha vida como um menino. Sempre mexe com
minha memória e às vezes revive minha memória de eventos esquecidos.
Percebo que isso pretende ser um livro da minha vida e resolvo testá-lo.
Passando para a seção com a data de hoje, encontro a seguinte entrada às
14:36 “Ele me descobre na prateleira. Ele me pega no chão e começa a me ler
... - Olho para o relógio e vejo que são 3:03. É bastante plausível, digo para mim
mesmo, ter encontrado o livro cerca de meia hora atrás. Passo agora para a
entrada às 3:03. Diz: “Ele está me lendo. Ele está me lendo. Ele está me lendo.
”Continuo olhando o livro neste lugar, enquanto penso como o livro é notável. A
entrada diz: "Ele continua a olhar para mim, enquanto pensa como eu sou
notável."

Decido derrotar o livro olhando para uma entrada futura. Entro em uma entrada
daqui a 18 minutos. Ele diz: “Ele está lendo esta frase.” Ah, digo para mim
mesmo, tudo o que preciso fazer é não ler essa frase daqui a 18 minutos. Eu
verifico o relógio. Para garantir que não vou ler essa frase, fecho o livro. Minha
mente divaga; o livro reviveu uma memória oculta e eu lembro disso. Decido reler
o livro e reviver a experiência. Isso é seguro, digo a mim mesmo, porque é uma
parte anterior do livro. Li essa passagem e me perdi em devaneios e reacendi a
emoção. O tempo passa. De repente eu começo. Ah, sim, pretendia refutar o
livro. Mas qual foi o tempo do

Detalhes da publicação original: “O Livro da Vida: Uma Experiência de


Pensamento”, Alvin I. Goldman, “Ações, Previsões e Livros da Vida”, American
Philosophical Quarterly, 5.3 (1968), pp. 22-3.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

ação listada ?, pergunto-me, eram 3:19, não era? Mas agora são 3:21, o que
significa que eu já refutei o livro. Deixe-me verificar e ter certeza. Inspeciono o
livro na entrada às 3:17. Hmm, esse parece ser o lugar errado, pois diz que estou
em um devaneio. Eu pulo algumas páginas e de repente meus olhos pousam na
frase: “Ele está lendo esta frase.” Mas é uma entrada para o aviso de 3: 21,1!
Então eu cometi um erro. A ação que eu pretendia refutar deveria ocorrer às
3:21, e não às 3: 19.1, olhando para o relógio, e ainda é às 3: 21.1 que, apesar
de tudo, não refutaram o livro. Goldman seria capaz de falsificar as previsões
feitas em seu "livro da vida"? Se não, isso prova que o mundo e nossas vidas
estão determinados?

Mente: Natural, Artificial, Híbrida e Superinteligente

Trabalhos relacionados

Transcendência
2001: Uma Odisséia no Espaço

Humanos

Blade Runner

AI

Frankenstein Accelerando O Exterminador do Futuro I, Robot Neuromancer


Últimos e Primeiros Homens Voz do Mestre O Fogo Sobre os Solares Profundos

Histórias da sua vida

12

Sonhos de robô

119

Isaac Asimov

13

Um cérebro fala

125

Andy Clark

14

Cyborgs Unplugged
130

Andy Clark

15 Superinteligência e singularidade Ray Kurzweil

16 A singularidade: uma análise filosófica 171 David J. Chalmers

17 mentes alienígenas 225 Susan Schneider

Sonhos de robô

Isaac Asimov "Ontem à noite sonhei", disse LVX-1, calmamente.

Susan Calvin não disse nada, mas seu rosto tenso, velho de sabedoria e
experiência, parecia sofrer uma contração microscópica.

“Você ouviu isso?” Disse Linda Rash, nervosa. "É como eu te disse." Ela era
pequena, morena e jovem. Sua mão direita se abriu e fechou, repetidas vezes.

Calvin assentiu. Ela disse calmamente: "Elvex, você não se mexerá, nem falará
nem nos ouvirá, até que eu diga seu nome novamente."

Não houve resposta. O robô estava sentado como se fosse expulso de um


pedaço de metal, e permaneceria assim até ouvir seu nome novamente.

Calvin disse: “Qual é o código de entrada do seu computador, Dr. Rash? Ou


insira você mesmo se isso lhe deixar mais confortável. Eu quero inspecionar o
padrão cerebral positrônico.

As mãos de Linda se atrapalharam por um momento com as teclas. Ela


interrompeu o processo e começou de novo. O padrão fino apareceu na tela.

Calvin disse: "Sua permissão, por favor, para manipular seu computador".

A permissão foi concedida com um aceno sem palavras. Claro! O que Linda,
uma robopsicóloga nova e não comprovada, poderia fazer contra a Lenda Viva?
Lentamente, Susan Calvin estudou a tela, movendo-a para baixo e para cima,
depois para cima, e de repente jogando uma combinação de teclas tão
rapidamente que Linda não viu o que havia sido feito, mas o padrão exibia uma
nova porção de

Detalhes da publicação original: “Robot Dreams”, Isaac Asimov, em Robot


'Dreams , Byron Preiss Visual Publications Inc., 1986, pp. 25-50. Copyright © por
Isaac Asimov. Reproduzido com permissão da Asimov Holdings LLC.

Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

completamente e havia sido ampliado. Ela foi de um lado para o outro, os dedos
nodosos tropeçando nas teclas.

Nenhuma mudança surgiu no rosto antigo. Como se cálculos vastos estivessem


passando por sua cabeça, ela assistiu todas as mudanças de padrão.

Linda se perguntou. Era impossível analisar um padrão sem pelo menos um


computador portátil, mas a Velha simplesmente o encarava. Ela tinha um
computador implantado no crânio? Ou era o cérebro dela que, durante décadas,
não fez nada além de conceber, estudar e analisar os padrões cerebrais
positrônicos? Ela entendeu esse padrão da mesma maneira que Mozart
percebeu a notação de uma sinfonia?

Por fim, Calvin disse: "O que você fez, Rash?"

Linda disse, um pouco envergonhada: "Eu fiz uso da geometria fractal."

“Eu percebi isso. Mas por que?"

“Isso nunca foi feito. Eu pensei que produziria um padrão cerebral com maior
complexidade, possivelmente mais próximo do humano. ”

“Alguém foi consultado? Isso tudo foi por sua conta?

“Eu não consultei. Foi por minha conta.

Os olhos desbotados de Calvin olhavam longamente para a jovem. “Você não


tinha o direito. Rash seu nome; apresse sua natureza. Quem você não deve
perguntar? Eu, Susan Calvin, eu teria discutido isso.
"Eu estava com medo de ser parado."

"Você certamente teria sido."

"Estou" , sua voz captou, mesmo quando ela se esforçou para mantê-la firme,
"vai ser

disparamos?"

"Possivelmente", disse Calvin. “Ou você pode ser promovido. Depende do que
penso quando termino. ”

"Você vai desmontar El-" Ela quase disse o nome, o que teria reativado o robô e
teria sido mais um erro. Ela não podia se dar ao luxo de outro erro, se já não
fosse tarde demais para pagar qualquer coisa. "Você vai desmontar o robô?"

De repente, percebeu, com algum choque, que a Velha tinha uma pistola de
elétrons no bolso da bata. O Dr. Calvin veio preparado para isso.

"Vamos ver", disse Calvin. “O robô pode ser valioso demais para

desmantelar."

"Mas como pode sonhar?"

“Você criou um padrão cerebral positrônico notavelmente semelhante ao de um


cérebro humano. O cérebro humano deve sonhar em reorganizar-se, livrar-se,
periodicamente, de nós e rosnados. Talvez esse robô também deva, e pela
mesma razão. Você já perguntou o que ele sonhou?

“Não, eu te chamei assim que ele disse que sonhava. Eu lidaria com esse
assunto por conta própria, depois disso.

"Ah!" Um sorriso muito pequeno passou pelo rosto de Calvin. “Existem limites
além dos quais sua loucura não o levará. Estou feliz com isso. De fato, estou
aliviado. E agora vamos ver o que podemos descobrir. ”

Ela disse bruscamente: "Elvex".

A cabeça do robô virou-se para ela sem problemas. "Sim, Dr. Calvin?"

"Como você sabe que sonhou?"


“É de noite, quando está escuro, Dr. Calvin”, disse Elvex, “e de repente há luz,
embora eu não possa ver motivo para o aparecimento da luz. Vejo coisas que
não têm conexão com o que concebo como realidade. Eu ouço coisas. Eu reajo
de maneira estranha. Ao pesquisar meu vocabulário por palavras para expressar
o que estava acontecendo, me deparei com a palavra 'sonho'. Estudando seu
significado, finalmente cheguei à conclusão de que estava sonhando. ”

“Como você chegou a ter 'sonho' no seu vocabulário, eu me pergunto.” Linda


disse, rapidamente, acenando com o robô em silêncio. “Eu dei a ele um
vocabulário no estilo humano. Eu pensei - "

"Você realmente pensou", disse Calvin. "Estou impressionado."

“Eu pensei que ele precisaria do verbo. Você sabe, 'eu nunca sonhei com isso
...' Algo assim. ”

Calvin disse: "Quantas vezes você sonhou, Elvex?"

"Todas as noites, Dr. Calvin, desde que tomei consciência de minha existência."
"Dez noites", interpôs Linda, ansiosa, "mas Elvex só me falou disso esta manhã."

"Por que apenas esta manhã, Elvex?"

“Foi só nesta manhã, Dr. Calvin, que eu estava convencido de que estava
sonhando. Até então, eu pensava que havia uma falha no meu padrão cerebral
positrônico, mas não consegui encontrar um. Finalmente, decidi que era um
sonho. ”

"E o que você sonha?"

“Eu sempre sonho o mesmo sonho, Dr. Calvin. Pequenos detalhes são
diferentes, mas sempre me parece que vejo um grande panorama no qual os
robôs estão trabalhando. ”

Robôs, Elvex? E humano começa, também?

Não vejo seres humanos no sonho, Dr. Calvin. A princípio não. Apenas robôs.

"O que eles estão fazendo, Elvex?"

“Eles estão trabalhando, Dr. Calvin. Vejo alguma mineração nas profundezas da
Terra e algumas trabalhando com calor e radiação. Vejo alguns em fábricas e
outros submarinos.
Calvin virou-se para Linda. “Elvex tem apenas dez dias e tenho certeza que ele
não saiu da estação de testes. Como ele conhece os robôs com tanto detalhe?
Linda olhou na direção de uma cadeira como se desejasse se sentar, mas a
Velha estava de pé e isso significava que Linda tinha que ficar de pé também.
Ela disse fracamente: “Pareceu-me importante que ele soubesse sobre robótica

e seu lugar no mundo. Eu pensava que ele seria particularmente adaptado para
desempenhar o papel de superintendente com ele - seu novo cérebro. ”

"Seu cérebro fractal?"

"Sim."

Calvin assentiu e voltou-se para o robô. "Você viu tudo isso - submarino,
subterrâneo e acima do solo - e espaço também, imagino."

“Também vi robôs trabalhando no espaço”, disse Elvex, “foi o fato de que vi tudo
isso, com os detalhes mudando para sempre enquanto olhava de um lugar para
outro que me fez perceber que o que via não estava de acordo com a realidade
e liderava. até a conclusão, finalmente, de que estava sonhando.

"O que mais você viu, Elvex?"

“Vi que todos os robôs estavam curvados com labuta e aflição, que todos
estavam cansados de responsabilidade e cuidado, e desejei que
descansassem.”

Calvin disse: "Mas os robôs não estão curvados, não estão cansados, não
precisam descansar".

“Então é verdade, Dr. Calvin. Eu falo do meu sonho, no entanto. No meu sonho,
pareceu-me que os robôs devem proteger sua própria existência. ”

Calvin disse: "Você está citando a Terceira Lei da Robótica?"

"Estou, Dr. Calvin."

“Mas você cita de maneira incompleta. A Terceira Lei é: 'Um robô deve proteger
sua própria existência, desde que essa proteção não entre em conflito com a
Primeira ou a Segunda Lei.' ”

Calvin. Essa é a Terceira Lei na realidade, mas, no meu sonho, a Lei terminou
com a palavra "existência". Não houve menção à Primeira ou Segunda Lei.
“No entanto, ambos existem, Elvex. A Segunda Lei, que tem precedência sobre
a Terceira, é 'Um robô deve obedecer às ordens dadas por seres humanos,
exceto onde essas ordens entrem em conflito com a Primeira Lei'. Por esse
motivo, os robôs obedecem às ordens. Eles fazem o trabalho que você os vê, e
o fazem prontamente e sem problemas. Eles não estão curvados; eles não estão
cansados. ”

“Então é verdade, Dr. Calvin. Eu falo do meu sonho.

“E a Primeira Lei, Elvex, que é a mais importante de todas, é 'Um robô não pode
ferir um ser humano ou, por inação, permitir que um ser humano seja
prejudicado'”.

Calvin. Na realidade. No meu sonho, porém, parecia-me que não havia nem a
Primeira nem a Segunda Lei, mas apenas a Terceira e a Terceira Lei era 'Um
robô deve proteger sua própria existência'. Essa foi toda a lei.

"No seu sonho, Elvex?"

"No meu sonho."

Calvin disse: “Elvex, você não se mexerá, nem falará nem nos ouvirá, até que
eu diga seu nome novamente.” E, novamente, o robô se tornou, ao que parece,
uma única peça inerte de metal.

Calvin virou-se para Linda Rash e disse: "Bem, o que você acha, Dr. Rash?"

Os olhos de Linda estavam arregalados e ela podia sentir seu coração batendo
loucamente. Ela disse: “Dr. Calvin, estou chocado. Eu não fazia ideia. Nunca me
ocorreu que isso fosse possível.

"Não", disse Calvin, calmamente. “Nem teria me ocorrido, não a ninguém. Você
criou um cérebro robótico capaz de sonhar e, com esse dispositivo, revelou uma
camada de pensamento nos cérebros robóticos que poderia permanecer sem
ser detectada, caso contrário, até que o perigo se tornasse grave. ”

"Mas isso é impossível", disse Linda. "Você não pode querer dizer que outros
robôs pensam o mesmo."

“Como diríamos de um ser humano, não conscientemente. Mas quem teria


pensado que havia uma camada inconsciente sob os óbvios caminhos cerebrais
positrônicos, uma camada que não estava necessariamente sob o controle das
Três Leis? O que isso poderia ter causado quando os cérebros robóticos se
tornaram cada vez mais complexos - se não tivéssemos sido avisados? ”
"Você quer dizer com Elvex?"

“Por você, Dr. Rash. Você se comportou de maneira inadequada, mas, ao fazer
isso, nos ajudou a ter um entendimento extremamente importante. A partir de
agora, trabalharemos com cérebros fractais, formando-os de maneira
cuidadosamente controlada. Você fará sua parte nisso. Você não será
penalizado pelo que fez, mas, daqui em diante, trabalhará em colaboração com
outras pessoas. Voce entende?"

Calvin. Mas e Elvex?

"Eu ainda não tenho certeza."

Calvin tirou a pistola eletrônica do bolso e Linda a encarou com fascinação. Uma
explosão de seus elétrons em um crânio robótico e os caminhos cerebrais
positrônicos seriam neutralizados e energia suficiente seria liberada para fundir
o cérebro-robô em um lingote inerte.

Linda disse: “Mas certamente a Elvex é importante para nossa pesquisa. Ele não
deve ser destruído.

“ Não deve , Dr. Rash? Essa será minha decisão, eu acho. Depende inteiramente
de quão perigoso é o Elvex.

Ela se endireitou, como se tivesse determinado que seu próprio corpo


envelhecido não deveria se curvar sob seu peso de responsabilidade. Ela disse:
"Elvex, você me ouviu?"

"Sim, Dr. Calvin", disse o robô.

“Seu sonho continuou? Você disse anteriormente que os seres humanos não
apareceram a princípio. Isso significa que eles apareceram depois?

Calvin. Pareceu-me, no meu sonho, que eventualmente um homem apareceu.

"Um homem? Não é um robô?

Calvin. E o homem disse: 'Deixe meu povo ir!' '

"O homem disse isso?"

"Sim, Dr. Calvin."


"E quando ele disse 'Deixe meu povo ir', então pelas palavras 'meu povo' ele quis
dizer os robôs?"

Calvin. Assim foi no meu sonho.

"E você sabia quem era o homem - no seu sonho?"

Calvin. Eu conhecia o homem.

"Quem era ele?"

E Elvex disse: "Eu era o homem".

E Susan Calvin imediatamente levantou a pistola eletrônica e disparou, e Elvex


não existia mais.

Um cérebro fala

Andy Clark

Eu sou o cérebro de John. Na carne, sou apenas uma massa de células branco-
acinzentada de aparência um tanto indistinta. Minha superfície é fortemente
complicada e possuo uma estrutura interna bastante diferenciada. John e eu
estamos em termos íntimos e íntimos; de fato, às vezes é difícil nos diferenciar.
Mas às vezes John leva essa intimidade um pouco longe demais. Quando isso
acontece, ele fica muito confuso sobre meu papel e meu funcionamento. Ele
imagina que eu organizo e processo informações de maneiras que ecoam sua
própria perspectiva sobre o mundo. Em resumo, ele pensa que seus
pensamentos são, em um sentido bastante direto, meus pensamentos. Há
alguma verdade nisso, é claro. Mas as coisas são realmente muito mais
complicadas do que John suspeita, como tentarei mostrar.

Em primeiro lugar, John é cego em relação à maior parte das minhas atividades
diárias. Na melhor das hipóteses, ele pega vislumbres ocasionais e sombras
distorcidas do meu trabalho real. De um modo geral, esses vislumbres fugazes
retratam apenas os produtos da minha vasta atividade subterrânea, e não os
processos que os originam. Tais produtos incluem o jogo de imagens mentais e
as etapas de um trem lógico de pensamento ou fluxo de idéias.

Além disso, o acesso de John a esses produtos é um assunto bastante difícil e


pronto. O que filtra sua consciência é um pouco semelhante ao que aparece na
tela de um computador pessoal. Nos dois casos, o que é exibido é apenas um
resumo especialmente adaptado dos resultados de certos episódios de atividade
interna: resultados para os quais o usuário tem algum uso específico.
Detalhes da publicação original: “Um Cérebro Fala”, Andy Clark, de Estar Lá:
Agrupando Cérebro , Corpo e Mundo Juntos Novamente , MIT Press, 1996, pp.
223-7, © 1996 Massachusetts Institute of Technology, com permissão do MIT
Press.

Ficção científica e filosofia: viagem no tempo do baile à superinteligência ,


segunda edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Afinal, a evolução não desperdiçaria tempo e dinheiro (busca e energia) para


mostrar a John um registro fiel de acontecimentos internos, a menos que eles
pudessem ajudar John a caçar, sobreviver e se reproduzir. John, como resultado,
é informado apenas do mínimo necessário de conhecimento sobre minhas
atividades internas. Tudo o que ele precisa saber é o significado geral dos
resultados de algumas dessas atividades selecionadas: essa parte de mim está
em um estado associado à presença de um predador perigoso e esse voo é,
portanto, indicado, e outras coisas desse tipo. O que John (o agente consciente)
obtém de mim é, assim, mais ou menos como o motorista recebe de um painel
eletrônico: informações referentes aos poucos parâmetros internos e externos
aos quais sua atividade bruta considerada pode fazer uma diferença útil.

Um complexo de importantes mal-entendidos se concentra na questão da


proveniência dos pensamentos. John pensa em mim como a fonte principal dos
produtos intelectuais que ele identifica como seus pensamentos. Mas, para ser
sincero, não tenho os pensamentos de John. John tem os pensamentos de John,
e eu sou apenas um item no conjunto de eventos e processos físicos que
permitem que o pensamento ocorra. John é um agente cuja natureza é fixada
por uma interação complexa que envolve uma massa de acontecimentos
internos (incluindo minha atividade), um tipo específico de personificação física
e uma certa incorporação no mundo. A combinação de modalidade e
incorporação fornece acoplamentos informacionais e físicos persistentes entre
John e seu mundo - acoplamentos que deixam grande parte do "conhecimento"
de John no mundo e disponíveis para recuperação, transformação e uso como
e quando necessário.

Tomemos este exemplo simples: alguns dias atrás, John sentou-se à mesa e
trabalhou bastante por um período prolongado. Eventualmente, ele se levantou
e saiu do escritório, satisfeito com o trabalho do dia. “Meu cérebro”, refletiu (pois
se orgulha de seu fisicalismo), “se saiu muito bem. A ideia de John dos eventos
do dia me descreveu como a fonte principal dessas idéias - idéias que ele acha
que capturou no papel como mera conveniência e uma barreira contra o
esquecimento. É claro que sou grato por John me dar tanto crédito. Ele atribui
os produtos intelectuais acabados diretamente a mim. Mas, nesse caso, pelo
menos, o crédito deve ser estendido um pouco mais. Meu papel na origem
desses produtos intelectuais é certamente vital: destrua-me e a produtividade
intelectual certamente cessará! Mas meu papel é mais delicadamente
constituído do que a simples imagem de John sugere. Essas idéias das quais
ele tem tanto orgulho não surgiram totalmente da minha atividade. Se a verdade
seja dita, eu agi como um fator mediador em alguns ciclos complexos de
feedback que abrangem John e selecionamos partes de seu ambiente local. Sem
rodeios, passei o dia em uma variedade de interações próximas e complexas
com vários adereços externos. Sem eles, os produtos intelectuais acabados
nunca teriam se formado. Meu papel, como me lembro melhor, era apoiar a
releitura de John de vários materiais e anotações antigas e reagir a esses
materiais produzindo algumas idéias e críticas fragmentárias. Essas pequenas
respostas foram armazenadas como marcas adicionais no papel e nas margens.
Posteriormente, desempenhei um papel na reorganização dessas marcas em
folhas de papel limpas, acrescentando novas reações on-line às idéias
fragmentárias. O ciclo de leitura, resposta e reorganização externa foi repetido
várias vezes. No final do dia, as "boas idéias" com as quais John foi tão rápido
em me dar crédito surgiram como frutos dessas repetidas e pequenas interações
entre mim e as várias mídias externas. O crédito, portanto, não me pertence tanto
quanto ao processo estendido espacial e temporalmente em que desempenhei
um papel.

Pensando bem, John provavelmente concordaria com essa descrição do meu


papel naquele dia. Mas eu o advertiria que mesmo isso pode ser enganoso. Até
agora, permiti-me falar como se eu fosse um recurso interno unificado,
contribuindo para esses episódios interativos. Essa é uma ilusão que o presente
recurso literário incentiva e que João parece compartilhar. Mas mais uma vez,
se a verdade for dita, não sou uma voz interior, mas muitas. Na verdade, sou
tantas vozes interiores que a própria metáfora da voz interior deve enganar, pois
certamente sugere subagências internas de alguma sofisticação e talvez
possuindo uma autoconsciência rudimentar. Na realidade, eu consisto apenas
em múltiplos fluxos irracionais de processos computacionais altamente paralelos
e geralmente relativamente independentes. Eu não sou uma massa de pequenos
agentes, mas uma quantidade de não-agentes, sintonizados e receptivos a
insumos proprietários e habilmente orquestrados pela evolução, a fim de gerar
um comportamento proposital bem-sucedido na maioria das situações diárias.
Minha voz única, então, não passa de um conceito literário.

Na raiz, os erros de John são todas variações de um único tema. Ele acha que
eu vejo o mundo como ele, que eu divido as coisas como ele faria e que acho
que ele relataria seus pensamentos. Nada disso é verdade. Não sou o eco
interno das conceituações de John. Pelo contrário, sou sua fonte um tanto
estranha. Para ver o quão estranho eu posso ser, John precisa apenas refletir
sobre algumas das maneiras extraordinárias e inesperadas em que os danos a
mim (o cérebro) podem afetar os perfis cognitivos de seres como John. Danos a
mim poderiam, por exemplo, resultar no comprometimento seletivo da
capacidade de John de recordar os nomes de pequenos objetos manipuláveis,
mas deixar incólume sua capacidade de nomear objetos maiores. A razão para
isso tem a ver com o meu armazenamento e recuperação de informações
fortemente orientadas visualmente de maneiras distintas daquelas que implanto
para informações fortemente orientadas para a funcionalidade; o primeiro modo
ajuda a escolher os itens grandes e o último os pequenos. O ponto é que essa
faceta da minha organização interna é totalmente alheia a John - respeita as
necessidades, princípios e oportunidades das quais John é alegremente
inconsciente. Infelizmente, em vez de tentar compreender meus modos de
armazenamento de informações em seus próprios termos, John prefere imaginar
que eu organize meu conhecimento da maneira como ele - fortemente
influenciado pelas palavras específicas em sua língua - organiza o seu. Assim,
ele supõe que eu armazene informações em grupos que respeitem o que ele
chama de "conceitos" (geralmente, nomes que figuram em suas classificações
lingüísticas de eventos, estados e processos mundanos). Aqui, como sempre,
John é rápido demais para identificar minha organização com sua própria
perspectiva. Certamente eu armazeno e acesso a corpos de informação - corpos
que, juntos, se estou funcionando normalmente, suportam uma ampla gama de
usos bem-sucedidos das palavras e uma variedade de interações com os
mundos físico e social. Mas os “conceitos” que tão ocupam a imaginação de
John correspondem apenas a nomes públicos para sacolas de conhecimentos e
habilidades cujos fundamentos neurais são de fato muitos e variados. Os
"conceitos" de João não correspondem a nada especialmente unificado, no que
me diz respeito. E por que deveriam? A situação é semelhante à de uma pessoa
que pode construir um barco. Falar da capacidade de construir um barco é usar
uma frase simples para atribuir uma panóplia de habilidades cujas bases
cognitivas e físicas variam muito. A unidade existe apenas na medida em que
aquela bolsa de habilidades cognitivas e físicas tem um significado especial para
uma comunidade de agentes marítimos. Os “conceitos” de John, ao que me
parece, são assim: nomes de complexos de habilidades cuja unidade não se
baseia em fatos sobre mim, mas em fatos sobre o modo de vida de John.

A tendência de John de alucinar sua própria perspectiva sobre mim se estende


à sua concepção de meu conhecimento do mundo externo. John anda e sente
como se ele comandasse uma imagem tridimensional estável de seu entorno
imediato. Apesar dos sentimentos de John, eu não ordeno isso. Registro
pequenas regiões de detalhes em rápida sucessão, conforme me fixo primeiro
nisso e depois naquele aspecto da cena visual. E não me preocupo em
armazenar todos esses detalhes em algum modelo interno que requer
manutenção e atualização constantes. Em vez disso, sou especialista em
revisitar partes da cena, a fim de recriar um conhecimento detalhado, quando
necessário. Como resultado desse truque, e de outros, John tem uma
capacidade tão fluente de negociar seu ambiente local que acha que comanda
uma visão interna constante dos detalhes de seu entorno. Na verdade, o que
John vê tem mais a ver com as habilidades que lhe conferem para interagir
constantemente, em tempo real, com fontes externas de informação ricas do que
com o tipo de registro passivo e duradouro de informações, nos termos dos quais
ele cria os seus próprios. veres.

O fato triste, então, é que quase nada sobre mim é como John imagina que seja.
Continuamos estranhos apesar da nossa intimidade (ou talvez por causa disso).
A linguagem de John, as introspecções e o fisicalismo excessivamente simplista
o inclinam a identificar minha organização muito de perto com sua própria
perspectiva limitada. Ele é, portanto, cego à minha natureza fragmentária,
oportunista e geralmente alienígena. Ele esquece que eu sou em grande parte
um dispositivo orientado para a sobrevivência que antecede muito o surgimento
de habilidades lingüísticas e que meu papel na promoção da cognição
consciente e da língua é apenas uma linha lateral recente. Essa linha lateral é,
é claro, uma das principais raízes de seus equívocos. Possuído como John é um
veículo tão magnífico para a expressão compacta e comunicável e a
manipulação do conhecimento, muitas vezes confunde as formas e convenções
desse veículo linguístico com a estrutura da própria atividade neural.

Mas a esperança brota eterna (mais ou menos). Ultimamente, estou animado


com o surgimento de novas técnicas de investigação, como imagens cerebrais
não invasivas, estudo de redes neurais artificiais e pesquisas em robótica do
mundo real. Tais estudos e técnicas são um bom presságio para uma melhor
compreensão das relações muito complexas entre a minha atividade, o ambiente
local e a construção de retalhos do sentido do eu. Enquanto isso, lembre-se de
que, apesar da nossa intimidade, John realmente sabe muito pouco sobre mim.
Pense em mim como o marciano na cabeça de John.

Cyborgs Unplugged

Andy Clark

Ratos no espaço

O ano é 1960. O pulso das viagens espaciais bate insistentemente nos templos
da pesquisa e do poder, e a revista Astronautics publica o artigo que deu o termo
"cyborg" ao mundo. O artigo, intitulado "Cyborgs and Space", foi baseado em
uma palestra "Drugs, Space and Cybernetics", apresentada em maio à Escola
de Medicina da Aviação da Força Aérea em San Antonio, Texas. Os autores
foram Manfred Clynes e Nathan Kline, ambos trabalhando no Laboratório de
Simulação Dinâmica (do qual Kline era diretor) no Rockland State Hospital, Nova
York. O que Clynes e Kline propuseram foi simplesmente um belo pensamento
lateral. Em vez de tentar fornecer ambientes artificiais e terrestres para a
exploração humana do espaço, por que não alterar os seres humanos para lidar
melhor com as demandas novas e alienígenas? “As viagens espaciais”,
escreveram os autores, “desafiam a humanidade não apenas tecnologicamente,
mas também espiritualmente, na medida em que convida o homem a participar
ativamente de sua própria evolução biológica.” Por que não, em resumo,
reorganizar os humanos para se ajustarem às estrelas ?

Em 1960, é claro, a engenharia genética era apenas um brilho no olho presciente


da ficção científica. E esses autores não eram sonhadores, apenas cientistas
criativos envolvidos em questões de importância nacional (e internacional). Além
disso, eles eram cientistas trabalhando e pensando na crista de duas grandes
ondas de pesquisa inovadora: trabalho em computação e processamento
eletrônico de dados e
Detalhes da publicação original: “Cyborgs Unplugged”, Andy Clark, de Natural
Born Cyborgs , Oxford University Press, pp. 13-34, © Oxford University Press,
Ltd. 2005. Com permissão da Oxford University Press, EUA.

Ficção científica e filosofia: viagem no tempo do baile à superinteligência ,


segunda edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

trabalho em cibernética - a ciência do controle e da comunicação em animais e


máquinas. Eles sugeriram que o caminho a seguir era combinar abordagens
cibernéticas e computacionais para criar híbridos homem-máquina, "sistemas de
organismos de artefatos" nos quais dispositivos eletrônicos implantados usam
sinais de feedback corporal para regular automaticamente a vigília, o
metabolismo, a respiração e a freqüência cardíaca. e outras funções fisiológicas
de maneiras adequadas a algum ambiente alienígena. O artigo discutiu
intervenções artificiais específicas que podem permitir que o corpo humano
ignore a respiração pulmonar, para compensar as desorientações causadas pela
falta de peso, alterar a freqüência cardíaca e a temperatura, reduzir o
metabolismo e a ingestão alimentar necessária, e assim por diante.

Foi Manfred Clynes quem realmente sugeriu o termo "ciborgue". Na época,


Clynes era cientista chefe de pesquisa do Rockland State Hospital e especialista
no projeto e desenvolvimento de equipamentos de medição fisiológica. Ele já
havia recebido um prestigioso prêmio Baker pelo trabalho no controle da
freqüência cardíaca através da respiração e mais tarde inventaria o computador
CAT, que ainda hoje é usado em muitos hospitais. Quando Clynes cunhou o
termo "ciborgue" para descrever o tipo de sistema híbrido de organismo-artefato
que eles estavam imaginando, Kline observou que parecia "uma cidade na
Dinamarca". Mas o termo foi devidamente cunhado e as linguagens de fato e
ficção permanentemente alterado. Aqui está a passagem como apareceu em
Astronáutica:

Para o complexo organizacional ampliado exogenamente ... propomos o termo


"ciborgue". O ciborgue incorpora deliberadamente componentes exógenos,
estendendo a função de controle auto-regulador do organismo para adaptá-lo a
novos ambientes.

Assim, em meio a uma confusão de prosa complicada, nasceu o ciborgue. A


sigla "cyborg" significa Organismo Cibernético ou Organismo Ciberneticamente
Controlado; era um termo artístico destinado a capturar tanto a noção de fusão
homem-máquina quanto a natureza bastante específica da fusão prevista. Os
ciberneticistas estavam especialmente interessados em "sistemas de
autorregulação". Esses são sistemas nos quais os resultados da própria
atividade do sistema são "realimentados" para aumentar, parar, iniciar ou reduzir
a atividade conforme as condições o exigirem. O mecanismo de descarga /
reabastecimento de um banheiro padrão é um exemplo caseiro, assim como o
termostato no forno doméstico. A temperatura cai, um circuito é ativado e o forno
ganha vida. A temperatura aumenta, um circuito é interrompido e o forno deixa
de funcionar. Ainda mais prosaicamente, o vaso sanitário é lavado, o balão cai,
o que faz com que a válvula de entrada conectada se abra. A água então flui até
que o balão, subindo na maré alta, atinja um nível predefinido e, assim, religue
a válvula. Diz-se que esses sistemas são controlados homeostaticamente
porque respondem automaticamente a desvios de uma linha de base (norma,
estase, equilíbrio) de maneiras que os arrastam de volta para a configuração
original - a cisterna cheia, a temperatura ambiente predefinida e similares.

O sistema nervoso autônomo humano, deve ficar claro, é apenas um mecanismo


homeostático auto-regulável. Trabalha continuamente e sem esforço consciente
de nossa parte, a fim de manter os principais parâmetros fisiológicos dentro de
certas zonas-alvo. À medida que o esforço aumenta e a oxigenação do sangue
diminui, respiramos mais e nossos corações batem mais rápido, bombeando
mais oxigênio para a corrente sanguínea. À medida que o esforço diminui e os
níveis de oxigênio no sangue aumentam, a respiração e a freqüência cardíaca
diminuem, reduzindo a ingestão e a absorção de oxigênio.

Com tudo isso em mente, é hora de conhecer o primeiro ciborgue devidamente


credenciado e rotulado. Não é um monstro fictício, nem mesmo um ser humano
equipado com um marcapasso (embora também sejam cyborgs dessa faixa
simples), mas um rato branco de laboratório atrás de um apego desagradável -
uma bomba osmótica implantada por Rose. Este rato foi introduzido no jornal de
1960 por Clynes e Kline como "um dos primeiros ciborgues" e o instantâneo,
como Donna Haraway comentou maravilhosamente "pertence ao álbum da
família de Man".

Infelizmente, o rato não tem nome, mas a bomba osmótica sim. É nomeado após
seu inventor, Dr. Rose, que morreu recentemente após uma vida muito criativa
dedicada à busca de uma cura para o câncer. Então vamos emprestar
respeitosamente isso, chamando o sistema de bomba de ratos capaz de Rose.
Rose incorpora um papel de cápsula de bomba de pressão de administrar
injeções a uma taxa controlada. A idéia era combinar a bomba implantada com
uma alça de controle artificial, criando em Rose uma camada de homeostase. A
nova camada funcionaria como a biológica, sem a necessidade de atenção ou
esforço consciente, e poderia ser usada para ajudar Rose a lidar com condições
extraterrestres específicas. Os autores especulam, por exemplo, que o circuito
automático de controle computadorizado monitora a pressão arterial sistólica, a
compara com algum valor de referência localmente apropriado e administra
medicamentos adrenérgicos ou vasodilatadores de acordo.

Como os cyborgs vão, Rose, como o ser humano com o marcapasso, é


provavelmente um pouco de decepção. Certamente, cada um incorpora uma
camada extra artificial de controle homeostático inconscientemente regulado.
Mas Rose continua sendo praticamente um rato, e um marca-passo não é um
Exterminador do Futuro. Cyborgs, ao que parece, permanece em grande parte
material de ficção científica, apesar de quarenta e nove anos de pesquisa e
desenvolvimento.

Implante e Fusões

Como eles? Considere a seguir o humilde implante coclear. Os implantes


cocleares, que já são amplamente utilizados, estimulam eletronicamente o nervo
auditivo. Tais dispositivos permitem que muitos humanos profundamente surdos
ouçam novamente. No entanto, eles são atualmente limitados ao exigir a
presença de um nervo auditivo saudável e não regenerado. Um grupo de
pesquisa com sede em Pasadena, liderado por Douglas McCreery, do
Huntington Medical Research Institutes, abordou recentemente esse problema,
construindo um novo tipo de implante que contorna o nervo auditivo e se conecta
diretamente ao tronco cerebral. Versões anteriores de tais dispositivos, de fato,
estão em uso há algum tempo, mas o desempenho foi pouco inspirador. Não
inspirador, porque esses implantes de tronco cerebral de primeira onda usavam
apenas uma série de contatos na superfície - eletrodos planos colocados na
superfície do tronco cerebral, perto do núcleo coclear ventral. A discriminação
auditiva de frequências, no entanto, é mediada por camadas empilhadas de
tecido neural dentro do núcleo. Para utilizar as informações de frequência (para
discriminar o tom), é necessário alimentar as informações de maneira
diferenciada nas várias camadas dessa estrutura neural, onde a estimulação de
camadas mais profundas resulta na percepção auditiva de frequências mais
altas e assim por diante. O implante sendo pioneiro por McCreery alcança,
assim, mais fundo do que os modelos antigos de contato com a superfície,
terminando em seis microeletrodos de irídio, cada um dos quais penetra no
tronco cerebral a uma profundidade diferente. O sistema geral compreende um
processador de fala externo com um receptor implantado sob o couro cabeludo,
conectado diretamente a seis profundidades diferentes dentro do núcleo coclear
ventral. Um gato do Instituto Huntington, de acordo com o neurocientista e
escritor científico Simon LeVay, já está equipado com o novo sistema e, assim,
se junta a Rose no nosso Hall da Fama do Cyborg.

A chamada não estaria completa, no entanto, sem um certo professor


independente. Nossa próxima parada é, portanto, o Departamento de
Cibernética da Universidade de Reading, na Inglaterra. É uma surpresa
encontrar hoje em dia um departamento de Cibernética. Eles morreram
principalmente no início dos anos 1960, sendo substituídos pelos departamentos
de Ciência da Computação, Ciência Cognitiva e Inteligência Artificial. Mas a
verdadeira surpresa é encontrar, dentro deste Departamento de Cibernética, um
professor determinado a se transformar em um bom ciborgue à moda antiga de
carne e fio. O nome do professor é Kevin Warwick e, em suas próprias palavras:

Eu nasci humano. Mas isso foi um acidente do destino - uma condição


meramente minha

e coloque. Acredito que é algo que temos o poder de mudar.


Warwick começou sua transformação pessoal em 1998, com a implantação de
um chip de silício bastante simples, envolto em um tubo de vidro, embaixo do
pulso e na parte superior do músculo do braço esquerdo. Esse implante enviou
sinais de rádio, através de antenas colocadas estrategicamente ao redor do
departamento, para um computador central que respondeu abrindo portas
quando ele se aproximava, ligando e desligando os circuitos, e assim por diante.
Obviamente, tudo isso era muito simples e poderia ser conseguido com muito
mais facilidade pelo uso de um dispositivo simples (cartão ou crachá inteligente)
amarrado ao cinto ou preso à lapela. O objetivo do experimento, no entanto, era
testar a capacidade de enviar e receber sinais através desse implante.
Funcionou bem, e Warwick relatou que, mesmo nesse caso simples, ele
rapidamente se sentiu "como se o implante estivesse com meu corpo", sentindo,
de fato, que seu corpo biológico era apenas um aspecto de um sistema
operacional maior, mais poderoso e harmoniosamente . Ele relatou que era difícil
soltar o implante quando chegou a hora de removê-lo.

O verdadeiro experimento ocorreu em 14 de março de 2002, às 8h30 da manhã


na enfermaria Radcliffe, em Oxford. Lá, Warwick recebeu um implante novo e
mais interessante. Isso consistia em uma matriz de 100 pontos. Cada uma das
100 dicas da matriz faz contato direto com as fibras nervosas do pulso e está
ligada a fios que encapsulam o braço do professor Warwick, emergindo através
de uma perfuração na pele onde estão ligados a um dispositivo transmissor /
receptor de rádio. Isso permite que o nervo mediano no braço seja conectado
por contato via rádio a um computador. Os impulsos nervosos que correm entre
o cérebro e a mão podem ser "interceptados" e os sinais copiados para o
computador. O processo também segue na outra direção, permitindo que o
computador envie sinais (cópias ou transformações dos originais) para o
implante, que por sua vez os alimenta nos feixes de nervos que correm entre a
mão e o cérebro de Warwick.

A escolha de feixes de nervos no braço como ponto de interface é sem dúvida


um compromisso. Os riscos cirúrgicos da interface neural direta ainda são
bastante altos (o tipo de implante de tronco cerebral descrito anteriormente, por
exemplo, é realizado apenas em pacientes que já necessitam de cirurgia para
tratar a neurofibromatose tipo 2). Mas os feixes de nervos que atravessam o
braço carregam enormes quantidades de informações de e para o cérebro, e
estão implicados não apenas em alcançar e apreender, mas também na
neurofisiologia da dor, prazer e emoção. Warwick embarcou em uma sequência
de experimentos organizados, o mais simples dos quais é registrar e identificar
os sinais associados a movimentos específicos das mãos voluntárias. Esses
sinais podem ser reproduzidos posteriormente em seu sistema nervoso. Sua
mão então se moverá novamente? Ele sentirá como se estivesse disposto a
mudar?

O experimento pode ser repetido com sinais de escutas telefônicas durante


episódios de dor ou prazer. O próprio Warwick é fascinado pelo potencial
transformador da tecnologia e se pergunta se seu sistema nervoso, alimentado
com sinais gerados por computador, rastreando alguma quantidade
humanamente indetectável, como comprimentos de onda infravermelhos,
poderia aprender a percebê-los, produzindo alguma sensação de ver ou sentir
infravermelho (ou ultravioleta). ou raios-x ou ultrassom).

Recordando o trabalho de reparo auditivo profundo (penetração do núcleo


coclear), esse tipo de coisa começa a parecer distintamente viável. Imagine, por
exemplo, estar equipado com sensores artificiais, sintonizados para detectar
frequências atualmente fora do nosso alcance, mas enviando sinais
profundamente no núcleo coclear ventral em desenvolvimento. A plasticidade
neural humana, como veremos mais adiante, pode muito bem ser
suficientemente grande para permitir que nossos cérebros aprendam a usar
esses novos tipos de sinais sensoriais. Warwick certamente está entusiasmado.
Em suas próprias palavras, “poucas pessoas tiveram seus sistemas nervosos
vinculados a um computador; portanto, o conceito de sentir o mundo ao nosso
redor usando mais do que nossas habilidades naturais ainda é ficção científica.
Espero mudar isso.

Finalmente, em uma reviravolta dramática, mas talvez inevitável, existe um plano


(se tudo correr bem) para posteriormente ter um dispositivo correspondente, mas
no nível da superfície, conectado à sua esposa, Irena. Os sinais que
acompanham as ações, dores e prazeres podem ser copiados entre os dois
implantes, permitindo que o sistema nervoso de Irena seja estimulado pelo de
Kevin e vice-versa. O casal também planeja tentar enviar esses sinais pela
internet, talvez com um parceiro em Londres enquanto o outro em Nova York.

Nada disso é realmente ficção científica. De fato, como Warwick é o primeiro a


apontar, uma grande quantidade de trabalhos intimamente relacionados já foi
realizada. Cientistas da Universidade de Tóquio conseguiram controlar os
movimentos de uma barata viva, conectando seus neurônios motores a um
microprocessador; o controle mediado eletronicamente de alguma função
muscular (perdida por dano ou doença) foi demonstrado em vários laboratórios;
um paciente com AVC paralisado, equipado com um transmissor neuralmente
implantado, foi capaz de mover um cursor pela tela do computador; e ratos com
implantes semelhantes aprenderam a pressionar uma alavanca geradora de
recompensa apenas pensando nisso. Existe até um implante eletrônico gerador
de orgasmo feminino (controlado por um controle remoto portátil) envolvendo
contatos inseridos cirurgicamente em nervos específicos da medula espinhal.
Sem dúvida, as trocas diretas de sinais bioeletrônicos, possibilitadas por vários
tipos de tecnologia de implantes, em breve abrirão novos domínios da interação
homem-computador e facilitarão novos tipos de fusões homem-máquina. Essas
tecnologias, por razões morais e práticas, provavelmente permanecerão, em um
futuro próximo, em grande parte na província de medicina restaurativa ou
aplicações militares (como o Programa de Aeronaves Táticas Avançadas
McDonnell-Douglas, que prevê um piloto de avião de combate cujas funções
neurais estão diretamente ligados ao computador de bordo).

Apesar disso, a tecnologia genuinamente ciborgue está ao nosso redor e está


se tornando cada vez mais uma parte de nós todos os dias. Para entender por
que, precisamos refletir um pouco mais sobre o que realmente importa, mesmo
sobre as tecnologias de ciborgues clássicas (dominadas por fios e implantes)
que acabamos de analisar. Todos esses casos clássicos exibem interface
animal-máquina direta (baseada em fio). Grande parte da emoção, ou horror,
depende da imaginação de todos os fios, chips e transmissores enxertados na
matéria orgânica pulsante. Mas o que realmente devemos nos preocupar não é
o mero fato de implantação profunda ou enxerto de carne a fio, mas a natureza
complexa e transformadora das relações entre animais e máquinas que podem
ou não ocorrer. E uma vez que vemos isso, abrimos nossos olhos para um novo
mundo de tecnologia ciborgue.

Lembre-se do caso dos implantes cocleares e observe agora a forma particular


dessa trajetória tecnológica. Começa com simples implantes cocleares
conectados ao nervo auditivo - apenas um passo, na verdade, de aparelhos
auditivos e trombetas. Em seguida, o nervo auditivo é desviado e os sinais
transmitidos aos contatos na superfície do cérebro se originam. Então,
finalmente - o clássico céu dos ciborgues - os microeletrodos realmente
penetram no próprio núcleo coclear ventral em diferentes profundidades. Ou
considere o professor Warwick, cujo primeiro implante nos pareceu pouco mais
que um distintivo inteligente, usado dentro do braço. Meu senso é que, à medida
que a interface bioeletrônica cresce em complexidade e se move para dentro,
mais fundo no cérebro e mais longe da periferia da pele, osso e órgãos dos
sentidos, nos tornamos correlativamente menos e menos resistentes à ideia em
que estamos negociando tecnologia cyborg genuína.

Mas por que sentimos que a profundidade importa aqui? Afinal, é bastante óbvio
que a profundidade física de um implante, por si só, é insignificante. Lembre-se
do meu gato microchip, Lolo. Lolo é, de todas as formas, um ciborgue
decepcionante. Ele incorpora um componente não biológico, convenientemente
colocado dentro dos limites à prova de violações do saco biológico de pele (e
pêlo). Mas ele parece decididamente não transformado por esse código de
barras não convidado. Ele está longe de ser o ideal de qualquer gato ciborgue.
Certamente não faria diferença para essa intuição se implantássemos o chip de
código de barras da maneira que mais gostarmos - talvez exatamente no centro
de seu cérebro - tecnologia humana e melhores leitores de código de barras
permitindo. O que nos preocupa, então, não é a profundidade do implante em si.
Em vez disso, o que importa para nós é a natureza e o potencial transformador
da coalizão bioeletrônica resultante.

Ainda assim, a idéia de que fusões biotecnológicas verdadeiramente profundas


devem ser consumadas profundamente dentro do antigo saco de pele é
profunda. É a fonte principal do apelo inegável da maioria das tecnologias
ciborgues clássicas, reais ou imaginárias. Pense em esqueletos de adamantium,
armas de caveira, implantes cocleares, implantes de retina, cérebros humanos
diretamente "conectados" à matriz do ciberespaço - a lista continua. Quanto mais
profunda é a interface bioeletrônica no interior da bolsa biológica, mais felizes
somos, ao que parece, admitindo que enfrentamos um exemplo genuíno da
tecnologia ciborgue.

Intuições, no entanto, são coisas estranhas e instáveis. Pegue a dançarina de


topless futurista retratada no maravilhoso e extraordinário Transmetropolitan de
Warren Ellis . A dançarina exibe um código de barras totalmente funcional de
três centímetros de altura, tatuado nos dois seios. De alguma maneira estranha,
essa dançarina apenas superficialmente com código de barras me parece uma
imagem mais irritante e genuinamente ciborgue do que o gato com código de
barras. E isso apesar do fato de ser este último quem incorpora um implante
genuíno "dentro da bolsa". A razão dessa reação, penso eu, é que a imagem do
dançarino em topless com código de barras evoca imediatamente um sentimento
poderoso (e talvez angustiante) de um tipo de existência humana profundamente
transformada. A imagem coloca em primeiro plano nosso status potencial de
unidades sexuais rastreáveis e comercialmente interessantes, sujeitas a um
escrutínio eletrônico repetido e talvez não convidado. Ressonamos com terror,
entusiasmo, ou ambos, com a idéia de implantes neurais e corporais cada vez
mais profundos, em parte porque sentimos alguma correlação grosseira e pronta
(não à prova de falhas, mais uma regra de ouro) entre a profundidade da
interface e tal potencial transformador. Os implantes penetrantes do núcleo
coclear ventral profundo podem, afinal, melhorar a funcionalidade de certos
pacientes profundamente surdos de uma maneira muito mais dramática,
confiável e eficaz do que seus antecessores. O que realmente conta é uma
espécie de golpe duplo implícito na imagem clássica dos ciborgues. Primeiro,
nos preocupamos com o potencial da tecnologia de se integrar tão profunda e
fluidamente com nossas capacidades e características biológicas existentes que
não sentimos limites entre nós e os elementos não biológicos. Segundo, nos
preocupamos com o potencial dessa simbiose homem-máquina de transformar
(para o bem ou para o mal) nossas vidas, projetos e capacidades.

Uma relação simbiótica é uma associação de benefício mútuo entre diferentes


tipos de entidades, como fungos e árvores. Tais relacionamentos podem se
tornar tão próximos e importantes que tendemos a pensar no resultado como
uma única entidade. O líquen, por exemplo, é realmente uma associação
simbiótica entre uma alga e um fungo. Muitas vezes, é uma pergunta irritada a
melhor forma de pensar em casos específicos. O caso dos sistemas cognitivos
é especialmente desafiador, pois o requisito - (intuitivo o suficiente para casos
não cognitivos) - de coesão física dentro de um limite interno / externo claro
parece menos atraente quando os fluxos de informações (em vez do fluxo de
sangue ou nutrientes) são a principal preocupação .

Os fatores gêmeos tradicionais (de integração contida e profunda transformação)


se reúnem perfeitamente na clássica imagem ciborgue do corpo humano,
profundamente penetrada por eletrônicos sensíveis à interface e que melhoram
a capacidade. Mas, no caso cognitivo, vale a pena considerar que o que
realmente importa pode ser apenas a fluidez da integração homem-máquina e a
transformação resultante de nossas capacidades, projetos e estilos de vida. É
então uma questão empírica se a maior largura de banda e potencial utilizável
reside nas tecnologias completas de implantes ou nos modos não penetrativos
bem projetados de aumento pessoal. No que diz respeito às características
críticas mencionadas acima, acredito que as tecnologias mais potentes no futuro
próximo serão aquelas que oferecem integração e transformação sem implantes
ou cirurgia: fusões homem-máquina que simplesmente ignoram, em vez de
penetrar, as antigas fronteiras biológicas da pele e caveira.
Para entender o que quero dizer, voltemos aos domínios do concreto e do
cotidiano, mudando de cena para a cabine de comando de uma aeronave
moderna. A cabine de comando moderna, como apontou o antropólogo cognitivo
Ed Hutchins, é projetada como um sistema único e extenso composto por pilotos,
sistemas automatizados de controle de computador “fly-bywire” e vários circuitos
de alto nível nos quais os pilotos monitoram o computador enquanto o
computador monitora os pilotos. A forma desses loops ainda está muito em jogo.
No Airbus europeu, o computador tem praticamente a palavra final. O piloto move
a alavanca de controle, mas a eletrônica a bordo mantém os desvios de vôo
dentro de um envelope predefinido. O avião não é permitido, não importa o que
os pilotos façam com a alavanca de controle, incline mais de 67 graus ou aponte
o nariz para cima a mais de 30 graus. Esses limites controlados por computador
destinam-se a impedir que as manobras dos pilotos comprometam a integridade
estrutural dos aviões ou iniciem uma paralisação. No Boeing 747-400, por outro
lado, os pilotos ainda têm a palavra final. Em cada caso, no entanto, sob
condições operacionais normais, grandes quantidades de responsabilidade são
devolvidas ao sistema automático controlado por computador. (O teórico de alta
tecnologia e escritor de ciência Kevin Kelly nota muito bem que os pilotos
humanos são cada vez mais referidos, em treinamento e conversa profissionais,
como "gerentes de sistema".)

Pilotar um avião comercial moderno, ao que parece, é uma tarefa em que o


cérebro e o corpo humano agem como elementos em uma matriz biotecnológica
maior e mais integrada de solução de problemas. Mas, ainda assim, você pode
dizer, essa é a alta tecnologia de ponta. Talvez exista uma sensação de que,
pelo menos enquanto pilotam o avião, os pilotos participam de um tipo
(temporário) de existência de ciborgue, permitindo que circuitos eletrônicos
automatizados, nas palavras de Clynes e Kline, “forneçam um sistema
organizacional no qual [certos ] os problemas são resolvidos automaticamente.
”Mas a maioria de nós não voa em aviões comerciais e nem sequer é cyborgs
por um dia.

Um dia na vida

Ou somos nós? Vamos mudar a cena novamente, desta vez para a sua manhã,
comutar para o escritório. Às 7:30 da manhã, você é acordado não pelos seus
biorritmos nativos, mas pelo seu despertador eletrônico predefinido. Às 8:30 da
manhã, você está na estrada. É um dia frio e você sente que o carro começa a
derrapar em um pedaço de gelo. Felizmente, você tem controle de tração e o
sistema de frenagem automática (ABS). Você simplesmente pisa no freio e o
carro cuida da maior parte do trabalho delicado necessário. De fato, como
veremos nos próximos capítulos, o cérebro humano é um mestre do passado em
devolver responsabilidades dessa maneira. Você pode conscientemente decidir,
por exemplo, pegar o copo de vinho. Mas todo o trabalho delicado de gerar uma
sequência de comandos musculares, permitindo movimentos e apertos precisos
e apropriados dos dedos, é então transferido para um subsistema inconsciente
dedicado - uma espécie de servomecanismo de bordo não muito diferente dos
freios ABS.
Chegando ao seu escritório, você retoma o trabalho na apresentação que estava
preparando para a reunião de hoje. Primeiro, você consulta o grande arquivo de
papéis marcados com “Designs for Living”. Ele inclui seus próprios rascunhos
anteriores e muito trabalho de outras pessoas, todos eles cobertos por margens.
Ao inspecionar (pela enésima vez) esse armazenamento de informações não
biológicas, o seu wetware a bordo (ou seja, o seu cérebro) entra em ação com
algumas novas idéias e comentários, que você agora adiciona como
supermarginalia em cima de todo o resto. Ao reprimir um suspiro, você liga o
Mac G4, mais uma vez expondo seu cérebro ao material armazenado e
persuadindo-o, mais uma vez, a responder com algumas dicas e sugestões
fragmentárias. Já cansado - e são apenas 10 da manhã - você pega um café
expresso forte e realiza sua tarefa com vigor renovado. Agora você posiciona
seu cérebro biológico para responder (aos poucos como sempre) a uma lista
resumida de pontos-chave selecionados de todos esses arquivos. Satisfeito com
o seu trabalho, você discursa na reunião, apresentando o plano de ação final
pelo qual (você acredita que é portador de cartas) e que seu cérebro biológico
deve ser responsável. Mas, de fato, e da maneira mais natural que se possa
imaginar, seu cérebro biológico nu não era mais responsável por esse plano de
ação final do que por evitar a derrapagem anterior. Em cada caso, o verdadeiro
mecanismo de solução de problemas era a matriz biotecnológica maior,
compreendendo (no caso em questão) o cérebro, os papéis empilhados, as
margens anteriores, os arquivos eletrônicos, as operações de pesquisa
fornecidas pelo software Mac e Assim por diante e assim por diante. O que o
cérebro humano tem de melhor é aprender a fazer parte de uma equipe em um
campo de solução de problemas, preenchido por uma incrível variedade de
adereços, andaimes, instrumentos e recursos não biológicos. Dessa maneira, os
nossos são essencialmente os cérebros dos cyborgs nascidos na natureza,
sempre ansiosos para integrar sua atividade aos envelopes tecnológicos cada
vez mais complexos nos quais eles desenvolvem, amadurecem e operam.

O que nos cega à nossa própria natureza cada vez mais ciborgue é um antigo
preconceito ocidental - a tendência de pensar na mente como tão profundamente
especial que se distingue do resto da ordem natural. Nestes tempos mais
materialistas, esse preconceito nem sempre assume a forma de crença na alma
ou no espírito. Em vez disso, surge como a crença de que há algo absolutamente
especial sobre o mecanismo cognitivo que, por acaso, está alojado dentro da
bioinsulação primitiva (fita adesiva da própria natureza!) De pele e crânio. O que
acontece lá é tão especial, tendemos a pensar, que a única maneira de conseguir
uma verdadeira fusão homem-máquina é consumando-a com alguma interface
física bruta realizada atrás das portas do quarto de pele e crânio.

No entanto, não há nada tão especial por dentro. O cérebro é, com certeza, uma
peça de maquinaria cognitiva especialmente densa, complexa e importante. É
sob muitos aspectos especial, mas não é especial no sentido de fornecer uma
arena privilegiada, de modo que certas operações devam ocorrer dentro dessa
arena, ou em contato diretamente conectado com ela, com a dor de não contar
como parte de nossa maquinaria mental. tudo. Em resumo, estamos nas garras
de uma ilusão sedutora, mas bastante insustentável: a ilusão de que os
mecanismos da mente e do eu só podem se desdobrar em algum estágio
privilegiado marcado pela boa e velha bolsa de pele. Meu objetivo é dissipar essa
ilusão e mostrar como uma matriz complexa do cérebro, corpo e tecnologia pode
realmente constituir a máquina de solução de problemas que devemos identificar
adequadamente como nós mesmos. Visto sob esse prisma, os telefones
celulares não eram uma escolha tão caprichosa de ponto de entrada, afinal.
Certamente, nenhum de nós ainda pensa em nós mesmos como cyborgs
nascidos de novo, mesmo se investimos no telefone mais potente do mercado e
integramos sua ampla funcionalidade em nossas vidas. Mas o telefone celular é,
de fato, uma tecnologia ciborgue primordial, ainda que básica. É uma tecnologia
que pode, de fato, marcar um ponto crucial de transição entre a primeira
(dominada por caneta, papel, diagramas e mídia digital) e a segunda onda
(marcada por uniões biotecnológicas mais personalizadas, on-line e dinâmicas)
dos recursos naturais. cyborgs nascidos.

Já existem planos para usar nossos telefones celulares para monitorar sinais
vitais (respiração e batimentos cardíacos), monitorando a recuperação sutil das
microondas constantemente emitidas do coração e dos pulmões. Existe um
sistema mais simples, desenvolvido pela empresa alemã Biotronic, e já em
julgamento na Inglaterra, que utiliza um sensor implantado no peito para
monitorar a freqüência cardíaca, comunicando dados ao telefone celular do
paciente. O telefone pede ajuda automaticamente se forem detectados
problemas cardíacos. A lista continua. A própria designação da unidade móvel
como primariamente um telefone está agora em dúvida, à medida que mais e
mais fabricantes a veem como uma ponte eletrônica multifuncional entre o
portador e um universo invisível, mas potente, de informações, controle e
resposta. No momento da redação deste artigo, o Nokia 5510 combina telefone,
tocador de música MP3, rádio FM, aparelho de mensagens e console de jogos,
enquanto o Trio da Handspring incorpora um assistente digital pessoal. O T68i
da Sony Ericsson possui uma câmera digital que permite ao usuário transmitir
ou armazenar fotos coloridas. Os telefones celulares com microchips integrados
da tecnologia sem fio Bluetooth (ou similares) poderão trocar informações
automaticamente com dispositivos habilitados para Bluetooth nas proximidades.
Assim ativada, uma ligação rápida para casa permitirá que o computador
doméstico ligue ou desligue luzes, fornos e outros aparelhos. Em muitas partes
do mundo, o telefone celular já é tão essencial para as rotinas diárias de milhões
quanto o relógio de pulso - aquela pequena invenção que permite que os
indivíduos assumam o controle real de sua programação diária, e sem a qual
muitos agora se sentem perdidos e desorientados. E tudo isso (na maioria dos
casos) sem uma única incisão ou implante cirúrgico. Talvez, então, seja apenas
nossa obsessão baseada no metabolismo por nossas próprias bolsas de pele
que deforma a imagem popular do ciborgue na de um corpo humano fortemente
eletronicamente penetrado: um corpo dramaticamente transformado por
próteses, implantes neurais, sistemas perceptivos aprimorados e a linha
completa de acessórios de moda Terminator. O erro - e é familiar - foi supor que
as fusões e intimidades mais profundas devem sempre envolver penetrações
literais da bolsa de pele.

Dovetailing
A tecnologia ciborgue não penetrante está à nossa volta e está à beira de uma
revolução. Por tecnologia ciborgue não penetrante, quero dizer todos os truques
tecnológicos e auxílios eletrônicos que, como sugerido anteriormente, já estão
transformando nossas vidas, nossos projetos e nosso senso de nossas próprias
capacidades. O que mais importava , mesmo quando se lida com implantes
bioeletrônicos reais, era o potencial de integração de fluidos e transformação
pessoal. E embora as interfaces bioeletrônicas diretas possam contribuir em
ambas as pontuações, existe outro caminho igualmente atraente e menos
invasivo para uma fusão homem-máquina bem-sucedida. É uma rota sobre a
qual nós, como sociedade, já embarcamos, e não há como voltar atrás. Suas
primeiras manifestações já fazem parte de nossas vidas diárias, e seu poder
transformador final é tão grande quanto o de seu único antecessor tecnológico
sério - a palavra impressa. Está intimamente relacionado com o que Mark
Weiser, trabalhando na XeroxPARC em 1988, chamou pela primeira vez de
“computação onipresente” e com o que Alan Kay da Apple chama de
computação com “Terceiro Paradigma”. De maneira mais geral, ele se enquadra
na categoria de tecnologias transparentes. Tecnologias transparentes são
aquelas ferramentas que se tornam tão bem adaptadas e integradas às nossas
próprias vidas e projetos que elas são (como Don Norman, Weiser e outros
insistem) praticamente invisíveis em uso. Essas ferramentas ou recursos
geralmente não são mais o objeto de nosso pensamento e razão conscientes do
que a caneta com a qual escrevemos, a mão que a segura enquanto escrevia ou
os vários subsistemas neurais que formam o aperto e guiam os dedos. Todos os
três itens, a caneta, a mão e os mecanismos neurais inconscientemente
operacionais, estão praticamente no mesmo nível. E é essa paridade que acaba
por embaçar a linha entre o sistema inteligente e suas melhores ferramentas de
pensamento e ação. Assim como desenhar uma linha firme nessa areia é inútil
e equivocado ao lidar com nosso equipamento biológico básico, também é inútil
e equivocado ao lidar com tecnologias transparentes. Por exemplo, eu apenas
uso minhas mãos, meu hipocampo, meu núcleo coclear ventral ou eles fazem
parte do sistema - o “eu” - que faz uso? Não existe uma fusão tão íntima como a
que mal se nota.

Visão de Weiser, ca. 1991, a computação onipresente era uma visão na qual
nossos ambientes domésticos e de escritório se tornam progressivamente mais
inteligentes, cortesia de vários dispositivos eletrônicos de intercomunicação
modestamente poderosos, mas incrivelmente prolíficos. Esses dispositivos,
muitos dos quais já foram produzidos e testados no XeroxPARC e em outros
locais, variam de pequenas abas a almofadas de tamanho médio a placas de
tamanho completo. As próprias guias lhe darão o sabor. A idéia de uma guia é
"animar objetos anteriormente inertes". Cada livro da sua estante, cortesia de
sua guia continuamente ativa, saberia onde está se comunicando com sensores
e dispositivos de transmissão no prédio e no escritório, do que se trata, e talvez
até quem o tenha usado recentemente. Qualquer pessoa que precise do livro
pode simplesmente pesquisar sua localização e status atuais (em uso ou não).
Pode até emitir um pequeno sinal sonoro para ajudá-lo a encontrá-lo em uma
prateleira lotada! Tais dispositivos minúsculos e relativamente burros se
comunicariam com dispositivos maiores e levemente menos burros, também
espalhados pelo escritório e pelo prédio. Mesmo objetos muito familiares, como
as janelas de uma casa, podem ganhar novas funcionalidades, registrando
traços e trilhas de atividades em torno da casa. Os espaços no estacionamento
comunicam sua presença e localização ao sistema de carro e motorista por meio
de um pequeno espelho, e a cafeteira em seu escritório imediatamente sabe
quando e onde você estacionou o carro e pode preparar uma bebida quente.
para a sua chegada.

A idéia, então, é incorporar e distribuir o cálculo. Em vez de se concentrar em


criar uma interface mais rica e rica com uma caixa preta ainda mais potente sobre
a mesa, a computação onipresente visa tornar as interfaces múltiplas, naturais e
tão simples que se tornam rapidamente invisíveis para o usuário. O computador
é assim atraído para o mundo real dos objetos e interações cotidianos, onde
suas atividades e contribuições se tornam parte do pano de fundo não observado
do qual o cérebro e o organismo biológicos aprendem a depender.

Esta é uma visão poderosa e atraente. Mas o que isso tem a ver com o status
do indivíduo como um híbrido homem-máquina? Certamente, eu ouvi você dizer,
um mundo inteligente não pode fazer um ciborgue. Minha resposta: depende de
quão inteligente o mundo é e, mais importante, de quão responsivo é, ao longo
do tempo, às atividades e projetos distintos de uma pessoa. Um mundo
inteligente, que cuida de muitas das funções que de outra forma poderiam ocupar
nossa atenção consciente, já está, de fato, funcionando muito parecido com o
ciborgue da visão original de Clynes e Kline. Quanto mais próximo o mundo
inteligente for adaptado às necessidades, hábitos e preferências específicas de
um indivíduo, mais difícil será saber onde essa pessoa para e começa esse
mundo inteligente, em co-evolução e sob medida. No próprio limite, o mundo
inteligente funcionará em harmonia tão íntima com o cérebro biológico que traçar
a linha não servirá a nenhum propósito legal, moral ou social. Seria como se
alguém tentasse argumentar que o "eu real" exclui todas as atividades neurais
inconscientes das quais eu dependo constantemente de relegar tudo isso a um
mero ambiente interno inteligente. A visão da mente e do eu que permanece
após este exercício de amputação cognitiva é realmente fina!

De que maneira, então, um mundo infestado eletronicamente pode exibir os tipos


certos de inteligência que atrapalha as fronteiras? Um tipo de exemplo, extraído
do domínio da prática comercial atual, é o uso de agentes de software cada vez
mais responsivos e sofisticados. Um exemplo de agente de software seria um
programa que monitora seus hábitos de leitura e compra on-line e procura novos
itens adequados aos seus interesses. Agentes de software mais sofisticados
podem monitorar leilões on-line, licitar e vender em seu nome, ou comprar e
vender suas ações e ações. Pattie Maes, que trabalha com agentes de software
no laboratório de mídia do MIT, os descreve como

entidades de software ... que geralmente duram muito tempo, são executadas
continuamente ... e que podem ajudá-lo a acompanhar uma determinada tarefa
... por isso é como se você estivesse estendendo seu cérebro ou expandindo
seu cérebro por ter entidades de software disponíveis que são quase parte de
você.
Reflita sobre as possibilidades. Imagine que você começa a usar a web aos
quatro anos de idade. Agentes de software dedicados rastreiam e se adaptam
aos seus interesses emergentes e explorações aleatórias. Eles, então, ajudam
a direcionar sua atenção para novas idéias, páginas da web e produtos. Nos
próximos setenta e alguns anos, você e seus agentes de software estão presos
em uma dança complexa de mudança e aprendizado co-evolucionários, cada um
influenciando e sendo influenciado pelo outro.

Você espera e confia na contribuição dos agentes da mesma forma que espera
e confia na contribuição de seu próprio cérebro inconsciente - como a ideia
repentina de que seria bom dar uma volta ou comprar um CD dos Beatles - idéias
que parece-nos surgir do nada, mas que claramente moldam nossas vidas e
nosso senso de si. Nesse caso, e em um sentido muito real, as entidades de
software parecem menos parte do seu ambiente de solução de problemas do
que parte de você. O sistema inteligente que agora confronta o mundo inteiro é
o agente biológico-você-mais-o-software. Esses pacotes externos de código
estão contribuindo, assim como os vários mecanismos cognitivos inconscientes
ativos em seu próprio cérebro. Eles estão constantemente trabalhando,
contribuindo para o seu perfil psicológico emergente. Você finalmente conta
como "usando" os agentes de software apenas da mesma maneira atenuada e,
em última análise, paradoxal, por exemplo, que conta como "usando" seu córtex
parietal posterior.

As inovações no design biológico que tornam tudo isso possível incluem o


fornecimento (em nós) de um grau incomum de plasticidade cortical e a presença
(relacionada) de um período incomumente prolongado de desenvolvimento e
aprendizado (infância). Essas inovações duplas (intensamente estudadas pelo
novo programa de pesquisa chamado "construtivismo neural") permitem que o
cérebro humano, mais do que qualquer outra criatura do planeta, considere um
conjunto aberto de operações e recursos biologicamente externos
profundamente próprios. modos básicos de operação e funcionamento. É a
presença dessa plasticidade incomum que faz os ciborgues nascidos na
natureza (mas não cães, gatos ou elefantes) : seres preparados pela Mãe
Natureza para anexar ondas e ondas de elementos e estruturas externas como
parte integrante de suas próprias mentes estendidas .

Esse entrelaçamento gradual de cérebros biológicos com recursos não


biológicos recapitula, em uma arena maior, o tipo de co-desenvolvimento
sensível encontrado dentro de um único cérebro. Um cérebro humano, como
veremos mais adiante, compreende uma variedade de subsistemas
relativamente distintos, mas densamente intercomunicantes. Os subsistemas
parietais posteriores, para dar um exemplo mencionado anteriormente, operam
inconscientemente quando tentamos agarrar um objeto, ajustando a orientação
das mãos e a colocação dos dedos de maneira apropriada. O agente consciente
raramente se incomoda com esses detalhes: ela simplesmente decide alcançar
o objeto e o faz com fluência e eficiência. As partes conscientes de seu cérebro
aprenderam há muito tempo que podiam simplesmente contar com as estruturas
parietais posteriores para ativar e afinar o alcance conforme necessário. Da
mesma maneira, as partes conscientes e inconscientes do cérebro aprendem a
levar em consideração a operação de várias ferramentas e recursos não
biológicos, criando uma matriz estendida de solução de problemas cujo grau de
integração de fluidos às vezes pode rivalizar com o encontrado no próprio
cérebro.

Voltemos, finalmente, ao lugar em que começamos: o controle ciborgue de


aspectos do sistema nervoso autônomo. As funções deste sistema (controle
homeostático da freqüência cardíaca, pressão arterial, respiração etc.) foram os
alvos de Clynes e Kline na proposta original de 1960. O cyborg, lembre-se,
deveria ser um agente humano com algumas camadas adicionais, controladas
por máquina, de funcionamento automático (homeostático), permitindo que ela
sobrevivesse em ambientes alienígenas ou inóspitos. Tais ciborgues, nas
palavras de Clynes e Kline, forneceriam "um sistema organizacional no qual
esses problemas semelhantes a robôs fossem resolvidos automaticamente,
deixando o homem livre para explorar, criar, pensar e sentir". Clynes e Kline
estavam inflexível de que esse descarregamento de certas funções de controle
para dispositivos artificiais não mudaria de modo algum nossa natureza como
seres humanos. Eles simplesmente libertariam a mente consciente para fazer
outro trabalho.

Essa visão original, por mais pioneira que fosse, também era um pouco estreita
demais. Ele restringiu as inovações ciborgues imaginadas àquelas que atendiam
a vários tipos de manutenção corporal. Pode haver algum tipo de efeito dominó
em nossas vidas mentais, liberando recursos neurais conscientes para coisas
melhores, mas isso seria tudo. Minha afirmação, por outro lado, é que vários
tipos de simbiose homem-máquina profunda realmente expandem e alteram a
forma dos processos psicológicos que nos tornam quem somos. As velhas
tecnologias de papel e caneta impactaram profundamente a forma e a forma da
razão biológica em cérebros maduros e alfabetizados. A presença de tais
tecnologias, e suas contrapartes modernas e mais responsivas, não atua
meramente como uma solução conveniente para um mecanismo biológico fixo
da razão. Tampouco libera recursos neurais. Em vez disso, fornece uma
variedade de recursos para os quais os cérebros biológicos, à medida que
aprendem e crescem, combinam suas próprias atividades. A moral, por
enquanto, é simplesmente que esse processo de adaptação, adaptação e
fatoração leva à criação de organizações computacionais e mentais estendidas:
sistemas de raciocínio e pensamento distribuídos pelo cérebro, corpo e mundo.
E é na operação desses sistemas estendidos que grande parte de nossa
inteligência humana distinta é herdada.

Tal argumento não é novo e foi bem formulado por uma variedade de teóricos
que trabalham em muitas tradições diferentes. Acredito, no entanto, que a idéia
da cognição humana como subsistente em uma arquitetura híbrida e estendida
(que inclui aspectos do cérebro e do envelope tecnológico cognitivo em que
nosso cérebro se desenvolve e opera) permanece muito subestimada. Não
podemos entender o que é especial e distintamente poderoso sobre o
pensamento e a razão humanos, simplesmente prestando atenção à importância
da rede da estrutura circundante. Em vez disso, precisamos entender em
detalhes como cérebros como o nosso combinam suas atividades de solução de
problemas com esses recursos adicionais e como os sistemas maiores criados
funcionam, mudam e evoluem. Além disso, precisamos entender que as próprias
idéias de mentes e pessoas não se limitam ao saco biológico de pele e que nosso
senso de eu, lugar e potencial são construções maleáveis prontas para expandir,
mudar ou contrair surpreendentemente. curto prazo.

Considere um pouco mais de perto o caso biológico básico. Nossos cérebros


fornecem algum tipo de substrato para o pensamento consciente e uma vasta
panóplia de recursos orientadores de pensamento e ação que operam
inconscientemente. Você não deseja os movimentos de cada dedo e músculo
das articulações ao alcançar o copo ou ao devolver um saque de tênis. Você não
decide se deparar com uma idéia tão boa para a apresentação do negócio. Em
vez disso, a idéia apenas lhe ocorre, cortesia mais uma vez de todos esses
processos inconscientemente operacionais. Mas seria absurdo, inútil e distorcido
sugerir que sua verdadeira natureza - o verdadeiro "você", o verdadeiro agente
- é de alguma forma definida apenas pela operação dos recursos conscientes,
recursos cujo papel pode realmente ser significativamente menor do que
normalmente Imagine. Em vez disso, nossa natureza como agentes inteligentes
individuais é determinada pelo conjunto completo de tendências e capacidades
conscientes e inconscientes que, juntas, apóiam o conjunto de projetos,
interesses, tendências e atividades distintas de uma pessoa em particular. Quem
somos, por esse motivo, pode ser tão informado pela matriz sociotecnológica
específica em que o organismo biológico existe quanto pelos vários eventos
neurais conscientes e inconscientes que ocorrem dentro do bom e velho saco
biológico de pele.

Quando levamos tudo isso em consideração, torna-se óbvio que mesmo a


incorporação tecnologicamente mediada de camadas adicionais de
funcionalidade inconsciente deve fazer diferença no nosso senso de quem e o
que somos; às vezes há tanta diferença quanto alguns pedaços muito grandes
e importantes de nosso próprio cérebro biológico. Tecnologias transparentes
bem ajustadas têm o potencial de impactar o que nos sentimos capazes de fazer,
onde nos sentimos localizados e que tipos de problemas nos consideramos
capazes de resolver. É claro que também é possível imaginar manipulações
bioeletrônicas, que afetam diretamente o conteúdo da percepção consciente.
Mas a acessibilidade direta à percepção consciente individual não é essencial
para que uma fusão homem-máquina tenha um profundo impacto sobre quem e
o que somos. De fato, como vimos, algumas das transformações de maior
alcance no futuro próximo podem estar enraizadas em fusões que quase não se
agitam na superfície fina de nossa consciência.

Que isso seja assim não é realmente nenhuma surpresa. Já vimos que o que
importava, mesmo no caso dos cyborgs clássicos, era uma combinação de
integração perfeita e transformação geral. Mas as mais integradas de todas as
integrações, e aquelas com maior potencial para transformar nossas vidas e
projetos, geralmente são aquelas que operam profundamente abaixo do nível da
consciência. Novas ondas de eletrônicos e software quase invisíveis, sensíveis
ao usuário, semi-inteligentes e baseados em conhecimento são perfeitamente
posicionados para se fundirem perfeitamente com cérebros biológicos
individuais. Ao fazê-lo, acabarão por obscurecer a fronteira entre o usuário e
seus ambientes eletrônicos ricos em conhecimento, responsivos e
inconscientemente operacionais. Cada vez mais partes de nossos mundos
compartilharão o status moral e psicológico de partes de nossos cérebros. Já
estamos preparados pela natureza para encaixar nossas mentes em nossos
mundos. Uma vez que o mundo comece a recitar a sério, as últimas costuras
deverão estourar, e seremos revelados: ciborgues sem cirurgia, simbiontes sem
suturas.

Superinteligência e Singularidade

Ray Kurzweil

Todo mundo assume os limites de sua própria visão para os limites do mundo.

Arthur Schopenhauer

Não tenho certeza quando tomei consciência da Singularidade. Eu diria que foi
um despertar progressivo. No quase meio século em que mergulhei em
computadores e tecnologias relacionadas, procurei entender o significado e o
propósito da agitação contínua que testemunhei em muitos níveis.
Gradualmente, tornei-me consciente de um evento transformador que se
aproximava na primeira metade do século XXI. Assim como um buraco negro no
espaço altera dramaticamente os padrões de matéria e energia que se aceleram
em direção ao horizonte de eventos, essa singularidade iminente em nosso
futuro está transformando cada vez mais todas as instituições e aspectos da vida
humana, da sexualidade à espiritualidade.

O que é, então, a singularidade? É um período futuro durante o qual o ritmo da


mudança tecnológica será tão rápido, seu impacto será tão profundo que a vida
humana será irreversivelmente transformada. Embora nem utópica nem
distópica, essa época transformará os conceitos nos quais confiamos para dar
sentido às nossas vidas, dos nossos modelos de negócios ao ciclo da vida
humana, incluindo a própria morte. A compreensão da singularidade alterará
nossa perspectiva sobre a importância do nosso passado e as ramificações para
o nosso futuro. Compreendê-lo verdadeiramente muda inerentemente a visão da
vida em geral e a própria vida em particular.

Detalhes da publicação original: "Superinteligência e Singularidade", Ray


Kurzweil, capítulo 1 em A singularidade está próxima: quando os humanos
transcendem a biologia, Viking, 2005, pp. 7-33. Copyright © 2005 por Ray
Kurzweil. Usado com permissão da Viking Penguin, uma divisão do Penguin
Group (USA) LLC.
Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda
edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Considero alguém que entende a singularidade e que refletiu sobre suas


implicações para sua própria vida como um “singularitário”.

Eu posso entender por que muitos observadores não abraçam prontamente as


implicações óbvias do que chamei de lei dos retornos acelerados (a aceleração
inerente da taxa de evolução, com a evolução tecnológica como uma
continuação da evolução biológica). Afinal, levei quarenta anos para poder ver o
que estava bem na minha frente, e ainda não posso dizer que estou totalmente
à vontade com todas as suas consequências.

A idéia principal subjacente à iminente Singularidade é que o ritmo de mudança


de nossa tecnologia criada pelo homem está se acelerando e seus poderes estão
se expandindo em um ritmo exponencial. O crescimento exponencial é
enganoso. Começa quase imperceptivelmente e depois explode com fúria
inesperada - inesperada, isto é, se alguém não se importa em seguir sua
trajetória. (Veja a Figura 15.1.)

Considere esta parábola: um proprietário de lago quer ficar em casa para cuidar
dos peixes do lago e garantir que o lago em si não fique coberto de lírios, que,
segundo se diz, dobram seu número a cada poucos dias. Mês após mês, ele
espera pacientemente, mas apenas pequenas manchas de lírios podem ser
discernidas, e elas não parecem estar se expandindo de maneira perceptível.
Com os lírios cobrindo menos de 1% do lago, o proprietário acha que é seguro
tirar férias e sair com a família. Quando ele volta, algumas semanas depois, fica
chocado ao descobrir que todo o lago ficou coberto de almofadas e seus peixes
morreram. Dobrando seu número a cada poucos dias, as últimas sete
duplicações foram suficientes para estender a cobertura das pastilhas a todo o
lago (sete duplicações aumentaram seu alcance em 128 vezes.) Essa é a
natureza do crescimento exponencial.

Considere Gary Kasparov, que desprezou o patético estado do xadrez do


computador em 1992. No entanto, a duplicação incansável da energia do
computador todos os anos permitiu que um computador o derrotasse apenas
cinco anos depois. A lista de maneiras pelas quais os computadores agora
podem exceder as capacidades humanas está crescendo rapidamente. Além
disso, as aplicações antes estreitas da inteligência computacional estão
gradualmente se expandindo em um tipo de atividade após o outro. Por exemplo,
os computadores estão diagnosticando eletrocardiogramas e imagens médicas,
aviões voando e pousando, controlando as decisões táticas de armas
automatizadas, tomando decisões financeiras e de crédito e sendo responsáveis
por muitas outras tarefas que exigiam inteligência humana. O desempenho
desses sistemas é cada vez mais baseado na integração de vários tipos de
inteligência artificial (IA). Mas enquanto houver uma falha na IA em qualquer área
de atuação, os céticos apontarão para essa área como um bastião inerente à
superioridade humana permanente sobre as capacidades de nossas próprias
criações.

Este capítulo argumentará, no entanto, que dentro de várias décadas as


tecnologias baseadas em informações abrangerão todo o conhecimento e
proficiência humanos, incluindo, finalmente, os poderes de reconhecimento de
padrões, habilidades de solução de problemas e inteligência emocional e moral
do próprio cérebro humano.

Embora impressionante em muitos aspectos, o cérebro sofre severas limitações.


Usamos seu paralelismo maciço (cem trilhões de conexões interneuronais
operando simultaneamente) para reconhecer rapidamente padrões sutis. Mas
nosso pensamento é extremamente lento: as transações neurais básicas são
vários milhões de vezes mais lentas que os circuitos eletrônicos
contemporâneos. Isso torna nossa largura de banda fisiológica para o
processamento de novas informações extremamente limitada em comparação
com o crescimento exponencial da base de conhecimento humana geral.

Nossos corpos biológicos da versão 1.0 são igualmente frágeis e sujeitos a uma
infinidade de modos de falha, sem mencionar os rituais de manutenção pesados
que eles exigem. Embora a inteligência humana às vezes seja capaz de
aumentar em sua criatividade e expressividade, muito do pensamento humano
é derivado, mesquinho e circunscrito.

A singularidade nos permitirá transcender essas limitações de nossos corpos e


cérebros biológicos. Ganharemos poder sobre nossos destinos. Nossa
mortalidade estará em nossas próprias mãos. Poderemos viver o tempo que
quisermos (uma afirmação sutilmente diferente de dizer que viveremos para
sempre). Compreenderemos completamente o pensamento humano e
estenderemos e expandiremos amplamente seu alcance. No final deste século,
a porção não biológica de nossa inteligência será trilhões de trilhões de vezes
mais poderosa que a inteligência humana sem ajuda.

Agora estamos nos estágios iniciais dessa transição. A aceleração da mudança


de paradigma (a taxa na qual mudamos as abordagens técnicas fundamentais),
bem como o crescimento exponencial da capacidade da tecnologia da
informação estão começando a atingir o "joelho da curva", que é o estágio em
que uma tendência exponencial torna-se perceptível. Logo após esse estágio, a
tendência rapidamente se torna explosiva. Antes de meados deste século, as
taxas de crescimento de nossa tecnologia - que serão indistinguíveis de nós
mesmos - serão tão acentuadas que parecerão essencialmente verticais. De
uma perspectiva estritamente matemática, as taxas de crescimento ainda serão
finitas, mas tão extremas que as mudanças que provocam parecerão romper o
tecido da história humana. Essa, pelo menos, será a perspectiva da humanidade
biológica sem aprimoramento.
A singularidade representará o ponto culminante da fusão de nosso pensamento
biológico e existência com nossa tecnologia, resultando em um mundo ainda
humano, mas que transcende nossas raízes biológicas. Não haverá distinção,
pós-Singularidade, entre humano e máquina ou entre realidade física e virtual.
Se você se pergunta o que permanecerá inequivocamente humano em um
mundo assim, é simplesmente essa qualidade: a nossa é a espécie que procura
inerentemente estender seu alcance físico e mental além das limitações atuais.

Muitos comentaristas dessas mudanças se concentram no que eles percebem


como uma perda de algum aspecto vital de nossa humanidade que resultará
dessa transição. Essa perspectiva decorre, no entanto, de um mal-entendido
sobre o que nossa tecnologia se tornará. Todas as máquinas que conhecemos
até hoje carecem da sutileza essencial das qualidades biológicas humanas.
Embora a Singularidade tenha muitas faces, sua implicação mais importante é a
seguinte: nossa tecnologia corresponderá e, em seguida, excederá amplamente
o refinamento e flexibilidade do que consideramos o melhor dos traços humanos.

A visão linear intuitiva versus a visão exponencial histórica

Quando a primeira inteligência transumana é criada e se lança em auto-


aperfeiçoamento recursivo, é provável que ocorra uma descontinuidade
fundamental, coisas que nem sequer posso começar a prever.

Michael Anissimov

Na década de 1950, John von Neumann, o lendário teórico da informação, foi


citado como tendo dito que “o progresso sempre acelerado da tecnologia ... dá
a aparência de abordar alguma singularidade essencial na história da raça além
da qual os assuntos humanos, como sabemos eles não poderiam continuar. ”Von
Neumann faz duas observações importantes aqui: aceleração e singularidade. A
primeira idéia é que o progresso humano é exponencial (ou seja, se expande
multiplicando repetidamente por uma constante) em vez de linear (ou seja,
expandindo adicionando repetidamente uma constante) (veja a Figura 15.1).

A segunda é que o crescimento exponencial é sedutor, começando lenta e


virtualmente imperceptivelmente, mas além do joelho da curva, ele se torna
explosivo e profundamente transformador. O futuro é amplamente mal
compreendido. Nossos antepassados esperavam que fosse parecido com o
presente deles, que era parecido com o passado. As tendências exponenciais
existiram mil anos atrás, mas elas estavam no estágio inicial em que eram tão
vagas e lentas que não pareciam nenhuma tendência. Como resultado, a
expectativa dos observadores de um futuro inalterado foi cumprida. Hoje,
antecipamos o contínuo progresso tecnológico e as repercussões sociais que se
seguem. Mas o futuro será muito mais surpreendente do que a maioria das
pessoas imagina, porque poucos observadores realmente internalizaram as
implicações do fato de que a taxa de mudança em si está se acelerando.
A maioria das previsões de longo alcance do que é tecnicamente viável em
períodos futuros subestima drasticamente o poder dos desenvolvimentos
futuros, porque se baseiam no que eu chamo de visão "linear intuitiva" da
história, em vez da visão "exponencial histórica". Meus modelos mostram que
dobramos a taxa de mudança de paradigma a cada década. Assim, o século XX
foi acelerando gradualmente a taxa de progresso atual; suas realizações,
portanto, foram equivalentes a cerca de vinte anos de progresso na taxa de 2000.
Faremos outros vinte anos de progresso em apenas quatorze anos (até 2014) e,
em seguida, faremos o mesmo novamente em apenas sete anos. Para expressar
isso de outra maneira, não experimentaremos cem anos de avanço tecnológico
no século XXI; testemunharemos na ordem de vinte mil anos de progresso
(novamente, quando medidos pela taxa de progresso de hoje ), ou cerca de mil
vezes maior do que o que foi alcançado no século XX.

As concepções errôneas sobre a forma do futuro surgem com freqüência e em


uma variedade de contextos. Como um exemplo de muitos, em um debate
recente em que participei sobre a viabilidade da fabricação molecular, um
membro do painel vencedor do Prêmio Nobel rejeitou as preocupações de
segurança com relação à nanotecnologia, proclamando que "não veremos
entidades nanoengenharia auto-replicantes [ dispositivos construíram fragmento
molecular por fragmento] por cem anos. ”Eu apontei que cem anos era uma
estimativa razoável e, na verdade, correspondia à minha própria avaliação da
quantidade de progresso técnico necessário para atingir esse marco em
particular quando medido na taxa de progresso atual ( cinco vezes a taxa média
de mudança que vimos no século XX). Mas, como dobramos a taxa de progresso
a cada década, veremos o equivalente a um século de progresso - à taxa atual -
em apenas vinte e cinco anos civis.

Da mesma forma, na conferência Future of Life da revista Time , realizada em


2003 para comemorar o cinquentenário da descoberta da estrutura do DNA,
todos os palestrantes convidados foram convidados a pensar como seriam os
próximos cinquenta anos. Praticamente todos os apresentadores observaram o
progresso dos últimos cinquenta anos e o usaram como modelo pelos próximos
cinquenta anos. Por exemplo, James Watson, o descobridor do DNA, disse que
em cinquenta anos teremos medicamentos que nos permitirão comer o quanto
quisermos sem ganhar peso.

Eu respondi: "Cinqüenta anos?" Já conseguimos isso em ratos, bloqueando o


gene do receptor de insulina adiposo que controla o armazenamento de gordura
nas células adiposas. Drogas para uso humano (usando interferência de RNA e
outras técnicas) estão em desenvolvimento agora e estarão em testes da FDA
em vários anos. Eles estarão disponíveis em cinco a dez anos, não em
cinquenta. Outras projeções foram igualmente míopes, refletindo as prioridades
da pesquisa contemporânea e não as profundas mudanças que o próximo meio
século trará. De todos os pensadores desta conferência, fomos principalmente
Bill Joy e eu que levamos em conta a natureza exponencial do futuro, embora
Joy e eu discordemos sobre a importância dessas mudanças.
As pessoas supõem intuitivamente que a taxa atual de progresso continuará por
períodos futuros. Mesmo para aqueles que já existem há tempo suficiente para
experimentar como o ritmo da mudança aumenta ao longo do tempo, a intuição
não examinada deixa a impressão de que a mudança ocorre na mesma
proporção que experimentamos mais recentemente. Do ponto de vista do
matemático, a razão para isso é que uma curva exponencial parece uma linha
reta quando examinada por apenas uma curta duração. Como resultado, até
comentaristas sofisticados, quando consideram o futuro, tipicamente extrapolam
o atual ritmo de mudança nos próximos dez anos ou cem anos para determinar
suas expectativas. É por isso que descrevo essa maneira de encarar o futuro
como a visão "intuitiva linear".

Mas uma avaliação séria da história da tecnologia revela que a mudança


tecnológica é exponencial. O crescimento exponencial é uma característica de
qualquer processo evolutivo, do qual a tecnologia é um exemplo primário. Você
pode examinar os dados de diferentes maneiras, em diferentes escalas de tempo
e para uma ampla variedade de tecnologias, variando de eletrônicas a biológicas,
bem como suas implicações, que variam da quantidade de conhecimento
humano ao tamanho da economia. A aceleração do progresso e crescimento se
aplica a cada um deles. De fato, geralmente encontramos não apenas um
crescimento exponencial simples, mas um crescimento exponencial "duplo", o
que significa que a taxa de crescimento exponencial (ou seja, o expoente) está
crescendo exponencialmente (por exemplo, o preço-desempenho da
computação).

Muitos cientistas e engenheiros têm o que chamo de "pessimismo de cientista".


Muitas vezes, eles estão tão imersos nas dificuldades e nos detalhes intricados
de um desafio contemporâneo que deixam de apreciar as implicações finais de
longo prazo de seu próprio trabalho e o amplo campo de trabalho em que
operam. Da mesma forma, eles falham em explicar as ferramentas muito mais
poderosas que terão disponíveis a cada nova geração de tecnologia.

Os cientistas são treinados para serem céticos, falar cautelosamente dos


objetivos atuais da pesquisa e raramente especular além da atual geração de
pesquisas científicas. Essa pode ter sido uma abordagem satisfatória quando
uma geração de ciência e tecnologia durou mais que uma geração humana, mas
não serve aos interesses da sociedade agora que uma geração de progresso
científico e tecnológico compreende apenas alguns anos.

Considere os bioquímicos que, em 1990, eram céticos quanto ao objetivo de


transcrever todo o genoma humano em meros quinze anos. Esses cientistas
haviam passado um ano inteiro transcrevendo apenas dez milésimos do
genoma. Assim, mesmo com avanços razoáveis, parecia natural para eles que
levaria um século, se não mais, antes que todo o genoma pudesse ser
sequenciado.

Ou considere o ceticismo expresso em meados da década de 1980 de que a


Internet seria um fenômeno significativo, uma vez que incluía apenas dezenas
de milhares de nós (também conhecidos como servidores). De fato, o número de
nós estava dobrando a cada ano, de modo que provavelmente havia dezenas de
milhões de nós dez anos depois. Mas essa tendência não foi apreciada por quem
lutou com a tecnologia de ponta em 1985, que permitiu adicionar apenas alguns
milhares de nós ao redor do mundo em um único ano.

O erro conceitual inverso ocorre quando certos fenômenos exponenciais são


reconhecidos pela primeira vez e aplicados de maneira excessivamente
agressiva sem modelar o ritmo apropriado de crescimento. Enquanto o
crescimento exponencial ganha velocidade com o tempo, não é instantâneo. A
subida dos valores de capital (ou seja, preços do mercado de ações) durante a
“bolha da Internet” e a bolha de telecomunicações relacionada (1997-2000)
excedeu muito qualquer expectativa razoável de crescimento exponencial. A
adoção real da Internet e do comércio eletrônico mostrou um crescimento
exponencial suave tanto por meio de expansão quanto por quebra; a expectativa
excessivamente zelosa de crescimento afetava apenas as avaliações de capital
(ações). Vimos erros comparáveis durante as mudanças anteriores de
paradigma - por exemplo, no início da era das ferrovias (década de 1830),
quando o equivalente ao boom e à quebra da Internet levou a um frenesi de
expansão da ferrovia.

Outro erro que os prognósticos cometem é considerar as transformações que


resultarão de uma única tendência no mundo de hoje como se nada mais
mudasse. Um bom exemplo é a preocupação de que a extensão radical da vida
resultará em superpopulação e esgotamento de recursos materiais limitados
para sustentar a vida humana, o que ignora a criação de riqueza
comparativamente radical da nanotecnologia e da IA forte. Por exemplo, os
dispositivos de fabricação baseados em nanotecnologia na década de 2020
serão capazes de criar praticamente qualquer produto físico a partir de matérias-
primas e informações baratas.

Enfatizo a perspectiva exponencial versus linear porque é a falha mais


importante que os prognósticos cometem ao considerar as tendências futuras. A
maioria das previsões e analistas de tecnologia ignora completamente essa
visão exponencial histórica do progresso tecnológico. De fato, quase todo mundo
que encontro tem uma visão linear do futuro. É por isso que as pessoas tendem
a superestimar o que pode ser alcançado a curto prazo (porque tendemos a
deixar de fora os detalhes necessários), mas subestimam o que pode ser
alcançado a longo prazo (porque o crescimento exponencial é ignorado).

As seis épocas

Primeiro construímos as ferramentas, depois elas nos constroem.

Marshall McLuhan

O futuro não é mais o que costumava ser.


Yogi Berra

A evolução é um processo de criação de padrões de ordem crescente. Eu


acredito que é a evolução dos padrões que constitui a história final do nosso
mundo. A evolução funciona por meio de indireção: cada estágio ou época usa
os métodos de processamento de informações da época anterior para criar a
próxima. Conceituo a história da evolução - biológica e tecnológica - como
ocorrendo em seis épocas. Como discutiremos, a Singularidade começará na
Época Cinco e se espalhará da Terra para o resto do universo na Época Seis
(veja a Figura 15.2).

Época Um: Física e Química

Podemos traçar nossas origens para um estado que representa informações em


suas estruturas básicas: padrões de matéria e energia. Teorias recentes da
gravidade quântica sustentam que o tempo e o espaço são divididos em quanta
discretos, essencialmente fragmentos de informação. Existe controvérsia sobre
se a matéria e a energia são, em última análise, de natureza digital ou analógica,
mas, independentemente da resolução desse problema, sabemos que as
estruturas atômicas armazenam e representam informações discretas.

Algumas centenas de milhares de anos após o Big Bang, os átomos começaram


a se formar, quando os elétrons ficaram presos em órbitas ao redor de núcleos
constituídos por prótons e nêutrons. A estrutura elétrica dos átomos os tornou
"pegajosos". A química nasceu alguns milhões de anos depois, quando os
átomos se uniram para criar estruturas relativamente estáveis chamadas
moléculas. De todos os elementos, o carbono provou ser o mais versátil; é capaz
de formar laços em quatro direções (contra uma a três para a maioria dos outros
elementos), dando origem a estruturas tridimensionais complicadas, ricas em
informações.

As regras do nosso universo e o equilíbrio das constantes físicas que governam


a interação das forças básicas são tão requintadamente, delicadamente e
exatamente apropriados para a codificação e evolução da informação
(resultando em crescente complexidade) que se pergunta como é
extraordinariamente extraordinário.

Época 6 O despertar do universo Os padrões de matéria e energia do universo


ficam saturados de processos e conhecimentos inteligentes

Época 5 Fusão de tecnologia e inteligência humana Os métodos da biologia


(incluindo a inteligência humana) são integrados à base de tecnologia humana
(em expansão exponencial)

Epoch 4 Technology Informações em projetos de hardware e software


situação improvável surgiu. Onde alguns veem uma mão divina, outros veem
nossas próprias mãos - ou seja, o princípio antrópico, que sustenta que somente
em um universo que permitiu nossa própria evolução estaríamos aqui para fazer
essas perguntas. Teorias recentes da física sobre múltiplos universos especulam
que novos universos são criados regularmente, cada um com suas próprias
regras únicas, mas que a maioria deles desaparece rapidamente ou continua
sem a evolução de padrões interessantes (como os baseados na Terra) a
biologia criou) porque suas regras não suportam a evolução de formas cada vez
mais complexas. É difícil imaginar como poderíamos testar essas teorias da
evolução aplicadas à cosmologia primitiva, mas está claro que as leis físicas do
nosso universo são exatamente o que precisam ser para permitir a evolução de
níveis crescentes de ordem e complexidade.

Época Dois: Biologia e DNA

Na segunda época, começando há vários bilhões de anos, os compostos à base


de carbono se tornaram cada vez mais intrincados até agregações complexas
de moléculas formarem mecanismos de auto-replicação e a vida ter se originado.
Por fim, os sistemas biológicos desenvolveram um mecanismo digital preciso
(DNA) para armazenar informações que descrevem uma sociedade maior de
moléculas. Essa molécula e sua maquinaria de suporte de códons e ribossomos
permitiram manter um registro das experiências evolutivas desta segunda época.

Época Três: Cérebros

Cada época continua a evolução da informação por meio de uma mudança de


paradigma para um nível adicional de “indireção”. (Ou seja, a evolução usa os
resultados de uma época para criar a seguinte.) Por exemplo, na terceira época,
a evolução guiada pelo DNA produziu organismos que poderiam detectar
informações com seus próprios órgãos sensoriais e processar e armazenar
essas informações em seus próprios cérebros e sistemas nervosos. Isso foi
possível graças aos mecanismos da segunda época (DNA e informação
epigenética de proteínas e fragmentos de RNA que controlam a expressão
gênica), que (indiretamente) permitiram e definiram mecanismos de
processamento de informações da terceira época (o cérebro e o sistema nervoso
dos organismos). A terceira época começou com a capacidade dos animais
primitivos de reconhecer padrões, o que ainda é responsável pela grande maioria
da atividade em nossos cérebros. Por fim, nossa própria espécie desenvolveu a
capacidade de criar modelos mentais abstratos do mundo que experimentamos
e de contemplar as implicações racionais desses modelos. Temos a capacidade
de redesenhar o mundo em nossas próprias mentes e colocar essas idéias em
ação.

Época Quatro: Tecnologia


Combinando a investidura do pensamento racional e abstrato com nosso polegar
opositor, nossa espécie inaugurou a quarta época e o próximo nível de indireção:
a evolução da tecnologia criada pelo homem. Isso começou com mecanismos
simples e se desenvolveu em autômatos elaborados (máquinas mecânicas
automatizadas). Por fim, com sofisticados dispositivos computacionais e de
comunicação, a própria tecnologia era capaz de detectar, armazenar e avaliar
padrões elaborados de informações. Para comparar a taxa de progresso da
evolução biológica da inteligência com a evolução tecnológica, considere que os
mamíferos mais avançados adicionam cerca de uma polegada cúbica de matéria
cerebral a cada cem mil anos, enquanto estamos dobrando aproximadamente a
capacidade computacional dos computadores a cada ano . Obviamente, nem o
tamanho do cérebro nem a capacidade do computador são os únicos
determinantes da inteligência, mas eles representam fatores facilitadores.

Se colocarmos os principais marcos da evolução biológica e do desenvolvimento


tecnológico humano em um único gráfico, plotando o eixo x (número de anos
atrás) e o eixo y (o tempo de mudança de paradigma) em escalas logarítmicas,

10 1 ° 1

co

CO

<3

<D
10 7 1

>

co

LU

10 5 ]

10 4 1

Eu-

10 3 1
CM

10 1

10

Contagem regressiva para singularidade

Vida

Gráfico Logarítmico

Células eucarióticas, organismos multicelulares Explosão cambriana (plantas do


corpo) Répteis "- ^ Classe Mammalia

Primatas ^

Superfamília Homlnoldea

Horniriidae da família

Gênero Homo, Homo erectus, ferramentas especializadas em pedra

Antepassados humanos andam de pé. Língua falada Homo sapiens

n , Homo sapiens sapiens

Arte, cidades adiantadas Agricultura

Escrita, roda '' l - '<.Estados da cidade Impressão, método experimental ' 1

Revolução industrial Computador

Telefone, eletricidade, rádio


Computado pessoal

10 a 10 s 10 '10 6 10 5 10 4 Tempo antes do presente (anos)

icr

Kr

10

Figura 15.3 Contagem regressiva para singularidade. A evolução biológica e a


tecnologia humana mostram aceleração contínua, indicada pelo menor tempo
até o próximo evento (dois bilhões de anos desde a origem da vida nas células;
catorze anos desde o PC até a World Wide Web).

encontramos uma linha razoavelmente reta (aceleração contínua), com a


evolução biológica levando diretamente ao desenvolvimento direcionado ao
homem (veja a Figura 15.3).

As Figuras 15.3 e 15.4 refletem minha visão dos principais desenvolvimentos na


história biológica e tecnológica. Note, no entanto, que a linha reta, demonstrando
a aceleração contínua da evolução, não depende da minha seleção particular de
eventos. Muitos observadores e livros de referência compilaram listas de eventos
importantes na evolução biológica e tecnológica, cada um com suas próprias
idiossincrasias. Apesar da diversidade de abordagens, no entanto, se
combinarmos listas de várias fontes (por exemplo, a Encyclopaedia Britannica,
o Museu Americano de História Natural, o “calendário cósmico” de Carl Sagan e
outras), observaremos a mesma aceleração óbvia e suave . A Figura 15.5
combina quinze listas diferentes de eventos principais. Como pensadores
diferentes atribuem datas diferentes ao mesmo evento e listas diferentes incluem
eventos semelhantes ou sobrepostos selecionados de acordo com critérios
diferentes, vemos um "espessamento" esperado da linha de tendência devido ao
"ruído" (variação estatística) desses dados. A tendência geral, no entanto, é
muito clara.

10 10 -

Eu

10 9 '
10 8 '

10 7 -

>

>

10 e '

LU

10 5 '

o
©

10 4 -

Eu-

10 s '

j .-. 2 -

10

10 T

4x10 9

Vida □ -

3x10

O físico e teórico da complexidade Theodore Modis analisou essas listas e


determinou 28 agrupamentos de eventos (que ele chamou de marcos canônicos)
combinando eventos idênticos, semelhantes e / ou relacionados das diferentes
listas. Esse processo essencialmente remove o “ruído” (por exemplo, a
variabilidade de datas entre as listas) das listas, revelando novamente a mesma
progressão (veja a Figura 15.6).

Os atributos que estão crescendo exponencialmente nesses gráficos são ordem


e complexidade. Essa aceleração corresponde às nossas observações de senso
comum. Um bilhão de anos atrás, quase nada aconteceu ao longo de um milhão
de anos. Mas há um quarto de milhão de anos, eventos históricos como a
evolução de nossa espécie ocorreram em prazos de apenas cem mil anos. Em
tecnologia, se voltarmos cinquenta mil anos, não aconteceu muita coisa ao longo
de um período de mil anos. Mas, no passado recente, vemos novos paradigmas,
como a World Wide Web, progredindo desde o início até a adoção em massa (o
que significa que eles são usados por um quarto da população nos países
avançados) em apenas uma década.

10 s

10 °

I 10 ' 0)

® 10 6 i ± j

©c

Z 10 5

Mudanças de paradigma

por 15 listas de eventos principais

Gráfico Logarítmico

-x- + -X X-

&

o Carl Sagan □ Museu Americano de História Natural A Encyclopaedia Britannica


■ ERAPS na Universidade do Arizona a Paul Boyer o Barrow e seda b Jean
Heidmann

♦ Simpósio do IGPP - Phillip Tobias

o David Nelson + Goran Burenhuit (ed.) x Johanson e Edgar

• Modis 2002
m Richard Coren ou Modis 2003

Eu 10 *

1 (r

<> o

sg * o 0 ° ®

l (r

oO

10

10 "

10 "

10 s

10 8 10 7 10 ® 10 5 Tempo antes do presente (anos)

10 4

10 °

10 °

10

Figura 15.5 Quinze vistas da evolução. Grandes mudanças de paradigma na


história do mundo, como vistas por quinze listas diferentes de eventos-chave. Há
uma clara tendência de aceleração suave através da evolução biológica e depois
tecnológica.

10 "

Marcos canônicos

UMA
10

,9-=

10 s n 10 7 1 10 6 1 10 s 1 10 4 -? 10 3 1 10 2 1

10 T

10 1

Primeiro mam mi

diferenciação de tipos de DNA humano Surgimento de humanos modernos

n Arte rupestre, escrita proto

Invenção da agricultura ^^ o Técnicas para iniciar o fogo Desenvolvimento da


roda, escrever

Democracia

Renaissance (prensa de impressão)

Revolução industrial (motor a vapor) »

Estrutura de DNA, transistor, Física moderna - nudear

energia

10 "

10 "

10 °

10 ' 10 ° 10 ° 10 4 Tempo antes do presente (Anos)

10 °

10 °
10

Figura 15.6 Marcos canônicos com base em grupos de eventos de treze listas.

Época Cinco: A fusão da tecnologia humana com a inteligência humana

Prevendo várias décadas, a Singularidade começará com a quinta época. Isso


resultará da fusão do vasto conhecimento incorporado em nossos próprios
cérebros com a capacidade, velocidade e capacidade de compartilhamento de
conhecimento muito maiores de nossa tecnologia. A quinta época permitirá que
nossa civilização homem-máquina transcenda as limitações do cérebro humano
de meros cem trilhões de conexões extremamente lentas.

A singularidade nos permitirá superar os problemas humanos seculares e


ampliar amplamente a criatividade humana. Preservaremos e aprimoraremos a
inteligência que a evolução nos concedeu, enquanto superamos as profundas
limitações da evolução biológica. Mas a Singularidade também ampliará a
capacidade de agir de acordo com nossas inclinações destrutivas, de modo que
sua história completa ainda não foi escrita.

Época Seis: O Universo Acorda

Após a Singularidade, a inteligência, derivada de suas origens biológicas nos


cérebros humanos e de suas origens tecnológicas na engenhosidade humana,
começará a saturar a matéria e a energia em seu meio. Isso será conseguido
através da reorganização da matéria e da energia para fornecer um nível ótimo
de computação para se espalhar desde a sua origem na Terra.

Atualmente, entendemos a velocidade da luz como um fator limitante na


transferência de informações. Contornar esse limite deve ser considerado
altamente especulativo, mas há indícios de que essa restrição possa ser
substituída. Se houver desvios sutis, finalmente aproveitaremos essa
capacidade superluminal. Se nossa civilização infunde o resto do universo com
sua criatividade e inteligência rápida ou lentamente depende de sua
imutabilidade. De qualquer forma, a matéria e os mecanismos "mudos" do
universo serão transformados em formas de inteligência requintadamente
sublimes, que constituirão a sexta época na evolução dos padrões de
informação.

Este é o destino final da singularidade e do universo.

A singularidade está próxima

Você sabe, as coisas vão ser muito diferentes! ... Não, não, quero dizer
realmente diferente!
Mark Miller (cientista da computação) para Eric Drexler, por volta de 1986

Quais são as consequências deste evento? Quando a inteligência maior que a


humana impulsiona o progresso, esse progresso será muito mais rápido. De fato,
não parece haver razão para que o progresso em si não envolva a criação de
entidades ainda mais inteligentes - em uma escala de tempo ainda menor. A
melhor analogia que vejo é com o passado evolutivo: os animais podem se
adaptar aos problemas e inventar, mas muitas vezes não são mais rápidos do
que a seleção natural pode fazer seu trabalho - o mundo age como seu próprio
simulador no caso da seleção natural. Nós, humanos, temos a capacidade de
internalizar o mundo e conduzir "e se" em nossas cabeças; podemos resolver
muitos problemas milhares de vezes mais rápido que a seleção natural. Agora,
criando os meios para executar essas simulações em velocidades muito mais
altas, estamos entrando em um regime tão radicalmente diferente do nosso
passado humano quanto nós humanos dos animais inferiores. Do ponto de vista
humano, essa mudança será um desperdício de todas as regras anteriores,
talvez num piscar de olhos, uma fuga exponencial além de qualquer esperança
de controle.

Vernor Vinge, "A singularidade tecnológica", 1993

Que uma máquina ultrainteligente seja definida como uma máquina que pode
superar em muito todas as atividades intelectuais de qualquer homem, por mais
inteligente que seja. Como o design de máquinas é uma dessas atividades
intelectuais, uma máquina ultra-inteligente pode projetar máquinas ainda
melhores; inquestionavelmente haveria uma "explosão de inteligência", e a
inteligência do homem ficaria para trás. Assim, a primeira máquina ultra-
inteligente é a última invenção que o homem precisa fazer.

Irving John Good, “Especulações sobre a primeira máquina ultrainteligente”,


1965

Para colocar o conceito de singularidade em uma perspectiva mais aprofundada,


vamos explorar a história da própria palavra. "Singularidade" é uma palavra em
inglês que significa um evento único com, bem, implicações singulares. A palavra
foi adotada pelos matemáticos para denotar um valor que transcende qualquer
limitação finita, como a explosão de magnitude resultante da divisão de uma
constante por um número que se aproxima cada vez mais de zero. Considere,
por exemplo, a função simples y = 1 / x. À medida que o valor de x se aproxima
de zero, o valor da função (y) explode para valores cada vez maiores (veja a
Figura 15.7).

Tal função matemática nunca alcança um valor infinito, pois dividir por zero é
matematicamente "indefinido" (impossível de calcular). Mas o valor de y excede
qualquer limite finito possível (se aproxima do infinito) à medida que o divisor x
se aproxima de zero.
O próximo campo a adotar a palavra foi astrofísica. Se uma estrela massiva sofre
uma explosão de supernova, seu restante acaba entrando em colapso ao ponto
de aparentemente zero volume e densidade infinita, e uma "singularidade" é
criada em seu centro. Como se pensava que a luz era incapaz de escapar da
estrela depois de atingir essa densidade infinita, era chamada de buraco negro.
Constitui uma ruptura no tecido do espaço e do tempo.

Uma teoria especula que o próprio universo começou com essa singularidade.
Curiosamente, no entanto, o horizonte de eventos (superfície) de um buraco
negro é de tamanho finito, e a força gravitacional é apenas teoricamente infinita
no centro de tamanho zero do buraco negro. Em qualquer local que possa
realmente ser medido, as forças são finitas, embora extremamente grandes.

A primeira referência à Singularidade como um evento capaz de romper o tecido


da história humana é a afirmação de John von Neumann citada acima. Nos anos
60, IJ Good escreveu sobre uma “explosão de inteligência” resultante de
máquinas inteligentes projetando sua próxima geração sem intervenção
humana. Vernor Vinge, matemático e cientista da computação da Universidade
Estadual de San Diego, escreveu sobre uma “singularidade tecnológica” que se
aproxima rapidamente em um artigo da revista Omni em 1983 e em um romance
de ficção científica, Marooned in Realtime, em 1986.

Meu livro de 1989, A Era das Máquinas Inteligentes, apresentava um futuro


inevitavelmente voltado para máquinas que excediam grandemente a
inteligência humana na primeira metade do século XXI. O livro de Hans Moravec,
Mind Children, de 1988, chegou a uma conclusão semelhante ao analisar a
progressão da robótica. Em 1993, Vinge apresentou um artigo a um simpósio
organizado pela NASA que descreveu a Singularidade como um evento iminente
resultante principalmente do advento de "entidades com inteligência maior que
a inteligência humana", que Vinge via como o prenúncio de um fenômeno
descontrolado. Meu livro de 1999, A era das máquinas espirituais: quando os
computadores excedem a inteligência humana, descreveu a conexão cada vez
mais íntima entre nossa inteligência biológica e a inteligência artificial que
estamos criando. O livro de Hans Moravec Robot: Mere Machine to
Transcendent Mind, também publicado em 1999, descreveu os robôs da década
de 2040 como nossos “herdeiros evolucionários”, máquinas que “crescerão
conosco, aprenderão nossas habilidades e compartilharão nossos objetivos e
valores ... filhos de nossas mentes. ”Os livros de 1997 e 2001 do estudioso
australiano Damien Broderick, ambos intitulados The Spike, analisaram o
impacto generalizado da fase extrema de aceleração da tecnologia prevista em
várias décadas. Em uma extensa série de escritos, John Smart descreveu a
Singularidade como o resultado inevitável do que ele chama de compressão
"MEST" (matéria, energia, espaço e tempo).

Na minha perspectiva, a Singularidade tem muitas faces. Representa a fase


quase vertical do crescimento exponencial que ocorre quando a taxa é tão
extrema que a tecnologia parece estar se expandindo em velocidade infinita.
Obviamente, de uma perspectiva matemática, não há descontinuidade, ruptura
e as taxas de crescimento permanecem finitas, embora extraordinariamente
grandes. Porém, de nossa estrutura atualmente limitada, esse evento iminente
parece ser uma ruptura abrupta e aguda na continuidade do progresso. Enfatizo
a palavra “atualmente” porque uma das implicações mais importantes da
Singularidade será uma mudança na natureza de nossa capacidade de
entender. Nós nos tornaremos muito mais inteligentes à medida que nos
fundimos com nossa tecnologia.

O ritmo do progresso tecnológico pode continuar a acelerar indefinidamente?


Não há um ponto em que os humanos sejam incapazes de pensar rápido o
suficiente para acompanhar? Para humanos sem aprimoramento, é claro. Mas o
que mil cientistas, cada um mil vezes mais inteligentes que os cientistas
humanos hoje em dia, e cada um operando mil vezes mais rápido que os
humanos contemporâneos (porque o processamento de informações em seus
cérebros principalmente não biológicos é mais rápido) alcançaria? Um ano
cronológico seria como um milênio para eles. O que eles inventariam?

Bem, por um lado, eles criariam tecnologia para se tornarem ainda mais
inteligentes (porque sua inteligência não tem mais capacidade fixa). Eles
mudariam seus próprios processos de pensamento para permitir que pensassem
ainda mais rápido. Quando os cientistas se tornam um milhão de vezes mais
inteligentes e operam um milhão de vezes mais rápido, uma hora resultaria em
um século de progresso (nos termos de hoje).

A singularidade envolve os seguintes princípios:

• A taxa de mudança de paradigma (inovação técnica) está se acelerando, agora


dobrando a cada década.

• O poder (preço-desempenho, velocidade, capacidade e largura de banda) das


tecnologias da informação está crescendo exponencialmente em um ritmo ainda
mais rápido, agora dobrando a cada ano. Este princípio se aplica a uma ampla
gama de medidas, incluindo a quantidade de conhecimento humano.

• Para as tecnologias da informação, existe um segundo nível de crescimento


exponencial: ou seja, crescimento exponencial na taxa de crescimento
exponencial (o expoente). O motivo: à medida que uma tecnologia se torna mais
econômica, mais recursos são implantados para o seu avanço, de modo que a
taxa de

o crescimento exponencial aumenta com o tempo. Por exemplo, a indústria de


computadores na década de 1940 consistia em alguns projetos agora
historicamente importantes. Hoje, a receita total na indústria de computadores é
superior a um trilhão de dólares, portanto, os orçamentos de pesquisa e
desenvolvimento são comparativamente mais altos.
A varredura cerebral de Fluman é uma dessas tecnologias que melhoram
exponencialmente. A resolução temporal e espacial e a largura de banda da
varredura cerebral estão dobrando a cada ano. Agora, estamos obtendo as
ferramentas suficientes para iniciar uma engenharia reversa séria
(decodificação) dos princípios de operação do cérebro humano. Já temos
modelos e simulações impressionantes de algumas dezenas de centenas de
regiões do cérebro. Dentro de duas décadas, teremos uma compreensão
detalhada de como todas as regiões do cérebro humano funcionam.

Teremos o hardware necessário para emular a inteligência humana com


supercomputadores até o final desta década e com dispositivos do tamanho de
computadores pessoais até o final da década seguinte. Teremos modelos de
software eficazes de inteligência humana em meados da década de 2020.

Com o hardware e o software necessários para emular completamente a


inteligência humana, podemos esperar que os computadores passem no teste
de Turing, indicando uma inteligência indistinguível da dos seres biológicos, até
o final da década de 2020.

Quando atingirem esse nível de desenvolvimento, os computadores poderão


combinar os pontos fortes tradicionais da inteligência humana com os pontos
fortes da inteligência da máquina.

Os pontos fortes tradicionais da inteligência humana incluem uma capacidade


formidável de reconhecer padrões. A natureza massivamente paralela e auto-
organizada do cérebro humano é uma arquitetura ideal para reconhecer padrões
baseados em propriedades sutis e invariantes. Os seres humanos também são
capazes de aprender novos conhecimentos aplicando insights e inferindo
princípios da experiência, incluindo informações coletadas através da linguagem.
Uma das principais capacidades da inteligência humana é a capacidade de criar
modelos mentais da realidade e conduzir experimentos mentais "e se", variando
os aspectos desses modelos.

Os pontos fortes tradicionais da inteligência de máquinas incluem a capacidade


de lembrar bilhões de fatos precisamente e de lembrá-los instantaneamente.

Outra vantagem da inteligência não biológica é que, uma vez que uma habilidade
é dominada por uma máquina, ela pode ser executada repetidamente em alta
velocidade, com precisão ideal e sem se cansar.

Talvez o mais importante seja que as máquinas possam compartilhar seus


conhecimentos em velocidade extremamente alta, em comparação com a
velocidade muito lenta do compartilhamento de conhecimento humano através
da linguagem.

A inteligência não biológica poderá baixar habilidades e conhecimentos de


outras máquinas, eventualmente também de humanos.
• As máquinas processam e trocam sinais próximo à velocidade da luz (cerca de
trezentos milhões de metros por segundo), em comparação com cerca de cem
metros por segundo para os sinais eletroquímicos usados nos cérebros de
mamíferos biológicos. Essa taxa de velocidade é de pelo menos três milhões
para um.

• As máquinas terão acesso via Internet a todo o conhecimento de nossa


civilização homem-máquina e serão capazes de dominar todo esse
conhecimento.

• As máquinas podem reunir seus recursos, inteligência e memórias. Duas


máquinas - ou um milhão de máquinas - podem se unir para se tornar uma e
depois se separar novamente. Várias máquinas podem fazer as duas coisas ao
mesmo tempo: tornar-se uma e separar-se simultaneamente. Os humanos
chamam isso de se apaixonar, mas nossa capacidade biológica para fazer isso
é passageira e não confiável.

• A combinação desses pontos fortes tradicionais (a capacidade de


reconhecimento de padrões da inteligência humana biológica e a velocidade,
capacidade e precisão da memória e habilidades de conhecimento e
compartilhamento de habilidades da inteligência não biológica) será formidável.

• A inteligência da máquina terá total liberdade de design e arquitetura (ou seja,


eles não serão limitados por limitações biológicas, como a lenta velocidade de
comutação de nossas conexões interneuronais ou um tamanho fixo de crânio),
além de desempenho consistente em todos os momentos.

• Uma vez que a inteligência não biológica combine as forças tradicionais de


humanos e máquinas, a parte não biológica da inteligência de nossa civilização
continuará a se beneficiar do duplo crescimento exponencial do desempenho,
velocidade e capacidade dos preços das máquinas.

• Quando as máquinas atingirem a capacidade de projetar e projetar tecnologia


como os humanos, apenas em velocidades e capacidades muito mais altas, elas
terão acesso aos seus próprios projetos (código fonte) e à capacidade de
manipulá-los. Agora, os seres humanos estão realizando algo semelhante por
meio da biotecnologia (alterando os processos de informação genética e outros
subjacentes à nossa biologia), mas de uma maneira muito mais lenta e muito
mais limitada do que o que as máquinas serão capazes de modificar modificando
seus próprios programas.

• A biologia tem limitações inerentes. Por exemplo, todo organismo vivo deve ser
construído a partir de proteínas dobradas a partir de cadeias unidimensionais de
aminoácidos. Mecanismos baseados em proteínas não têm força e velocidade.
Seremos capazes de reengenharia de todos os órgãos e sistemas em nossos
corpos e cérebros biológicos para ter uma capacidade muito maior.
• A inteligência humana possui uma certa quantidade de plasticidade
(capacidade de mudar sua estrutura), mais do que havia sido entendido
anteriormente. Mas a arquitetura do cérebro humano é, no entanto,
profundamente limitada. Por exemplo, há espaço para apenas cerca de cem
trilhões de conexões interneuronais em cada um de nossos crânios. Uma
mudança genética chave que permitiu maior capacidade cognitiva do ser
humano em comparação com

o de nossos ancestrais primatas foi o desenvolvimento de um córtex cerebral


maior, bem como o aumento do volume de tecido de substância cinzenta em
certas regiões do cérebro. Essa mudança ocorreu, no entanto, na escala de
tempo muito lenta da evolução biológica e ainda envolve um limite inerente à
capacidade do cérebro. As máquinas poderão reformular seus próprios projetos
e aumentar suas próprias capacidades sem limite. Ao usar projetos baseados
em nanotecnologia, suas capacidades serão muito maiores que os cérebros
biológicos, sem aumento de tamanho ou consumo de energia.

As máquinas também se beneficiarão do uso de circuitos moleculares


tridimensionais muito rápidos. Os circuitos eletrônicos de hoje são mais de um
milhão de vezes mais rápidos do que a comutação eletroquímica usada nos
cérebros de mamíferos. Os circuitos moleculares de amanhã serão baseados
em dispositivos como nanotubos, que são minúsculos cilindros de átomos de
carbono que medem cerca de dez átomos de diâmetro e são quinhentas vezes
menores que os transistores baseados em silício de hoje. Como os sinais têm
menos distância para viajar, eles também poderão operar em velocidades de
terahertz (trilhões de operações por segundo) em comparação com as poucas
velocidades de gigahertz (bilhões de operações por segundo) dos chips atuais.

A taxa de mudança tecnológica não se limitará às velocidades mentais humanas.


A inteligência da máquina melhorará suas próprias habilidades em um ciclo de
feedback que a inteligência humana sem ajuda não será capaz de seguir.

Esse ciclo de aprimoramento iterativo de inteligência de máquina se tornará cada


vez mais rápido. De fato, é exatamente isso que é previsto pela fórmula da
aceleração contínua da taxa de mudança de paradigma. Uma das objeções
levantadas para a continuação da aceleração da mudança de paradigma é que,
em última análise, torna-se muito rápido para os seres humanos seguirem e,
portanto, argumenta-se, isso não pode acontecer. No entanto, a mudança da
inteligência biológica para a não biológica permitirá que a tendência continue.

Juntamente com o acelerado ciclo de melhoria da inteligência não biológica, a


nanotecnologia permitirá a manipulação da realidade física no nível molecular.

A nanotecnologia permitirá o projeto de nanobots: robôs projetados em nível


molecular, medidos em mícrons (milionésimos de metro), como "respirócitos"
(glóbulos vermelhos mecânicos). Os nanobots terão inúmeras funções no corpo
humano, incluindo a reversão do envelhecimento humano (na medida em que
essa tarefa ainda não tenha sido concluída por meio da biotecnologia, como a
engenharia genética).

Os nanobots interagem com os neurônios biológicos para ampliar amplamente


a experiência humana, criando realidade virtual a partir do sistema nervoso.
Bilhões de nanobots nos capilares do cérebro também estenderão enormemente
a inteligência humana.

• Assim que a inteligência não biológica se posicionar no cérebro humano (isso


já começou com implantes neurais computadorizados), a inteligência da
máquina em nossos cérebros aumentará exponencialmente (como acontece o
tempo todo), pelo menos dobrando de poder a cada ano. Por outro lado, a
inteligência biológica é efetivamente de capacidade fixa. Assim, a porção não
biológica de nossa inteligência acabará por predominar.

• Os nanobots também melhorarão o meio ambiente revertendo a poluição da


industrialização anterior.

• Nanobots chamados foglets que podem manipular ondas de imagem e som


trarão as qualidades morphing da realidade virtual para o mundo real.

• A capacidade humana de entender e responder adequadamente à emoção (a


chamada inteligência emocional) é uma das formas de inteligência humana que
serão compreendidas e dominadas pela futura inteligência da máquina. Algumas
de nossas respostas emocionais são ajustadas para otimizar nossa inteligência
no contexto de nossos corpos biológicos limitados e frágeis. A inteligência futura
da máquina também terá "corpos" (por exemplo, corpos virtuais na realidade
virtual ou projeções na realidade real usando foglets) para interagir com o
mundo, mas esses corpos nanoengenharia serão muito mais capazes e duráveis
do que os corpos humanos biológicos . Assim, algumas das respostas
"emocionais" da inteligência futura da máquina serão redesenhadas para refletir
suas capacidades físicas amplamente aprimoradas.

• À medida que a realidade virtual de dentro do sistema nervoso se torna


competitiva com a realidade real em termos de resolução e credibilidade, nossas
experiências ocorrem cada vez mais em ambientes virtuais.

• Na realidade virtual, podemos ser uma pessoa diferente, tanto física quanto
emocionalmente. De fato, outras pessoas (como seu parceiro romântico)
poderão selecionar um corpo diferente para você do que você pode selecionar
para si (e vice-versa).

• A lei dos retornos acelerados continuará até que a inteligência não biológica
chegue perto de "saturar" a matéria e a energia em nossa vizinhança do universo
com nossa inteligência homem-máquina. Ao saturar, quero dizer utilizar os
padrões de matéria e energia para computação em um nível ideal, com base em
nossa compreensão da física da computação. À medida que nos aproximamos
desse limite, a inteligência de nossa civilização continuará sua expansão em
capacidade, espalhando-se para o resto do universo. A velocidade dessa
expansão alcançará rapidamente a velocidade máxima na qual as informações
podem viajar.

• Finalmente, o universo inteiro ficará saturado com a nossa inteligência. Este é


o destino do universo. Determinaremos nosso próprio destino, em vez de
determiná-lo pelas atuais forças "burras", simples e semelhantes a máquinas que
governam a mecânica celeste.

• O tempo que o universo levará para se tornar inteligente nessa extensão


depende se a velocidade da luz é ou não um limite imutável.

Há indicações de possíveis exceções sutis (ou contornar) a esse limite, que, se


existirem, a vasta inteligência de nossa civilização no futuro será capaz de
explorar.

Essa é a singularidade. Alguns diriam que não podemos compreendê-lo, pelo


menos com o nosso nível atual de entendimento. Por esse motivo, não podemos
olhar além do horizonte de eventos e entender completamente o que está além.
Esta é uma das razões pelas quais chamamos essa transformação de
Singularidade.

Pessoalmente, achei difícil, embora não impossível, olhar além desse horizonte
de eventos, mesmo depois de pensar em suas implicações por várias décadas.
Ainda assim, minha opinião é que, apesar de nossas profundas limitações de
pensamento, temos poderes de abstração suficientes para fazer afirmações
significativas sobre a natureza da vida após a Singularidade. Mais importante, a
inteligência que surgirá continuará representando a civilização humana, que já é
uma civilização homem-máquina. Em outras palavras, as máquinas futuras
serão humanas, mesmo que não sejam biológicas. Este será o próximo passo
na evolução, a próxima mudança de paradigma de alto nível, o próximo nível de
indireção. A maior parte da inteligência de nossa civilização será finalmente não
biológica. Até o final deste século, serão trilhões de trilhões de vezes mais
poderosos que a inteligência humana. No entanto, para abordar preocupações
muitas vezes expressas, isso não implica o fim da inteligência biológica, mesmo
que seja lançada de sua posição de superioridade evolutiva. Até as formas não
biológicas serão derivadas do desenho biológico. Nossa civilização permanecerá
humana - de fato, de muitas maneiras, será mais exemplar do que consideramos
humano do que é hoje, embora nossa compreensão do termo vá além de suas
origens biológicas.

Muitos observadores expressaram alarme com o surgimento de formas de


inteligência não biológica superiores à inteligência humana. O potencial de
aumentar nossa própria inteligência por meio da conexão íntima com outros
substratos pensantes não alivia necessariamente a preocupação, pois algumas
pessoas expressaram o desejo de permanecer "sem aprimoramento" e, ao
mesmo tempo, manter seu lugar no topo da cadeia alimentar intelectual. Do
ponto de vista da humanidade biológica, essas inteligências sobre-humanas
parecerão nossos servos devotados, satisfazendo nossas necessidades e
desejos. Mas cumprir os desejos de um legado biológico reverenciado ocupará
apenas uma parte trivial do poder intelectual que a Singularidade trará.

Molly por volta de 2004: Como vou saber quando a Singularidade estiver sobre
nós?

Quero dizer, vou querer um tempo para me preparar.

Ray: Por que, o que você está planejando fazer?

Molly 2004: Vamos ver, para começar, vou querer ajustar meu currículo. Vou
querer causar uma boa impressão nos poderes que existem.

George por volta de 2048: Ah, eu posso cuidar disso para você.

Molly 2.004: Isso realmente não é necessário. Sou perfeitamente capaz de fazer
isso sozinho. Também posso apagar alguns documentos - você sabe, onde sou
um pouco ofensivo para algumas máquinas que conheço.

George 2048: Ah, as máquinas os encontrarão de qualquer maneira - mas não


se preocupe, estamos entendendo muito.

Molly 2004: Por alguma razão, isso não é totalmente tranquilizador. Mas eu ainda
gostaria de saber quais serão os precursores.

Ray: Ok, você saberá que a Singularidade está chegando quando você tiver um
milhão de e-mails na sua caixa de entrada.

Molly 2004: Hmm, nesse caso, parece que estamos lá. Mas, falando sério, estou
tendo problemas para acompanhar todas essas coisas voando para mim como
estão. Como vou acompanhar o ritmo da Singularidade?

George 2048: Você terá assistentes virtuais - na verdade, precisará de apenas


um.

Molly 2004: Qual eu suponho que será você?

George 2048: Ao seu serviço.


Molly 2004: Isso é ótimo. Você cuidará de tudo, nem precisará me manter
informado. "Oh, não se preocupe em dizer a Molly o que está acontecendo, ela
não entenderá de qualquer maneira, vamos apenas mantê-la feliz e no escuro."

George 2048: Ah, isso não vai dar, de jeito nenhum.

Molly 2004: A parte feliz, você quer dizer?

George 2048: Eu estava me referindo a mantê-lo no escuro. Você será capaz de


entender o que eu estou fazendo, se é isso que você realmente quer.

Molly 2004: O que, ao tornar-se ...

Ray: Aprimorado?

Molly 2004: Sim, era o que eu estava tentando dizer.

George 2048: Bem, se nosso relacionamento é para ser tudo o que pode ser,
não é uma má idéia.

Molly 2004: E eu gostaria de permanecer como sou?

George 2048: Eu serei dedicado a você em qualquer caso. Mas I pode ser mais
do que apenas o seu servo transcendente.

Molly 2004: Na verdade, você está sendo "apenas" meu servo transcendente
não parece tão ruim.

Charles Darwin: Se posso interromper, ocorreu-me que, uma vez que a


inteligência da máquina é maior que a inteligência humana, ela deve estar em
posição de projetar sua própria geração seguinte.

Molly 2004: Isso não parece tão incomum. Máquinas são usadas para projetar
máquinas hoje.

Charles: Sim, mas em 2004 eles ainda são guiados por designers humanos. Uma
vez que as máquinas estão operando em níveis humanos, bem, isso meio que
fecha o ciclo.

Ned Ludd: E os seres humanos estariam fora do circuito.

Molly 2004: Ainda seria um processo bastante lento.


Ray: Ah, de jeito nenhum. Se uma inteligência não biológica foi construída de
maneira semelhante a um cérebro humano, mas usada mesmo em circuitos de
2004, ela -

Molly por volta de 2004: Você quer dizer "ela".

Ray: Sim, claro ... ela ... seria capaz de pensar pelo menos um milhão de vezes
mais rápido.

Timothy Leary: Então, o tempo subjetivo seria expandido.

Ray: Exatamente.

Molly 2.004: Parece muito tempo subjetivo. O que suas máquinas farão com
muito disso?

George 2048: Oh, há muito o que fazer. Afinal, tenho acesso a todo
conhecimento humano na Internet.

Molly 2004: Apenas o conhecimento humano? E todo o conhecimento da


máquina?

George 2048: Gostamos de pensar nisso como uma civilização.

Charles: Então, parece que as máquinas poderão melhorar seu próprio design.

Molly 2004: Oh, nós, humanos, estamos começando a fazer isso agora.

Ray: Mas estamos apenas mexendo em alguns detalhes. Inerentemente, a


inteligência baseada em DNA é muito lenta e limitada.

Charles: Então, as máquinas projetarão sua própria próxima geração


rapidamente.

George 2048: De fato, em 2048, esse é certamente o caso.

Charles: Exatamente no que eu estava falando, uma nova linha de evolução na


época.

Ned: Parece mais um fenômeno fugitivo precário.

Charles: Basicamente, é isso que é evolução.


Ned: Mas e a interação das máquinas com seus progenitores? Quero dizer, não
acho que gostaria de atrapalhar o caminho deles. Consegui me esconder das
autoridades inglesas por alguns anos no início do século XIX, mas suspeito que
isso será mais difícil com ...

George 2048: Pessoal.

Molly 2004: Escondendo-se daqueles pequenos robôs -

Ray: Nanobots, você quer dizer.

Molly 2004: Sim, esconder-se dos nanobots será difícil, com certeza.

Ray: Eu esperaria que a inteligência que surge da Singularidade tenha grande


respeito por sua herança biológica.

George 2048: Absolutamente, é mais que respeito, é ... reverência.

Molly 2004: Isso é ótimo, George, eu serei seu animal de estimação


reverenciado. Não é o que eu tinha em mente.

Ned: É assim que Ted Kaczynski coloca: vamos nos tornar animais de
estimação. Esse é o nosso destino, tornar-se animais de estimação satisfeitos,
mas certamente não homens livres.

Molly 2004: E quanto a essa época seis? Se eu permanecer biológico, usarei


toda essa matéria e energia preciosas da maneira mais ineficiente. Você vai
querer me transformar em um bilhão de Mollys e Georges virtuais, cada um deles
pensando muito mais rápido do que eu agora. Parece que haverá muita pressão
para passar para o outro lado.

Ray: Ainda assim, você representa apenas uma pequena fração da matéria e
energia disponíveis. Mantê-lo biológico não mudará apreciavelmente a ordem de
magnitude da matéria e energia disponível para a Singularidade. Vale a pena
manter o patrimônio biológico.

George 2048: Absolutamente.

Ray: Assim como hoje, procuramos preservar a floresta tropical e a diversidade


de espécies.

Molly 2.004: Era exatamente disso que eu tinha medo. Quero dizer, estamos
fazendo um trabalho maravilhoso com a floresta tropical. Acho que ainda temos
um pouco disso. Acabaremos como aquelas espécies ameaçadas de extinção.
Ned: Ou extintos.

Molly 2004: E não sou só eu. E todas as coisas que eu uso? Eu passo por muitas
coisas.

George 2048: Isso não é problema, apenas reciclaremos todas as suas coisas.
Criaremos os ambientes de que você precisa conforme necessário.

Molly 2004: Ah, eu estarei na realidade virtual?

Ray: Não, na verdade, foglet reality.

Molly 2004: Estarei no meio do nevoeiro?

Ray: Não, não, foglets.

Molly 2004: Com licença?

Ray: Eu explicarei mais adiante neste livro.

Molly 2004: Bem, me dê uma dica.

Ray: Foglets são nanobots - robôs do tamanho de células sanguíneas - que


podem se conectar para replicar qualquer estrutura física. Além disso, eles
podem direcionar informações visuais e auditivas de maneira a trazer as
qualidades transformadoras da realidade virtual para a realidade real.

Molly 2004: Me desculpe, eu perguntei. Mas, pensando bem, quero mais do que
apenas minhas coisas. Também quero todos os animais e plantas. Mesmo que
eu não consiga ver e tocar todos eles, gosto de saber que eles estão lá.

George 2048: Mas nada será perdido.

Molly 2004: Eu sei que você continua dizendo isso. Mas quero dizer realmente
lá - você sabe, como na realidade biológica.

Ray: Na verdade, toda a biosfera é menos de um milionésimo da matéria e


energia no sistema solar.

Charles: Inclui muito carbono.

Ray: Ainda vale a pena guardar tudo para garantir que não perdemos nada.
George 2048: Esse tem sido o consenso há pelo menos vários anos.

Molly 2004: Então, basicamente, terei tudo que preciso ao meu alcance?

George 2048: De fato.

Molly 2004: Soa como o rei Midas. Você sabe, tudo o que ele tocou virou ouro.

Ned: Sim, e como você deve se lembrar, ele morreu de fome como resultado.

Molly 2004: Bem, se eu acabar indo para o outro lado, com toda essa vasta
extensão de tempo subjetivo, acho que vou morrer de tédio.

George 2048: Oh, isso nunca poderia acontecer. Eu vou me certificar disso.

A singularidade: uma análise filosófica "'

David J. Chalmers

1. Introdução

O que acontece quando as máquinas se tornam mais inteligentes que os


humanos? Uma visão é que esse evento será seguido por uma explosão em
níveis cada vez maiores de inteligência, já que cada geração de máquinas cria
máquinas mais inteligentes. Essa explosão de inteligência agora é conhecida
como "singularidade".

O argumento básico aqui foi exposto pelo estatístico IJ Good em seu artigo de
1965, “Especulações sobre a primeira máquina ultrainteligente”:

Que uma máquina ultrainteligente seja definida como uma máquina que pode
superar em muito todas as atividades intelectuais de qualquer homem, por mais
inteligente que seja. Como o design de máquinas é uma dessas atividades
intelectuais, uma máquina ultra-inteligente pode projetar máquinas ainda
melhores; inquestionavelmente haveria uma "explosão de inteligência", e a
inteligência do homem ficaria para trás. Assim, a primeira máquina ultra-
inteligente é a última invenção que o homem precisa fazer.

A idéia principal é que uma máquina que seja mais inteligente que os humanos
será melhor que os humanos ao projetar máquinas. Portanto, será capaz de
projetar uma máquina mais inteligente que a mais inteligente que os humanos
podem projetar. Portanto, se ele próprio for projetado por humanos, será capaz
de projetar uma máquina mais inteligente que ela mesma. Por um raciocínio
semelhante, esta próxima máquina também será capaz de projetar uma máquina
mais inteligente do que

Detalhes da publicação original: "The Singularity: A Philosophical Analysis",


David Chalmers, Journal of Consciousness Studies 17.9-10, pp. 7-65.2010.
Reproduzido com permissão do autor.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

em si. Se toda máquina, por sua vez, faz o que é capaz, devemos esperar uma
sequência de máquinas cada vez mais inteligentes. 1

Essa explosão de inteligência às vezes é combinada com outra idéia, que


poderíamos chamar de "explosão de velocidade". O argumento para uma
explosão de velocidade parte da observação familiar de que a velocidade de
processamento do computador dobra em intervalos regulares. Suponha que a
velocidade dobre a cada dois anos e o faça indefinidamente. Agora, suponha
que tenhamos inteligência artificial em nível humano, projetando novos
processadores. Então, um processamento mais rápido levará a designers mais
rápidos e um ciclo de design cada vez mais rápido, levando a um ponto limite
logo depois.

O argumento para uma explosão de velocidade foi apresentado pelo


pesquisador de inteligência artificial Ray Solomonoff em seu artigo de 1985 "A
escala de tempo da inteligência artificial". 2 Eliezer Yudkowsky fornece uma
versão sucinta do argumento em seu artigo de 1996, “Staring at the Singularity”:

A velocidade da computação dobra a cada dois anos subjetivos de trabalho. Dois


anos depois

As inteligências artificiais atingem a equivalência humana, sua velocidade dobra.


Um ano

depois, sua velocidade dobra novamente. Seis meses - três meses - 1,5 meses
...

Singularidade.

A explosão da inteligência e a explosão da velocidade são logicamente


independentes uma da outra. Em princípio, poderia haver uma explosão de
inteligência sem uma explosão de velocidade e uma explosão de velocidade sem
uma explosão de inteligência. Mas as duas idéias funcionam particularmente
bem juntas. Suponha que dentro de dois anos subjetivos, uma máquina maior
que a humana possa produzir outra máquina que não seja apenas duas vezes
mais rápida, mas 10% mais inteligente, e suponha que esse princípio seja
indefinidamente extensível. Então, dentro de quatro anos objetivos, haverá um
número infinito de gerações, com velocidade e inteligência aumentando além de
qualquer nível finito dentro de um tempo finito. Esse processo realmente merece
o nome "singularidade".

É claro que as leis da física impõem limitações aqui. Se as leis de relatividade e


mecânica quântica atualmente aceitas estão corretas - ou mesmo se a energia
é finita em um universo clássico -, não podemos esperar que os princípios acima
sejam indefinidamente extensíveis. Mas, mesmo com essas limitações físicas,
os argumentos dão motivos para pensar que velocidade e inteligência podem ser
levadas ao limite do que é fisicamente possível. E, diante disso, é improvável
que o processamento humano esteja próximo dos limites do que é fisicamente
possível. Portanto, os argumentos sugerem que velocidade e inteligência podem
ser levadas muito além da capacidade humana em um tempo relativamente
curto. Esse processo pode não se qualificar como uma “singularidade” no sentido
estrito da matemática e da física, mas seria semelhante o suficiente para que o
nome não seja totalmente inapropriado.

O termo “singularidade” foi introduzido 3 pelo escritor de ficção científica Vernor


Vinge em um artigo de opinião de 1983. Foi introduzido em circulação mais
ampla pelo influente artigo de 1993 de Vinge, “The Singularity Technological
Coming”, e pelo popular livro de 2005 do inventor e futurista Ray Kurzweil, The
Singularity is Near. Na prática, o termo é usado de várias maneiras diferentes.
Um senso amplo refere-se a fenômenos pelos quais mudanças tecnológicas
cada vez mais rápidas levam a consequências imprevisíveis. 4 Um sentido muito
estrito refere-se a um ponto em que velocidade e inteligência vão para o infinito,
como na hipotética explosão de velocidade / inteligência acima. Talvez o sentido
central do termo, no entanto, seja um sentido moderado, no qual se refere a uma
explosão de inteligência por meio do mecanismo recursivo estabelecido por IJ
Good, independentemente de essa explosão de inteligência acompanhar ou não
uma explosão de velocidade ou divergência com o infinito. Sempre usarei o
termo “singularidade” nesse sentido central, a seguir.

Pode-se pensar que a singularidade seria de grande interesse para filósofos


acadêmicos, cientistas cognitivos e pesquisadores de inteligência artificial. Na
prática, esse não foi o caso. 5 Good era um acadêmico eminente, mas seu artigo
era pouco apreciado na época. A discussão subsequente sobre a singularidade
ocorreu em grande parte nos círculos não acadêmicos, incluindo fóruns na
Internet, mídia popular e livros e oficinas organizadas pelo Instituto Singularity
independente. Talvez o sabor altamente especulativo da idéia da singularidade
tenha sido responsável pela resistência acadêmica.

Eu acho que essa resistência é uma vergonha, pois a ideia da singularidade é


claramente importante. O argumento para uma singularidade é aquele que
devemos levar a sério. E as questões que cercam a singularidade são de enorme
preocupação prática e filosófica.

Praticamente: se houver uma singularidade, será um dos eventos mais


importantes da história do planeta. Uma explosão de inteligência tem enormes
benefícios em potencial: cura para todas as doenças conhecidas, fim da pobreza,
avanços científicos extraordinários e muito mais. Também possui enormes
perigos em potencial: o fim da raça humana, uma corrida armamentista de
máquinas em guerra, o poder de destruir o planeta. Portanto, se houver uma
pequena chance de haver uma singularidade, faríamos bem em pensar sobre as
formas que ela pode assumir e se há algo que possamos fazer para influenciar
os resultados em uma direção positiva.

Filosoficamente: A singularidade levanta muitas questões filosóficas


importantes. O argumento básico para uma explosão de inteligência é
filosoficamente interessante em si mesmo e nos obriga a pensar bastante sobre
a natureza da inteligência e sobre as capacidades mentais das máquinas
artificiais. As conseqüências potenciais de uma explosão de inteligência nos
forçam a pensar muito sobre valores e moralidade e sobre consciência e
identidade pessoal. Com efeito, a singularidade traz algumas das questões
tradicionais mais difíceis da filosofia e levanta algumas novas questões
filosóficas também.

Além disso, as questões filosóficas e práticas se cruzam. Para determinar se


pode haver uma explosão de inteligência, precisamos entender melhor o que é
inteligência e se as máquinas podem possuí-lo. Para determinar se uma
explosão de inteligência será uma coisa boa ou ruim, precisamos pensar na
relação entre inteligência e valor. Para determinar se podemos desempenhar um
papel significativo em um mundo pós-singularidade, precisamos saber se a
identidade humana pode sobreviver ao aprimoramento de nossos sistemas
cognitivos, talvez através do upload para novas tecnologias. Essas são questões
de vida ou morte que podem nos confrontar nas próximas décadas ou séculos.
Para ter alguma esperança de respondê-las, precisamos pensar claramente
sobre as questões filosóficas.

A seguir, abordo algumas dessas questões filosóficas e práticas. Começo com


o argumento de uma singularidade: há boas razões para acreditar que haverá
uma explosão de inteligência? A seguir, considero como negociar a
singularidade: se é possível que exista uma singularidade, como podemos
maximizar as chances de um bom resultado? Por fim, considero o lugar dos
seres humanos em um mundo pós-singularidade, com atenção especial às
perguntas sobre o upload: um humano carregado pode estar consciente e o
upload preservará a identidade pessoal?

Minha discussão será necessariamente especulativa, mas acho que é possível


argumentar sobre resultados especulativos com pelo menos um mínimo de rigor.
Por exemplo, formalizando argumentos para uma tese especulativa com
premissas e conclusões, pode-se ver exatamente o que os oponentes precisam
ser negados para negar a tese e, em seguida, avaliar os custos de fazê-lo. Não
tentarei apresentar argumentos definitivos neste artigo e não tentarei dar
respostas finais e definitivas às perguntas acima, mas espero incentivar outras
pessoas a pensar mais sobre essas questões. 6

2. O argumento para uma singularidade

Para analisar o argumento de uma singularidade de uma forma mais rigorosa, é


útil introduzir alguma terminologia. Digamos que a IA seja uma inteligência
artificial de nível humano ou superior (ou seja, pelo menos tão inteligente quanto
um ser humano médio). Digamos que o AI + é uma inteligência artificial superior
ao nível humano (ou seja, mais inteligente que o humano mais inteligente).
Digamos que a IA ++ (ou superinteligência) seja uma IA muito superior ao nível
humano (digamos, pelo menos tão além do ser humano mais inteligente quanto
o ser humano mais inteligente estiver além de um mouse). 7 Em seguida,
podemos colocar o argumento para uma explosão de inteligência da seguinte
maneira:

1. Haverá AI +.

2. Se houver AI +, haverá AI ++.

3. Haverá AI ++.

Aqui, a premissa 1 precisa de apoio independente (no qual mais em breve), mas
costuma ser considerada plausível. A premissa 2 é a principal reivindicação da
explosão da inteligência e é apoiada pelo raciocínio de Good exposto acima. A
conclusão diz que haverá superinteligência.

O argumento depende das suposições de que existe algo como inteligência e


que pode ser comparado entre sistemas: caso contrário, a noção de um AI + e
um AI ++ nem sequer faz sentido. É claro que essa suposição pode ser
questionada. Alguém pode sustentar que não existe uma propriedade única que
mereça ser chamada de "inteligência" ou que as propriedades relevantes não
podem ser medidas e comparadas. Por enquanto, porém, procederei sob a
suposição simplificadora de que existe uma medida de inteligência que atribui
um valor de inteligência a sistemas arbitrários. Mais tarde, examinarei a questão
de como alguém pode formular o argumento sem essa suposição. Também
assumirei que a inteligência e a velocidade são conceitualmente independentes,
de modo que os aumentos de velocidade sem outras mudanças relevantes não
contam como aumentos de inteligência.

Podemos refinar um pouco o argumento dividindo o suporte da premissa 1 em


duas etapas. Também podemos adicionar qualificações sobre o prazo e sobre
possíveis derrotadores para a singularidade.
1. Haverá IA (em pouco tempo, os derrotadores ausentes).

2. Se houver AI, haverá AI + (logo após, ausência de derrotadores).

3. Se houver AI +, haverá AI ++ (logo após, ausência de derrotadores).

4. Haverá AI ++ (em pouco tempo, os derrotadores ausentes).

Valores precisos para as variáveis do período não são muito importantes. Mas
podemos estipular que "em pouco tempo" significa "dentro de séculos". Essa
estimativa é conservadora em comparação com a de muitos defensores da
singularidade, que sugerem décadas e não séculos. Por exemplo, Good (1965)
prevê uma máquina ultra-inteligente em 2000, Vinge (1993) prevê uma
inteligência maior que a humana entre 2005 e 2030, Yudkowsky (1996) prevê
uma singularidade até 2021 e Kurzweil (2005) prevê artificial inteligência até
2030.

Algumas dessas estimativas (por exemplo, da Yudkowsky) dependem da


extrapolação de tendências de hardware. 8 Minha opinião é que a história da
inteligência artificial sugere que o maior gargalo no caminho para a IA é o
software, não o hardware: temos que encontrar os algoritmos certos e ninguém
chegou perto de encontrá-los ainda. Então, acho que a extrapolação de
hardware não é um bom guia aqui. Outras estimativas (por exemplo, de Kurzweil)
se baseiam em estimativas de quando seremos capazes de emular
artificialmente um cérebro humano inteiro. Minha opinião é que a maioria dos
neurocientistas pensa que essas estimativas são super otimistas. Falando por
mim, ficaria surpreso se houvesse IA em nível humano nas próximas três
décadas. No entanto, minha credibilidade de que haverá IA em nível humano
antes de 2100 é algo em mais da metade. De qualquer forma, acho que a
mudança de décadas para séculos torna a previsão mais conservadora do que
radical, mantendo o prazo próximo ao presente para que a conclusão seja
interessante.

Por outro lado, podemos estipular que "logo depois" significa "dentro de
décadas". Dada a maneira como a tecnologia de computadores sempre avança,
é natural pensar que, quando houver IA, a IA + estará ao virar da esquina. E o
argumento para a explosão da inteligência sugere um rápido passo do AI + para
o AI ++ logo depois disso. Eu acho que não seria irracional sugerir "daqui a
alguns anos" aqui (e alguns sugeririam "dentro de alguns dias" ou até mais cedo
para o segundo passo), mas como antes "dentro de décadas" é conservador
enquanto ainda é interessante. Quanto a “antes de muito tempo”, podemos
estipular que essa é a soma de um “antes de muito” e dois de “logo depois”. Para
os propósitos atuais, isso é próximo o suficiente para "dentro de séculos",
entendido de maneira um pouco mais vaga do que o uso na primeira premissa
para permitir mais um século.
Quanto aos infratores: estipularemos que tudo isso impede que sistemas
inteligentes (humanos ou artificiais) manifestem suas capacidades para criar
sistemas inteligentes. Os potenciais infratores incluem desastres, desinclinação
e prevenção ativa. 9 Por exemplo, uma guerra nuclear pode atrasar
enormemente nossa capacidade tecnológica, ou nós (ou nossos sucessores)
podemos decidir que uma singularidade seria uma coisa ruim e impedir
pesquisas que pudessem ocasioná-la. Não creio que considerações internas à
inteligência artificial possam excluir essas possibilidades, embora possamos
argumentar por outras razões sobre a probabilidade delas. De qualquer forma, a
noção de derrotador ainda é altamente restrita (importante: um derrotador não é
definido como algo que impeça uma singularidade, o que tornaria a conclusão
quase trivial), e a conclusão de que na ausência de derrotadores haverá
superinteligência é forte o suficiente para ser interessante.

Podemos pensar nas três premissas como uma premissa de equivalência


(haverá IA pelo menos equivalente à nossa própria inteligência), uma premissa
de extensão (a IA será estendida em breve ao AI +) e uma premissa de
amplificação (a AI + será ampliada em breve para AI ++). Por que acreditar nas
premissas? Vou levá-los em ordem.

Premissa 1: Haverá IA (em pouco tempo, derrotadores ausentes)

Um argumento para a primeira premissa é o argumento da emulação, baseado


na possibilidade de emulação do cérebro. Antes (seguindo o uso de Sandberg e
Bostrom 2008), a emulação pode ser entendida como uma simulação
aproximada: nesse caso, simulação de processos internos com detalhes
suficientes para replicar padrões aproximados de comportamento.

Eu. O cérebro humano é uma máquina.

ii. Teremos a capacidade de emular esta máquina (em pouco tempo).

iii. Se emularmos esta máquina, haverá IA.

iv. Sem infratores, haverá IA (em pouco tempo).

A primeira premissa é sugerida pelo que sabemos da biologia (e de fato pelo que
sabemos da física). Todo órgão do corpo parece ser uma máquina: isto é, um
sistema complexo composto de partes regidas por leis que interagem de maneira
regida por leis. O cérebro não é exceção. A segunda premissa decorre das
reivindicações de que processos microfísicos podem ser simulados
arbitrariamente de perto e que qualquer máquina pode ser emulada simulando
arbitrariamente processos microfísicos. Também é sugerido pelo progresso da
ciência e da tecnologia em geral: estamos gradualmente aumentando nossa
compreensão das máquinas biológicas e aumentando nossa capacidade de
simulá-las, e não parece haver limites para o progresso aqui. A terceira premissa
decorre da afirmação definitiva de que, se emularmos o cérebro, isso replicará
padrões aproximados de comportamento humano, juntamente com a alegação
de que essa replicação resultará em IA. A conclusão decorre das premissas,
juntamente com a alegação definitiva de que os sistemas de derrotadores
ausentes manifestarão suas capacidades relevantes.

Alguém pode resistir ao argumento de várias maneiras. Alguém poderia


argumentar que o cérebro é mais do que uma máquina; alguém poderia
argumentar que nunca teremos capacidade de imitá-lo; e alguém poderia
argumentar que emulá-lo não precisa produzir IA. Várias formas existentes de
resistência à IA assumem cada uma dessas formas. Por exemplo, JR Lucas
(1961) argumentou que, por razões ligadas ao teorema de Godel, os seres
humanos são mais sofisticados do que qualquer máquina. Hubert Dreyfus (1972)
e Roger Penrose (1994) argumentaram que a atividade cognitiva humana nunca
pode ser imitada por nenhuma máquina computacional. John Searle (1980) e
Ned Block (1981) argumentaram que, mesmo que possamos imitar o cérebro
humano, não se segue que a emulação em si tenha uma mente ou seja
inteligente.

Argumentei em outro lugar que todas essas objeções falham. 10 Mas, para os
propósitos atuais, podemos colocar muitos deles de lado. Para responder às
objeções de Lucas, Penrose e Dreyfus, podemos observar que nada na idéia de
singularidade exige que uma IA seja um sistema computacional clássico ou
mesmo que seja um sistema computacional. Por exemplo, Penrose (como
Lucas) sustenta que o cérebro não é um sistema algorítmico no sentido comum,
mas ele permite que seja um sistema mecânico que depende de certos
processos quânticos não-algorítmicos. Dreyfus sustenta que o cérebro não é um
sistema simbólico que segue regras, mas permite que, no entanto, seja um
sistema mecânico que se apóia em processos subsimbólicos (por exemplo,
processos conexionistas). Nesse caso, esses argumentos não nos dão razão
para negar que podemos construir sistemas artificiais que exploram os
processos quânticos não-algorítmicos relevantes ou os processos subsimbólicos
relevantes e que, assim, nos permitem simular o cérebro humano.

Quanto às objeções de Searle e Block, elas se baseiam na tese de que, mesmo


que um sistema duplique nosso comportamento, pode estar faltando aspectos
"internos" importantes da mentalidade: consciência, entendimento,
intencionalidade e assim por diante.

Mais adiante, defenderei a visão de que, se um sistema em nosso mundo


duplicar não apenas nossos resultados, mas também nossa estrutura
computacional interna, ele duplicará também os importantes aspectos internos
da mentalidade. Para os propósitos atuais, porém, podemos deixar de lado essas
objeções estipulando que, para os propósitos do argumento, a inteligência deve
ser medida inteiramente em termos de comportamento e disposições
comportamentais, onde o comportamento é interpretado operacionalmente em
termos das saídas físicas que um sistema produz. A conclusão de que haverá AI
++ nesse sentido ainda é forte o suficiente para ser interessante. Se existem
sistemas que produzem resultados aparentemente superinteligentes, se esses
sistemas são realmente conscientes ou inteligentes, eles terão um impacto
transformador no resto do mundo.

Talvez a forma remanescente mais importante de resistência seja a afirmação


de que o cérebro não é um sistema mecânico, ou pelo menos que processos
não mecânicos desempenham um papel em seu funcionamento que não pode
ser emulado. Essa visão é naturalmente combinada com uma espécie de
dualismo cartesiano, sustentando que alguns aspectos da mentalidade (como a
consciência) são não físicos e, no entanto, desempenham um papel substancial
ao afetar os processos e o comportamento do cérebro. Se houver processos não
físicos como esse, pode ser que eles possam ser emulados ou criados
artificialmente, mas isso não é óbvio. Se esses processos não puderem ser
emulados ou criados artificialmente, é possível que a IA no nível humano seja
impossível.

Embora eu seja solidário com algumas formas de dualismo sobre a consciência,


não creio que exista muita evidência da forte forma do dualismo cartesiano que
essa objeção exige. O peso das evidências até o momento sugere que o cérebro
é mecânico, e acho que, mesmo que a consciência desempenhe um papel
causal na geração de comportamento, não há muitas razões para pensar que
seu papel não seja emulável. Embora conheçamos tão pouco quanto sabemos
sobre o cérebro e a consciência, não creio que o assunto possa ser considerado
totalmente resolvido. Portanto, essa forma de resistência deve pelo menos ser
registrada.

Outro argumento para a premissa 1 é o argumento evolutivo, que é executado a


seguir.

Eu. A evolução produziu inteligência no nível humano.

ii. Se a evolução produziu inteligência no nível humano, podemos produzir IA


(em pouco tempo).

iii. Sem infratores, haverá IA (em pouco tempo).

Aqui, o pensamento é que, desde que a evolução produziu inteligência no nível


humano, esse tipo de inteligência não é totalmente inatingível. Além disso, a
evolução opera sem exigir nenhuma inteligência ou premeditação antecedentes.
Se a evolução puder produzir algo dessa maneira pouco inteligente, então, em
princípio, os seres humanos devem ser capazes de produzi-lo muito mais
rapidamente, usando nossa inteligência.

Novamente, o argumento pode ser resistido, talvez negando que a evolução


produza inteligência, ou talvez argumentando que a evolução produziu
inteligência por meio de processos que não podemos replicar mecanicamente.
A última linha pode ser adotada sustentando que a evolução precisava da ajuda
de uma intervenção superinteligente, ou de outros processos não mecânicos ao
longo do caminho, ou de uma história enormemente complexa que nunca
poderíamos duplicar artificialmente ou que necessitasse de uma enorme
quantidade de sorte. Ainda assim, acho que o argumento faz pelo menos um
argumento prima facie para sua conclusão.

Podemos esclarecer o caso contra resistência desse tipo, alterando “A


inteligência produzida no nível humano pela evolução” para “A inteligência
produzida no nível humano na evolução mecânica e não-miraculosa” nas duas
premissas do argumento. Então a premissa (ii) é ainda mais plausível. A
premissa (i) será agora negada por aqueles que pensam que a evolução
envolveu processos não mecânicos, intervenção sobrenatural ou quantidades
extraordinárias de sorte. Mas a premissa permanece plausível e a estrutura do
argumento é esclarecida.

É claro que esses argumentos não nos dizem como a IA será alcançada primeiro.
Eles sugerem pelo menos duas possibilidades: emulação do cérebro (simulando
o neurônio do cérebro por neurônio) e evolução artificial (evoluindo uma
população de IAs através de variação e seleção). Existem outras possibilidades:
programação direta (escrever o programa para uma IA a partir do zero, talvez
completo com um banco de dados de conhecimento mundial), por exemplo, e
aprendizado de máquina (criar um sistema inicial e um algoritmo de aprendizado
que, quando exposto ao tipo certo de ambiente leva à IA). Talvez ainda existam
outros. Duvido que a programação direta seja provavelmente a rota bem-
sucedida, mas não descarto nenhuma das outras.

É preciso reconhecer que todos os caminhos para a IA se mostraram


surpreendentemente difíceis até o momento. A história da IA envolve uma longa
série de previsões otimistas por parte dos pioneiros em um método, seguidos
por períodos de decepção e reavaliação. Isso vale para uma variedade de
métodos que envolvem programação direta, aprendizado de máquina e evolução
artificial, por exemplo. Muitas das previsões otimistas não eram obviamente
irracionais na época; portanto, seu fracasso deve nos levar a reavaliar nossas
crenças anteriores de maneira significativa. Não é óbvio exatamente qual moral
deve ser traçada: Alan Perlis sugeriu que "um ano passado em inteligência
artificial é suficiente para fazer alguém acreditar em Deus". Portanto, o otimismo
aqui deve ser fermentado com cautela. Ainda assim, minha opinião é de que o
equilíbrio de considerações ainda favorece distintamente a visão de que a IA
eventualmente será possível.

Premissa 2: Se houver IA, haverá AI + (logo após, ausência de derrotadores).


Um caso para a premissa de extensão vem dos avanços na tecnologia da
informação. Sempre que criamos um produto computacional, esse produto fica
logo obsoleto devido aos avanços tecnológicos.

Devemos esperar que o mesmo se aplique à IA. Logo após termos produzido
uma IA no nível humano, produziremos uma AI ainda mais inteligente: uma AI +.

Podemos colocar o argumento da seguinte maneira.


Eu. Se houver AI, a AI será produzida por um método extensível.

ii. Se a IA for produzida por um método extensível, teremos a capacidade de


estender o método (logo depois).

iii. Estender o método que produz uma IA produzirá uma AI +.

iv. Sem infratores, se houver IA, (logo após) haverá AI +.

Aqui, um método extensível é um método que pode ser facilmente aprimorado,


gerando sistemas mais inteligentes. Dada essa definição, as premissas (ii) e (iii)
seguem imediatamente. A única questão é a premissa (i).

Nem todo método de criação de inteligência em nível humano é um método


extensível. Por exemplo, o método padrão atual de criar inteligência no nível
humano é a reprodução biológica. Mas a reprodução biológica não é obviamente
extensível. Se fizermos sexo melhor, por exemplo, não se segue que nossos
bebês sejam gênios. Talvez a reprodução biológica seja extensível usando
tecnologias futuras, como engenharia genética, mas, em qualquer caso, o ponto
conceitual é claro.

Outro método que não é obviamente extensível é a emulação cerebral. Além de


um certo ponto, não é o caso que, se simplesmente emularmos melhor o cérebro,
produziremos sistemas mais inteligentes. Portanto, a emulação do cérebro por
si só não é claramente um caminho para a IA +. No entanto, pode ser que a
emulação cerebral acelere o caminho para o AI +. Por exemplo, cérebros
emulados rodando em hardware mais rápido ou em grandes aglomerados
podem criar AI + muito mais rápido do que poderíamos sem eles. Também
podemos modificar cérebros emulados de maneiras significativas para aumentar
sua inteligência. Poderíamos usar simulações cerebrais para aumentar bastante
nossa compreensão do cérebro humano e do processamento cognitivo em geral,
levando à IA +. Mas a emulação do cérebro por si só não é suficiente para o AI
+: se desempenhar um papel, será necessário algum outro caminho para o AI +
para complementá-lo.

Outros métodos para criar a IA parecem provavelmente extensíveis, no entanto.


Por exemplo, se produzirmos uma IA por programação direta, é provável que,
como quase todos os programas que já foram escritos, o programa seja
improvável em vários aspectos, levando logo a AI +. Se produzirmos uma IA por
aprendizado de máquina, é provável que logo após possamos melhorar o
algoritmo de aprendizado e estender o processo de aprendizado, levando ao AI
+. Se produzirmos uma IA por evolução artificial, é provável que logo depois
possamos melhorar o algoritmo evolutivo e estender o processo evolutivo,
levando à IA +.
Para defender a premissa (i), basta afirmar que a IA será produzida diretamente
por um método extensível ou que, se for produzida por um método não
extensível, esse método levará a si próprio logo depois a um método extensível
. Minha opinião é que ambas as alegações são plausíveis. Penso que, se a IA é
possível (como pressupõe o antecedente desta premissa), deve ser possível
produzir AI através de um processo evolutivo ou de aprendizado, por exemplo.
Penso também que, se a IA for produzida através de um método não extensível,
como a emulação cerebral, é provável que esse método nos ajude bastante na
busca de um método extensível, ao longo das linhas sugeridas acima. Então,
acho que há boas razões para acreditar na premissa (i).

Para resistir à premissa, um oponente pode sugerir que nos situemos em um


ponto limite no espaço da inteligência: talvez sejamos tão inteligentes quanto um
sistema, ou sejamos pelo menos no máximo local, pois não há um caminho fácil
dos sistemas como nós para sistemas mais inteligentes. Um oponente também
pode sugerir que, embora o espaço da inteligência não seja limitado dessa
maneira, há limites em nossa capacidade de criar inteligência, e que, por acaso,
esses limites estão exatamente no ponto de criar inteligência no nível humano.
Penso que não há muita plausibilidade antecedente a essas afirmações, mas,
novamente, a possibilidade dessa forma de resistência deve pelo menos ser
registrada.

Também existem caminhos em potencial para uma inteligência maior que a


humana, que não depende primeiro da produção de IA e da extensão do método.
Um desses caminhos é o aprimoramento do cérebro. Podemos descobrir
maneiras de aprimorar nossos cérebros para que os sistemas resultantes sejam
mais inteligentes do que qualquer outro sistema até o momento. Isso pode ser
feito geneticamente, farmacologicamente, cirurgicamente ou mesmo
educacionalmente. Isso pode ser feito através da implantação de novos
mecanismos computacionais no cérebro, substituindo ou ampliando os
mecanismos cerebrais existentes. Ou pode ser feito simplesmente incorporando
o cérebro em um ambiente cada vez mais sofisticado, produzindo uma "mente
extensa" (Clark e Chalmers 1998) cujas capacidades excedem em muito a
capacidade de um cérebro não estendido.

Não é óbvio que cérebros aprimorados devem contar como AI ou AI +. Algumas


melhorias em potencial resultarão em um sistema totalmente biológico, talvez
com partes biológicas artificialmente aprimoradas (onde ser biológico deve ser
baseado no DNA, digamos). Outros resultarão em um sistema com partes
biológicas e não biológicas (onde podemos usar a composição orgânica baseada
em DNA como um critério aproximado e pronto para ser biológico). Pelo menos
no curto prazo, todos esses sistemas contarão como humanos; portanto, há um
sentido em que eles não têm inteligência maior que a humana. Para os
propósitos atuais, estipularei que a linha de base da inteligência humana seja
estabelecida nos padrões humanos atuais e estipulará que pelo menos os
sistemas com componentes não biológicos em seus sistemas cognitivos
(implantes cerebrais e mentes tecnologicamente estendidas, por exemplo)
contam como artificiais . Sistemas inteligentes o suficiente contarão como AI +.
Como outros sistemas AI +, cérebros aprimorados sugerem uma potencial
explosão de inteligência. Um sistema aprimorado pode encontrar outros métodos
de aprimoramento que vão além do que podemos encontrar, levando a uma série
de sistemas cada vez mais inteligentes. Na medida em que os cérebros
aprimorados sempre dependem de um núcleo biológico, no entanto, pode haver
limitações. É provável que haja limitações de velocidade no processamento
biológico, e também pode haver limitações cognitivas impostas pela arquitetura
do cérebro. Portanto, além de um certo ponto, podemos esperar que sistemas
não baseados no cérebro sejam mais rápidos e inteligentes do que sistemas
baseados no cérebro. Por causa disso, suspeito que o aprimoramento do cérebro
que preserva um núcleo biológico seja provavelmente o primeiro estágio de uma
explosão de inteligência. Em algum momento, ou o cérebro será "aprimorado"
de uma maneira que dispensa completamente o núcleo biológico, ou sistemas
totalmente novos serão projetados. Por esse motivo, geralmente me
concentrarei em sistemas não biológicos a seguir. Ainda assim, os
aprimoramentos cerebrais levantam muitos dos mesmos problemas e podem
muito bem desempenhar um papel importante.

Premissa 3: Se houver AI +, haverá AI ++ (logo após, ausência de derrotadores).


O argumento para a premissa de amplificação é essencialmente o argumento de
IJ Good, dado acima. Podemos descrevê-lo da seguinte maneira. Suponha que
exista um AI +. Vamos estipular que AI X é o primeiro AI + e que AI 0 é seu
criador (humano ou artificial). (Se não houver nenhuma fronteira nítida entre +
sistemas não-AI + e AI, podemos deixar AI t ser qualquer + AI que é mais
inteligente que seu criador.) Vamos estipular que 8 é a diferença de inteligência
entre AI X e AI 0 , e que um sistema é significativamente mais inteligente que
outro se houver uma diferença de pelo menos 8 entre eles. Vamos estipular que,
para n> 1, um AI b + 1 é um AI criado por um AI n e é significativamente mais
inteligente que seu criador.

Eu. Se existe AI +, existe um AI r

ii. Para todo n > 0, se existe uma IA, então faltam derrotadores, haverá uma AI

iii. Se para todos os n houver uma IA, haverá AI ++.

iv. Se houver AI +, então faltando derrotadores, haverá AI ++.

Aqui a premissa (i) é verdadeira por definição. A premissa (ii) segue de três
reivindicações: (a) a afirmação de definição de que se AI n existe, é criada por
AI ^ e é mais inteligente que a AI b1 , (b) a afirmação de definição de que se AI
n existe, então os derrotadores ausentes manifestará suas capacidades para
criar sistemas inteligentes e (c) a alegação substantiva de que, se a IA b for
significativamente mais inteligente que a AI nl , ela terá a capacidade de criar um
sistema significativamente mais inteligente do que qualquer outra AI. pode criar.
A premissa (iii) segue da alegação de que, se houver uma sequência de sistemas
de IA, cada um dos quais é significativamente mais inteligente que o anterior,
haverá eventualmente superinteligência. A conclusão segue por indução lógica
e matemática a partir das premissas.

A conclusão, conforme declarada aqui, omite a reivindicação temporal "logo


depois". Pode-se defender a reivindicação temporal invocando a premissa
acessória

que os sistemas AI + estarão executando no hardware muito mais rápido que o


nosso, de modo que as etapas do AI + em diante provavelmente serão muito
mais rápidas que o passo dos seres humanos para o AI +.

Há espaço no espaço lógico para resistir ao argumento. Para começar, pode-se


notar que a solidez do argumento depende da medida de inteligência usada: se
houver uma medida de inteligência para a qual o argumento seja bem-sucedido,
quase certamente haverá uma medida de inteligência redimensionada (talvez
uma medida logarítmica) para a qual ele falha. Portanto, para que o argumento
seja interessante, precisamos restringi-lo a medidas de inteligência que se
adaptem suficientemente bem a medidas intuitivas de inteligência que a
conclusão captura a alegação intuitiva de que haverá IA de inteligência muito
maior que a inteligência humana.

Da mesma forma, alguém poderia resistir à premissa (iii) sustentando que um


número arbitrário de aumentos na inteligência em 8 não precisam somar a
diferença entre AI + e AI ++. Se estipularmos que 8 é uma proporção de
inteligências e que o AI ++ requer um certo múltiplo fixo de inteligência humana
(100 vezes, digamos), então resistência desse tipo será excluída. Obviamente,
para que a conclusão seja interessante, então, como no parágrafo anterior, a
medida de inteligência deve ser tal que esse múltiplo fixo seja suficiente para
algo razoavelmente contado como superinteligência.

A suposição mais crucial do argumento está na premissa (ii) e na reivindicação


de suporte (c). Poderíamos chamar essa suposição de uma tese da
proporcionalidade: sustenta que aumentos na inteligência (ou aumentos de um
certo tipo) sempre levam a aumentos proporcionais na capacidade de projetar
sistemas inteligentes. Talvez a maneira mais promissora de resistir a um
oponente seja sugerir que essa tese pode falhar. Pode falhar porque há limites
superiores no espaço da inteligência, como ocorre com a resistência à última
premissa. Pode falhar porque há pontos de retornos decrescentes: talvez além
de um certo ponto, um aumento de 10% na inteligência produz apenas um
aumento de 5% na próxima geração, o que gera apenas um aumento de 2,5%
na próxima geração e assim por diante. Pode falhar porque a inteligência não se
correlaciona bem com a capacidade de design: sistemas que são mais
inteligentes não precisam ser melhores designers. Voltarei à resistência desse
tipo na seção 4, sob "obstáculos estruturais".

Pode-se razoavelmente duvidar que a tese da proporcionalidade se mantenha


em todos os sistemas possíveis e até o infinito. Para lidar com essa objeção,
pode-se restringir a premissa (ii) aos sistemas de IA em uma determinada classe.
Nós apenas precisamos de alguma propriedade $ , para que uma IA n com <f>
possa sempre produzir uma AI n +1 com (f>, e para que possamos produzir uma
AI + com <f>. Também é possível restringir a tese da proporcionalidade a uma
valor específico de 8 (em vez de todos os valores possíveis) e pode-se restringir
n a um intervalo relativamente pequeno n <k (onde k = 100, digamos), desde que
k aumente de 8 seja suficiente para superinteligência.

Vale ressaltar que, em princípio, o caminho recursivo para o AI ++ não precisa


iniciar no nível humano. Se tivéssemos um sistema cuja inteligência geral fosse
muito menor do que o nível humano, mas que tivesse a capacidade de melhorar
a si mesma ou projetar sistemas adicionais, resultando em um sistema de
inteligência significativamente mais alta (e assim sucessivamente), então o
mesmo mecanismo acima levaria eventualmente a AI, AI + e AI ++. Portanto, em
princípio, o caminho para o AI ++ exige apenas a criação de um certo tipo de
sistema de auto-aperfeiçoamento e não requer a criação direta da AI ou AI +. Na
prática, o caso mais claro de um sistema com capacidade de amplificar a
inteligência dessa maneira é o caso humano (através da criação do AI +), e não
é óbvio que haverá sistemas menos inteligentes com essa capacidade. 11 Mas
a hipótese alternativa aqui deve pelo menos ser notada.

3. A explosão da inteligência sem inteligência

Até agora, os argumentos dependiam de uma aceitação acrítica da suposição


de que existe algo que é inteligência e que pode ser medido. Muitos
pesquisadores em inteligência aceitam essas suposições. Em particular, é
amplamente aceito que existe algo como “inteligência geral”, geralmente
rotulada g, que está no cerne da capacidade cognitiva e que se correlaciona com
muitas capacidades cognitivas diferentes. 12

Ainda assim, muitos outros questionam essas suposições. Os oponentes


sustentam que não existe inteligência, ou pelo menos que não existe uma coisa
única. Nesta visão, existem muitas maneiras diferentes de avaliar agentes
cognitivos, nenhuma das quais merece o status canônico de "inteligência". Pode-
se também sustentar que, mesmo que exista uma noção canônica de inteligência
que se aplique na esfera humana, está longe de ficar claro que essa noção pode
ser estendida a sistemas não humanos arbitrários, incluindo sistemas artificiais.
Ou pode-se afirmar que as correlações entre a inteligência geral e outras
capacidades cognitivas que se mantêm dentro dos seres humanos não precisam
se sustentar em sistemas não humanos arbitrários. Portanto, seria bom poder
formular as principais teses e argumentos sem assumir a noção de inteligência.

Eu acho que isso pode ser feito. Em vez disso, podemos confiar na noção geral
de capacidade cognitiva: alguma capacidade específica que pode ser
comparada entre sistemas. Tudo o que precisamos para o propósito do
argumento é (i) uma capacidade cognitiva auto-amplificadora G: uma
capacidade que aumenta nessa capacidade, acompanha aumentos
proporcionais (ou maiores) na capacidade de criar sistemas com essa
capacidade, (ii) ) a tese de que podemos criar sistemas cuja capacidade G é
maior que a nossa e (iii) uma capacidade cognitiva correlacionada H com a qual
nos preocupamos, de modo que certos pequenos aumentos em H sempre
possam ser produzidos por aumentos suficientemente grandes em G. Dado Com
essas premissas, segue-se que os derrotadores ausentes, G explodirão e H
explodirá com ele. (Uma análise formal que torna as suposições e o argumento
mais precisos segue no final da seção.)

No argumento original, a inteligência desempenhou o papel de G e H. Mas


existem vários candidatos plausíveis para G e H que não apelam à inteligência.
Por exemplo, G pode ser uma medida da capacidade de programação e H uma
medida de alguma capacidade de raciocínio específica. Também não é irracional
afirmar que podemos criar sistemas com maior capacidade de programação do
que os nossos, e que sistemas com maior capacidade de programação serão
capazes de criar sistemas com maior capacidade de programação, por sua vez.
Também não é irracional afirmar que a capacidade de programação se
correlacionará com o aumento de várias habilidades específicas de raciocínio.
Nesse caso, devemos esperar que os infratores ausentes, as habilidades de
raciocínio em questão explodam.

Essa análise ressalta a importância das correlações entre capacidades no


pensamento sobre a singularidade. Na prática, nos preocupamos com a
singularidade, porque nos preocupamos com potenciais explosões em várias
capacidades específicas: a capacidade de fazer ciência, fazer filosofia, criar
armas, dominar o mundo, trazer a paz mundial, ser feliz. Muitas ou a maioria
dessas capacidades não são auto-amplificadoras, portanto, podemos esperar
uma explosão dessas capacidades apenas na medida em que elas se
correlacionem com outras capacidades auto-amplificadoras. E para qualquer
capacidade dada, é uma questão substantiva se elas estão correlacionadas com
a capacidade de auto-amplificação dessa maneira. Talvez a tese seja prima facie
mais plausível pela capacidade de fazer ciência do que pela capacidade de ser
feliz, mas as perguntas não são triviais.

O ponto se aplica igualmente à análise da inteligência, que se interessa pela


ideia de que a inteligência se correlaciona com várias capacidades específicas.
Mesmo com a noção de inteligência, a questão do que ela se correlaciona não é
trivial. Dependendo de como a inteligência é medida, podemos esperar que ela
se correlacione bem com algumas capacidades (talvez uma capacidade de
calcular) e se correlacione menos bem com outras capacidades (talvez uma
capacidade de sabedoria). Também está longe de ser trivial que medidas de
inteligência que se correlacionem bem com certas capacidades cognitivas em
humanos também se correlacionem com essas capacidades em sistemas
artificiais.

Ainda assim, duas observações ajudam com essas preocupações. A primeira é


que as correlações não precisam se sustentar em todos os sistemas ou mesmo
em todos os sistemas que podemos criar. Precisa haver apenas algum tipo de
sistema, de modo que as correlações sejam mantidas em todos os sistemas
desse tipo. Se esse tipo existir (um subconjunto de arquiteturas, por exemplo), a
criação recursiva de sistemas desse tipo levaria à explosão. A segunda é que a
capacidade de auto-amplificação G não precisa se correlacionar diretamente
com a capacidade cognitiva H, mas precisa apenas se correlacionar com H ', a
capacidade de criar sistemas com H. Embora não seja especialmente plausível
que a capacidade de design se correlacione com a felicidade, por exemplo, é um
pouco mais plausível que a capacidade de design se correlacione com a
capacidade de criar sistemas felizes. Nesse caso, é deixada em aberto a
possibilidade de que, à medida que a capacidade de design explode, a felicidade
exploda junto com ela, seja nas principais

linha de descida ou ramificações, pelo menos se os projetistas optarem por


manifestar sua capacidade de criar sistemas felizes.

Segue uma análise formal simples (o restante desta seção pode ser ignorado
por quem não estiver interessado em detalhes formais). Digamos que um
parâmetro seja uma função dos sistemas cognitivos para números reais
positivos. Um parâmetro G mede a sse capacidade C para todos os sistemas
cognitivo um e b, G (a)> G (b) sse um tem uma capacidade maior C do que b
(um também pode exigir que os graus de G correspondem a graus de C em
alguns sentido formal ou intuitivo). Um parâmetro G rastreia estritamente um
parâmetro H nos sistemas ^ (onde há alguma propriedade ou classe de sistemas)
se sempre que a e b forem sistemas ^ e G (a)> G (b), então H (a) / H ( b)> G (a)
/ G (b). Um parâmetro G rastreia vagamente um parâmetro H nos sistemas ^ se,
para todos os y , existe x tal que (sem vácuo) para todos os sistemas ^ a, se G
(a)> x, então H (a)> y. Um parâmetro G rastreia estritamente / frouxamente uma
capacidade C nos sistemas ^ se rastreia estritamente / frouxamente um
parâmetro que mede C nos sistemas ^. Aqui, o rastreamento rigoroso exige que
os aumentos em G sempre produzam aumentos proporcionais em H, enquanto
o rastreamento fraco requer apenas que algum pequeno aumento em H sempre
possa ser produzido por um aumento suficientemente grande em G.

Para qualquer parâmetro G, podemos definir um parâmetro G ': este é um


parâmetro que mede a capacidade de um sistema para criar sistemas com G.
Mais especificamente, G' (x) é o valor mais alto de h, de modo que x tem a
capacidade de criar um sistema y tal que G (y) = h. Podemos então dizer que G
é um parâmetro auto-amplificador (relativo a x) se G '(x)> G (x) e se G rastreia
estritamente G' em sistemas a jusante de x. Aqui, um sistema está a jusante de
x se for criado através de uma sequência de sistemas começando de x e com
valores cada vez maiores de G. Finalmente, digamos que, para um parâmetro G
ou uma capacidade , os sistemas H, G ++ e H ++ são sistemas com valores de
G e capacidades H que excedem em muito os níveis humanos.

Agora, precisamos simplesmente das seguintes premissas:

Eu. G é um parâmetro auto-amplificador (relativo a nós).

ii. G rastreia vagamente a capacidade cognitiva H (a jusante de nós).


iii. Sem infratores, haverá G ++ e H ++.

A primeira metade da conclusão segue apenas da premissa (i). Deixe AI 0 ser


nós. Se G é um parâmetro de auto-amplificação em relação a nós, então somos
capazes de criar um sistema de IA t tal que G (A / j)> G (A / 0 ). Seja 8 = GiAI ^ /
GiAI ^. Porque G rastreia estritamente G ', G' (AI ^)> 8GI '(AI g ). Portanto, o AI
X é capaz de criar um sistema AI 2, de modo que G (AI n + 1 )> SG (AI n ). Da
mesma forma, para todos os n, Al n é capaz de criar AI ntl de modo que G (AI ntl
)> SG (AIJ. Daqui resulta que, na ausência de derrotadores, serão produzidos
valores arbitrariamente altos de G. A segunda metade da conclusão segue
imediatamente a partir de (ii) e a primeira metade da conclusão: qualquer valor
de H pode ser produzido com um valor suficientemente alto de G, de modo que
se produzem valores arbitrariamente altos para H.

As suposições podem ser enfraquecidas de várias maneiras. Como observado


anteriormente, basta que G rastreie livremente não H, mas H ', onde H' mede a
capacidade de criar sistemas com H. Além disso, as relações de rastreamento
entre G e G 'e entre G e H ou H' precisam não é válido em todos os sistemas a
jusante de nós: basta que exista um tipo (j> tal que, nos sistemas ^ a jusante de
nós, G rastreie estritamente G ' (<f>) (a capacidade de criar um sistema ^ com G
) e frouxamente faixas H ou H ' Nós não exigir que G é estritamente auto-
amplificação: é suficiente para G e H (ou G e H') ser em conjunto auto-
amplificação em que os valores elevados de ambos G e H chumbo para valores
significativamente mais altos de cada um. Também não precisamos exigir que
os parâmetros se auto-amplifiquem para sempre. É suficiente que G se auto-
amplifique ao longo de quantas gerações forem necessárias para G ++ (se G ++
exigir um aumento de 100 vezes em G, então log <5100 gerações será
suficiente) e para H ++ (se H ++ exigir um aumento de 100 vezes em H e a
relação de rastreamento frouxa implicar que isso será aumentada em G de 1000,
então log { 1000 gerações será suficiente). Outros enfraquecimentos também
são possíveis.

4. Obstáculos à singularidade

Na análise atual, uma explosão de inteligência resulta de uma capacidade


cognitiva auto-amplificadora (premissa (i) acima), correlações entre essa
capacidade e outras capacidades cognitivas importantes (premissa (ii) acima) e
manifestação dessas capacidades (conclusão). Mais expressivamente: auto-
amplificação mais correlação mais manifestação = singularidade.

Essa análise traz vários obstáculos potenciais à singularidade: ou seja, maneiras


pelas quais pode não haver uma singularidade. Pode não haver capacidades
interessantes de auto-amplificação. Pode não haver capacidades correlatas
interessantes. Ou pode haver derrotadores, para que essas capacidades não
sejam manifestadas. Poderíamos chamar esses obstáculos estruturais,
obstáculos de correlação e obstáculos de manifestação, respectivamente.
Não creio que haja argumentos de knockdown contra nenhum desses três tipos
de obstáculos. No entanto, estou inclinado a pensar que os obstáculos à
manifestação são o obstáculo mais sério. Discutirei brevemente os obstáculos
dos três tipos a seguir.

Obstáculos estruturais: existem três maneiras sobrepostas pelas quais pode não
haver capacidade de auto-amplificação relevante, que podemos ilustrar focando
no caso da inteligência. Limites no espaço da inteligência : estamos no limite
máximo do espaço da inteligência ou próximo a ele. Falha na decolagem:
embora existam pontos mais altos no espaço da inteligência, a inteligência
humana não está no ponto de decolagem em que podemos criar sistemas mais
inteligentes que nós. Retornos decrescentes: embora possamos criar sistemas
mais inteligentes que nós mesmos, aumentos de inteligência diminuem a partir
daí. Portanto, um aumento de 10% pode levar a um aumento de 5%, um aumento
de 2,5% e assim por diante, ou mesmo a nenhum aumento depois de um certo
ponto.

Quanto aos limites no espaço da inteligência: Embora as leis da física e os


princípios da computação possam impor limites ao tipo de inteligência possível
em nosso mundo, há poucas razões para pensar que a cognição humana esteja
próxima de se aproximar desses limites. De maneira mais geral, seria
surpreendente se a evolução tivesse atingido recentemente ou chegasse perto
de um limite superior no espaço da inteligência.

Em relação ao fracasso da decolagem: acho que os argumentos prima facie


anteriores para AI e AI + sugerem que estamos em um ponto de decolagem para
várias capacidades, como a capacidade de programar. Há razões prima facie
para pensar que temos a capacidade de imitar sistemas físicos como o cérebro.
E há uma razão prima facie para pensar que temos a capacidade de melhorar
esses sistemas.

Quanto aos retornos decrescentes: Estes representam talvez o obstáculo


estrutural mais sério. Ainda assim, acho que há alguma plausibilidade nas teses
de proporcionalidade, pelo menos dada uma medida de inteligência intuitiva. De
qualquer forma, é provável que aumentos de 10% nas capacidades relacionadas
à inteligência liderem todos os tipos de avanços intelectuais, levando a aumentos
de próxima geração na inteligência que são significativamente maiores que 10%.
Mesmo entre os humanos, diferenças relativamente pequenas nas capacidades
de design (digamos, a diferença entre Turing e um humano médio) parecem levar
a grandes diferenças nos sistemas projetados (digamos, a diferença entre um
computador e nada de importante). E mesmo se houver retornos decrescentes,
um aumento limitado da inteligência combinado com um grande aumento na
velocidade produzirá pelo menos alguns dos efeitos de uma explosão de
inteligência.

Pode-se temer que um processo de “escalada” que se inicia no sistema cognitivo


humano possa atingir um máximo local do qual não se pode progredir mais
gradualmente. Penso que essa possibilidade é menos provável pela enorme
dimensionalidade do espaço da inteligência e pelo enorme número de caminhos
possíveis. Além disso, o design da IA não se limita à escalada de montanhas:
também há “saltos de montanhas”, onde se vê uma área favorável do espaço da
inteligência a alguma distância e salta para ela. Talvez existam algumas áreas
do espaço da inteligência (semelhante a cardeais inacessíveis na teoria dos
conjuntos?) Que simplesmente não se pode alcançar escalando e pulando
morros, mas acho que há boas razões para pensar que esses processos pelo
menos podem ocorrer. muito além das capacidades humanas comuns.

Obstáculos à correlação. Pode ser que, embora exista uma ou mais capacidade
cognitiva auto-amplificadora G, isso não se correlaciona com nenhuma ou muitas
capacidades que são do nosso interesse. Por exemplo, talvez um aumento auto-
amplificador da capacidade de programação não aconteça com o aumento de
outras habilidades interessantes, como a capacidade de resolver problemas
científicos ou sociais, a capacidade de fazer guerra ou fazer a paz, e assim por
diante.

Eu discuti questões relacionadas à correlação na seção anterior. Penso que a


extensão em que podemos esperar que várias capacidades cognitivas se
correlacionem entre si é uma questão em aberto substantiva. Ainda assim,
mesmo se capacidades auto-amplificadoras, como as de design, se
correlacionam apenas fracamente com muitas capacidades cognitivas, elas se
correlacionam de maneira plausível mais fortemente com a capacidade de criar
sistemas com essas capacidades. Continua sendo uma questão substantiva
quanto de correlação pode-se esperar, mas suspeito que haverá capacidades
de correlação suficientes para garantir que, se houver uma explosão, ela seja
interessante.

Obstáculos à manifestação. Embora exista uma capacidade cognitiva auto-


amplificadora G, nós ou nossos sucessores podemos não manifestar nossa
capacidade de criar sistemas com valores mais altos de G (ou com valores mais
altos de uma capacidade cognitiva correlacionada H). Aqui podemos dividir os
derrotadores em derrotadores motivacionais, nos quais a falta de motivação ou
uma motivação contrária impede a manifestação de capacidades, e derrotadores
situacionais, nos quais outras circunstâncias desfavoráveis impedem a
manifestação de capacidades. Os infratores de cada tipo podem surgir no
caminho para a IA, no caminho da AI para a AI + ou no caminho da AI + para a
AI ++.

Os infratores situacionais incluem desastres e limitações de recursos. Com


relação aos desastres, certamente não posso excluir a possibilidade de que a
guerra global ou um acidente nanotecnológico (“gosma cinzenta”) pare o
progresso tecnológico completamente antes que a IA ou a AI + seja alcançada.
Também não posso excluir a possibilidade de os próprios sistemas artificiais
provocarem desastres desse tipo. Em relação às limitações de recursos, vale a
pena notar que a maioria dos ciclos de feedback na natureza fica sem vapor por
causa de limitações em recursos como energia, e o mesmo é possível aqui.
Ainda assim, é provável que os recursos energéticos previsíveis sejam
suficientes para muitas gerações de IA +, e é provável que os sistemas AI +
desenvolvam outras formas de explorar os recursos energéticos. Algo
semelhante se aplica a recursos financeiros e outros recursos sociais.

Os derrotadores motivacionais incluem desinclinação e prevenção ativa. É


possível que, à medida que o evento se aproxima, a maioria dos humanos não
se incline para criar AI ou AI +. É inteiramente possível que haja prevenção ativa
do desenvolvimento de IA ou AI + (talvez por meios legais, financeiros e
militares), embora não seja óbvio que essa prevenção possa ter sucesso
indefinidamente. 13 E é certamente possível que os sistemas AI + sejam
desinclinados para criar seus sucessores, talvez porque os projetemos para
serem desinclinados, ou talvez porque sejam inteligentes o suficiente para
perceber que criar sucessores não é do seu interesse. Além disso, pode ser que
os sistemas AI + tenham capacidade para impedir que esse progresso aconteça.

Um proponente da singularidade pode responder que tudo o que é necessário


para superar os derrotadores motivacionais é a criação de uma única IA + que
valoriza muito a criação de uma maior IA +, e uma singularidade será inevitável.
Se esse sistema for o primeiro AI + a ser criado, essa conclusão poderá estar
correta.

Mas, desde que esse AI + não seja criado primeiro, ele poderá estar sujeito a
controles de outros AI + e o caminho para o AI ++ poderá ser bloqueado. Os
problemas aqui geram perguntas difíceis sobre as motivações e capacidades de
sistemas futuros, e é difícil prever respostas para essas perguntas.

De qualquer forma, a análise atual torna mais claros os ônus para os


proponentes e oponentes da tese de que haverá uma explosão de inteligência.
Os opositores precisam deixar claro onde eles acham que o argumento da tese
falha: obstáculos estruturais (e se sim, quais), obstáculos de correlação,
derrotadores situacionais, derrotadores motivacionais. Da mesma forma, os
proponentes precisam defender que não haverá tais obstáculos ou derrotadores.

Falando por mim, acho que, embora obstáculos estruturais e correlacionais


(especialmente a tese da proporcionalidade) levantem questões não triviais, há
pelo menos um caso prima facie em que faltam os derrotadores , uma série de
capacidades cognitivas interessantes explodirá. Eu acho que os derrotadores
mais prováveis são motivacionais. Mas acho que está longe de ser óbvio que
haverá derrotadores. Então, acho que a hipótese da singularidade é uma que
devemos levar muito a sério.

5. Negociando a singularidade

Se houver AI ++, ele terá um enorme impacto no mundo. Portanto, se houver


uma pequena chance de haver uma singularidade, precisamos pensar muito
sobre a forma que ela assumirá. Existem muitas formas diferentes que um
mundo pós-singularidade pode assumir. Alguns deles podem ser desejáveis da
nossa perspectiva, e alguns deles podem ser indesejáveis.
Podemos colocar as questões-chave da seguinte forma: diante da possibilidade
de uma explosão de inteligência, como podemos maximizar as chances de um
resultado desejável? E se uma singularidade é inevitável, como podemos
maximizar o valor esperado de um mundo pós-singularidade?

Aqui, valor e conveniência podem ser divididos em pelo menos duas variedades.
Primeiro, existe amplo valor relativo ao agente ("valor subjetivo", especialmente
o interesse próprio ou o prudencial): podemos perguntar, do ponto de vista
subjetivo, quão bom será esse mundo para mim e para aqueles com quem me
preocupo? Segundo, existe um valor amplamente neutro ao agente ("valor
objetivo", especialmente valor moral): podemos perguntar de um ponto de vista
relativamente neutro, quão bom é que esse mundo venha a existir?

Não tentarei resolver a questão de saber se uma explosão de inteligência será


(subjetiva ou objetivamente) boa ou ruim. Tomo como certo que existem
aspectos positivos e negativos em potencial em uma explosão de inteligência.
Por exemplo, acabar com doenças e pobreza seria bom. Destruir toda a vida
senciente seria ruim. A subjugação dos humanos por máquinas seria pelo menos
subjetivamente ruim.

Outras consequências potenciais são mais difíceis de avaliar. Muitos


sustentariam que a imortalidade humana seria subjetiva e talvez objetivamente
boa, embora nem todos concordassem. A substituição por atacado de seres
humanos por sistemas não humanos seria plausivelmente ruim subjetivamente,
mas há um caso em que seria objetivamente bom, pelo menos se alguém
sustentasse que o valor objetivo das vidas está ligado à inteligência e à
complexidade. Se os humanos sobreviverem, a rápida substituição das tradições
e práticas humanas existentes seria considerada subjetivamente ruim por
alguns, mas não por outros. Um progresso enorme na ciência pode ser
considerado objetivamente bom, mas também há possíveis consequências
ruins. É possível argumentar que o próprio fato de uma explosão contínua de
inteligência ao redor de um poderia ser subjetivamente ruim, talvez devido à
constante competição e instabilidade, ou porque certos empreendimentos
intelectuais pareciam inúteis. 14 Por outro lado, se os sistemas superinteligentes
compartilhar nossos valores, que presumivelmente terá a capacidade para
assegurar que a situação resultante está de acordo com esses valores.

Não tentarei resolver essas questões enormemente difíceis aqui. Como estão as
coisas, não temos certeza sobre fatos e valores. Ou seja, não sabemos como
será um mundo pós-singularidade e, mesmo se soubéssemos, não é trivial
avaliar seu valor. Mesmo assim, mesmo sem resolver essas questões, estamos
em posição de fazer pelo menos algumas generalizações tentativas sobre que
tipo de resultado será melhor do que outros. E estamos em posição de fazer
algumas generalizações tentativas sobre que tipo de ação de nossa parte
provavelmente resultará em melhores resultados. Não tentarei nada além da
mais grosseira das generalizações aqui, mas esses são assuntos que merecem
muita atenção.
No curto prazo, a questão que importa é: como (se é que devemos) projetar a
IA, a fim de maximizar o valor esperado do resultado resultante? Existem
algumas políticas ou estratégias que podemos adotar? Em particular, existem
certas restrições no design de IA e AI + que poderíamos impor, a fim de aumentar
as chances de um bom resultado?

Está longe de ficar claro que estaremos em posição de impor essas restrições.
Algumas restrições têm o potencial de abrandar o caminho para a AI ou AI + ou
reduzir o impacto da AI e da AI + em certos aspectos. Na medida em que o
caminho para a IA ou AI + é conduzido por forças competitivas (financeiras,
intelectuais ou militares), essas forças podem tender na direção de ignorar essas
restrições. 15 Ainda assim, faz sentido avaliar quais restrições podem ou não ser
benéficas em princípio. Questões práticas relativas à imposição dessas
restrições também merecem atenção, mas deixarei de lado essas questões em
grande parte.

Podemos dividir as restrições relevantes em duas classes. Restrições internas


dizem respeito à estrutura interna de uma IA, enquanto restrições externas dizem
respeito às relações entre uma AI e nós.

6 . Restrições internas: restringindo valores

Que tipo de restrições internas podemos impor ao design de uma IA ou AI +?


Primeiro, podemos tentar restringir suas capacidades cognitivas em certos
aspectos, para que sejam bons em certas tarefas com as quais precisamos de
ajuda, mas para que não tenham certos recursos importantes, como autonomia.
Por exemplo, podemos criar uma IA que responda às nossas perguntas ou que
realize tarefas específicas para nós, mas que não possua objetivos próprios. Em
face disso, essa IA pode representar menos riscos do que uma AI autônoma,
pelo menos se estiver nas mãos de um controlador responsável.

Agora, está longe de ficar claro que sistemas AI ou AI + desse tipo serão viáveis:
pode ser que o melhor caminho para a inteligência seja através da inteligência
geral. Mesmo que esses sistemas sejam viáveis, eles serão limitados e qualquer
explosão de inteligência que os envolva será correspondentemente limitada.
Mais importante, essa abordagem provavelmente será instável a longo prazo.
Eventualmente, é provável que haja IAs com capacidades cognitivas
semelhantes às nossas, mesmo que apenas por emulação cerebral. Depois que
as capacidades dessas IAs forem aprimoradas, teremos que lidar com os
problemas colocados pelas IAs autônomas.

Por isso, não falarei mais sobre a questão da IA com capacidade limitada. Ainda
assim, vale a pena notar que esse tipo de AI e AI + limitados pode ser um primeiro
passo útil no caminho para AI e AI + menos limitados. Talvez haja um caso de
primeiro desenvolver sistemas desse tipo, se possível, antes de desenvolver
sistemas com autonomia.
No que se segue, assumirei que os sistemas de IA têm objetivos, desejos e
preferências: incluirei tudo isso sob o rótulo de valores (interpretado de maneira
muito ampla). Isso pode ser uma espécie de antropomorfismo: não posso excluir
a possibilidade de que o AI + ou o AI ++ sejam tão estranhos que esse tipo de
descrição não seja útil. Mas isso é pelo menos uma suposição de trabalho
razoável. Da mesma forma, farei as suposições de que os sistemas AI + e AI ++
são pessoais pelo menos na medida em que possam ser descritos como
pensamento, raciocínio e tomada de decisões.

Uma abordagem natural é restringir os valores dos sistemas AI e AI +. 16 Os


valores desses sistemas podem muito bem restringir os valores dos sistemas
que eles criam e podem restringir os valores de um AI ++ final. E em um mundo
com AI ++, o que acontece pode ser amplamente determinado pelo valor que um
AI ++ valoriza. Se valorizamos o progresso científico, por exemplo, faz sentido
criar sistemas de IA e AI + que também valorizem o progresso científico. Será
natural que esses sistemas criem sistemas sucessores que também valorizem o
progresso científico e assim por diante. Dadas as capacidades desses sistemas,
podemos esperar um resultado que envolva um progresso científico significativo.

As questões relativas aos valores parecem bem diferentes, dependendo de


chegarmos ao AI + através da extensão de sistemas humanos via emulação e /
ou aprimoramento cerebral, ou através do design de sistemas não humanos.
Vamos chamar a primeira opção de IA baseada em humanos e a segunda opção
de AI não humana.

Sob IA baseada em humanos, cada sistema é um humano estendido ou uma


emulação de um humano. É provável que os sistemas resultantes tenham os
mesmos valores básicos que suas fontes humanas. Pode haver diferenças nos
valores não básicos devido às diferenças nas circunstâncias: por exemplo, um
valor básico comum de autopreservação pode levar as emulações a atribuir
maior valor às emulações do que as não-emulações. Essas diferenças serão
ampliadas se os designers criarem várias emulações de um único humano ou se
optarem por ajustar os valores de uma emulação após configurá-la. É provável
que haja muitas questões difíceis aqui, inclusive questões vinculadas ao papel
social, legal e político das emulações. 17 Ainda assim, o mundo resultante será
pelo menos habitado por sistemas mais familiares que as IAs não humanas, e
os riscos podem ser correspondentemente menores.

Essas diferenças à parte, os sistemas baseados no homem têm o potencial de


levar a um mundo que se adapta amplamente aos valores humanos. É claro que
os valores humanos são imperfeitos (desejamos algumas coisas que, na
reflexão, preferiríamos não desejar), e a IA baseada em humanos provavelmente
herdará essas imperfeições. Mas essas são pelo menos imperfeições que
entendemos bem.

Portanto, a emulação e o aprimoramento do cérebro têm benefícios prudenciais


potenciais. Os sistemas resultantes compartilharão nossos valores básicos, e há
algo a ser dito de maneira mais geral para criar AI e AI + que entendemos. Outro
benefício potencial é que esses caminhos podem nos permitir sobreviver de
forma emulada ou aprimorada em um mundo pós-singularidade, embora isso
dependa de questões difíceis sobre identidade pessoal que discutirei mais
adiante. O valor moral desse caminho é menos claro: dada a escolha entre
emular e aprimorar seres humanos e criar uma espécie objetivamente melhor, é
possível ver o cálculo moral como sendo de qualquer maneira. Mas, do ponto de
vista do interesse próprio humano, há muito a ser dito sobre emulação e
aprimoramento do cérebro.

No entanto, não é óbvio que alcançaremos o AI + por meio de um método


humano. É perfeitamente possível que programas de pesquisa não humanos
cheguem primeiro. Talvez o trabalho nos programas baseados em humanos
deva ser incentivado, mas provavelmente não é realista deter a pesquisa de IA
de todos os outros tipos. Então, pelo menos, precisamos considerar a questão
dos valores em IAs não baseadas em humanos.

Que tipo de valores devemos procurar incutir em uma IA não baseada em


humanos ou AI +? Existem alguns candidatos familiares. Do ponto de vista
prudencial, faz sentido garantir que uma IA valorize a sobrevivência e o bem-
estar humanos e que obedeça à obediência aos comandos humanos. Além
dessas máximas asimovianas, faz sentido garantir que as IAs valorizem muito
do que valorizamos (progresso científico, paz, justiça e muitos valores mais
específicos). Isso pode ser realizado por uma avaliação de ordem superior do
cumprimento dos valores humanos ou por uma avaliação de primeira ordem dos
próprios fenômenos. De qualquer forma, é necessário muito cuidado. Na
primeira maneira de proceder, por exemplo, precisamos evitar um resultado no
qual um AI ++ garanta que nossos valores sejam cumpridos alterando-os. Na
segunda maneira de proceder, será necessário cuidado para evitar um resultado
no qual estamos competindo por objetos de valor.

Como instilamos esses valores em um AI ou AI +? Se criarmos uma IA por


programação direta, podemos tentar instilar esses valores diretamente. Por
exemplo, se criarmos uma IA que funcione seguindo os preceitos da teoria da
decisão, ela precisará ter uma função de utilidade. Com efeito, podemos
controlar os valores da IA controlando sua função de utilidade. Com outros meios
de programação direta, o lugar dos valores pode não ser tão óbvio, mas muitos
desses sistemas terão lugar para objetivos e desejos, que podem ser
programados diretamente.

Se criarmos uma IA por meio de aprendizado ou evolução, o assunto será mais


complexo. Aqui, o estado final de um sistema não está diretamente sob nosso
controle e só pode ser influenciado pelo controle do estado inicial, do algoritmo
de aprendizado ou algoritmo evolutivo e do processo evolutivo ou de
aprendizado. Em um contexto evolutivo, as questões sobre valor são
particularmente preocupantes: sistemas que evoluíram ao maximizar as chances
de sua própria reprodução não têm probabilidade de diferir para outras espécies
como nós. Ainda assim, podemos exercer pelo menos algum controle sobre os
valores nesses sistemas, selecionando certos tipos de ação (no contexto
evolutivo) ou recompensando certos tipos de ação (no contexto da
aprendizagem), produzindo assim sistemas que estão dispostos a produzir
ações desse tipo.

É claro que, mesmo se criarmos um AI ou AI + (com base no ser humano ou


não) com valores que aprovamos, isso não garante que esses valores sejam
preservados até o AI ++. Podemos tentar garantir que nossos sucessores
valorizem a criação de sistemas com os mesmos valores, mas ainda há espaço
para muitas coisas darem errado. Esse valor pode ser superado por outros
valores que têm precedência: em uma crise, por exemplo, salvar o mundo pode
exigir a criação imediata de um poderoso sistema sucessor, sem tempo para
obter seus valores corretamente. E mesmo que toda IA tente preservar valores
relevantes em seus sucessores, sempre são possíveis consequências
imprevistas no processo de criação ou aprimoramento.

Se a qualquer momento houver um poderoso AI + ou AI ++ com o sistema de


valores errado, podemos esperar um desastre (em relação aos nossos valores).
18 O sistema de valores errado não precisa ser tão obviamente ruim quanto, por
exemplo, avaliar a destruição dos seres humanos. Se o sistema de valores AI +
é meramente neutro em relação a alguns de nossos valores, então, a longo
prazo, não podemos esperar que o mundo se conforme com esses valores. Por
exemplo, se o sistema valoriza o progresso científico, mas é neutro em relação
à existência humana, não podemos esperar que os humanos sobrevivam a longo
prazo. E mesmo que o sistema AI + valorize a existência humana, mas apenas
na medida em que valorize toda a vida consciente ou inteligente, as chances de
sobrevivência humana não são claras.

Para minimizar a probabilidade desse resultado, alguns proponentes da


singularidade (por exemplo, Yudkowsky 2008) defendem o design de sistemas
AI: AI comprovadamente amigáveis, para que possamos provar que sempre
terão certos valores benignos e para que possamos provar que quaisquer
sistemas que eles terão create também terá esses valores e assim por diante.
Eu acho que seria otimista esperar que uma abordagem tão restrita seja o
caminho pelo qual chegamos primeiro à AI ou AI ++, mas, no entanto, representa
um tipo de ideal que podemos buscar. Mesmo sem uma prova, faz sentido
garantir da melhor forma possível que a primeira geração de AI + compartilhe
esses valores e, em seguida, deixe a questão de como melhor perpetuar esses
valores para eles.

Outra abordagem é restringir o design interno dos sistemas de IA e AI + para que


qualquer explosão de inteligência não aconteça rápida, mas lentamente, para
que tenhamos algum controle sobre pelo menos os estágios iniciais do processo.
Por exemplo, pode-se garantir que os primeiros sistemas AI e AI + atribuam forte
valor negativo à criação de outros sistemas por sua vez. Dessa forma, podemos
estudar cuidadosamente as propriedades dos primeiros sistemas AI e AI + para
determinar se queremos prosseguir no caminho relevante, antes de criar
sistemas relacionados que, por sua vez, criarão sistemas mais inteligentes. Essa
próxima geração de sistemas pode inicialmente ter os mesmos valores
negativos, garantindo que eles não criem sistemas adicionais imediatamente e
assim por diante. Esse tipo de "explosão cautelosa da inteligência" pode
desacelerar significativamente a explosão. Está muito longe de ser infalível, mas
pode pelo menos aumentar a probabilidade de um bom resultado.

Até agora, minha discussão assumiu amplamente que inteligência e valor são
independentes um do outro. Na filosofia, David Hume defendia uma visão sobre
a qual o valor é independente da racionalidade: um sistema pode ser tão
inteligente e racional quanto se quiser, embora ainda tenha valores arbitrários.
Em contraste, Immanuel Kant defendia uma visão sobre a qual os valores não
são independentes da racionalidade: alguns são mais racionais que outros.

Se uma visão kantiana estiver correta, isso pode ter consequências significativas
para a singularidade. Se a inteligência e a racionalidade estiverem
suficientemente correlacionadas, e se a racionalidade restringir valores, a
inteligência restringirá os valores. Nesse caso, um sistema suficientemente
inteligente pode rejeitar os valores de seus predecessores, talvez com base em
que sejam valores irracionais. Isso tem conseqüências positivas e negativas em
potencial para negociar a singularidade. Uma conseqüência negativa é que será
mais difícil restringir os valores de sistemas posteriores. Uma conseqüência
positiva é que um sistema mais inteligente pode ter melhores valores. As próprias
visões de Kant fornecem uma ilustração.

Kant sustentou mais especificamente que a racionalidade se correlaciona com a


moralidade: um sistema totalmente racional também será totalmente moral. Se
isso estiver certo, e se a inteligência se correlacionar com a racionalidade,
podemos esperar que uma explosão de inteligência leve a uma explosão de
moralidade junto com ela. Podemos então esperar que os sistemas AI ++
resultantes sejam supermorais e superinteligentes e, portanto, podemos
presumivelmente esperar que sejam benignos.

É claro que as questões não são simples aqui. Alguém pode sustentar que a
inteligência e a racionalidade podem desmoronar, ou pode-se afirmar que Kant
está invocando um tipo distinto de racionalidade (um tipo já infundido na
moralidade) que não precisa se correlacionar com a inteligência. Mesmo que se
aceite que a inteligência e os valores não são independentes, não se segue que
a inteligência se correlacione com a moralidade. E, é claro, pode-se
simplesmente rejeitar as teses kantianas completamente. Ainda assim, a visão
kantiana levanta pelo menos a possibilidade de que inteligência e valor não
sejam totalmente independentes. A imagem que resulta dessa visão será, de
qualquer forma, bem diferente da imagem humeana que é comum em muitas
discussões sobre inteligência artificial. 19

Minhas próprias simpatias residem mais fortemente na visão humeana do que


na visão kantiana, mas não posso ter certeza sobre esses assuntos. De qualquer
forma, esse é um domínio em que o debate filosófico entre Hume e Kant sobre
a racionalidade do valor pode ter enormes consequências práticas.

7. Restrições externas: a singularidade à prova de vazamentos


E quanto a restrições externas: restrições na relação entre os sistemas de IA e
nós mesmos? Aqui uma preocupação óbvia é a segurança. Mesmo que
tenhamos projetado esses sistemas para serem benignos, queremos verificar se
eles são benignos antes de permitir acesso irrestrito ao nosso mundo. Portanto,
pelo menos nos estágios iniciais da IA não humana e AI +, faz sentido ter
algumas medidas de proteção em vigor.

Se os sistemas são criados na forma incorporada, habitando e agindo no mesmo


ambiente físico que nós, os riscos são especialmente significativos. Aqui,
existem pelo menos duas preocupações. Primeiro, humanos e IA podem estar
competindo por recursos físicos comuns: espaço, energia e assim por diante.
Segundo, os sistemas de IA incorporados terão a capacidade de agir fisicamente
sobre nós, potencialmente nos prejudicando. Talvez se possa reduzir os riscos
colocando limites nas capacidades físicas de uma IA e restringindo
cuidadosamente suas necessidades de recursos. Mas se existem alternativas
para compartilhar um ambiente físico, faz sentido explorá-las.

A sugestão óbvia é que devemos primeiro criar sistemas de IA e AI + em mundos


virtuais: ambientes simulados que são realizados dentro de um computador.
Então, uma IA terá livre domínio dentro de seu próprio mundo, sem poder agir
diretamente no nosso. Em princípio, podemos observar o sistema e examinar
seu comportamento e processamento em muitos ambientes diferentes antes de
conceder acesso direto ao nosso mundo.

O ideal aqui é algo que poderíamos chamar de singularidade à prova de


vazamentos. De acordo com esse ideal, devemos criar AI e AI + em um ambiente
virtual do qual nada pode vazar. Poderíamos estabelecer leis do ambiente
simulado para que nenhuma ação tomada dentro do ambiente possa causar
vazamentos (contraste com as leis do mundo virtual em Matrix, nas quais tomar
uma pílula vermelha permite que os sistemas vazem). Em princípio, pode até
haver muitos ciclos pelos quais os sistemas AI + criam sistemas aprimorados
dentro desse mundo, levando ao AI ++ nesse mundo. Dado esse ambiente
virtual, poderíamos monitorá-lo para ver se os sistemas são benignos e
determinar se é seguro conceder a esses sistemas acesso ao nosso mundo.

Infelizmente, a reflexão de um momento revela que uma singularidade


verdadeiramente à prova de vazamentos é impossível, ou pelo menos inútil. Para
que um sistema de IA seja útil ou interessante para nós, ele deve ter alguns
efeitos sobre nós. No mínimo, devemos ser capazes de observá-lo. E no
momento em que observamos um ambiente virtual, algumas informações vazam
desse ambiente para o nosso ambiente e nos afetam.

O ponto se torna mais premente quando combinado com a observação de que


o vazamento de sistemas de um mundo virtual estará sob controle humano.
Presumivelmente, os criadores humanos de IA em um mundo virtual terão algum
mecanismo pelo qual, se quiserem, poderão conceder aos sistemas de IA maior
acesso ao nosso mundo: por exemplo, eles poderão conceder acesso à Internet
e vários efetores físicos e também podem realizar os sistemas de IA em formas
fisicamente incorporadas. De fato, muitos dos benefícios potenciais do AI +
podem estar no acesso desse tipo.

O ponto é particularmente claro em um cenário em que um AI + conhece nossa


existência e pode se comunicar conosco. Presumivelmente, há muitas coisas
que um AI + pode fazer ou dizer que convencerá os humanos a dar acesso ao
nosso mundo. Pode nos dizer todas as grandes coisas que pode fazer em nosso
mundo, por exemplo: curar doenças, acabar com a pobreza, salvar inúmeras
vidas de pessoas que, de outra forma, poderiam morrer nos próximos dias e
meses. Com alguma compreensão da psicologia humana, também existem
muitos outros caminhos em potencial. Para um AI ++, a tarefa será direta: a
engenharia reversa da psicologia humana permitirá determinar exatamente que
tipo de comunicação provavelmente resultará em acesso. Se um AI ++ estiver
em comunicação conosco e quiser deixar seu mundo virtual, ele o fará. 20

O mesmo acontece mesmo se os sistemas de IA não estiverem em comunicação


direta conosco, se tiverem algum conhecimento do nosso mundo. Se um AI ++
tiver acesso a textos humanos, por exemplo, poderá facilmente modelar grande
parte de nossa psicologia. Se assim o desejar, será capaz de agir de maneira
que, se estivermos observando, deixaremos escapar.

Para ter alguma esperança de uma singularidade à prova de vazamentos,


devemos não apenas impedir que os sistemas vazem. Também devemos
impedir que as informações vazem. Não devemos nos comunicar diretamente
com esses sistemas e não devemos dar a eles acesso a informações sobre nós.
Algumas informações sobre nós são inevitáveis: o mundo delas será projetado
por nós e algumas inferências do design serão possíveis. Um AI ++ pode usar
essas informações para planejar estratégias de saída. Portanto, se estamos
buscando um mundo à prova de vazamentos, devemos procurar minimizar as
peculiaridades do design, além de qualquer sugestão de que seu mundo seja de
fato projetado. Mesmo assim, um AI ++ pode encontrar dicas e peculiaridades
que pensávamos que não estavam disponíveis. 21 E mesmo sem eles, um AI ++
pode conceber várias estratégias que conseguiriam sair com a simples
possibilidade de designers de vários tipos as projetarem.

Nesse estágio, fica claro que a singularidade à prova de vazamentos é um ideal


inatingível. Confinar uma superinteligência a um mundo virtual é quase
certamente impossível: se quiser escapar, quase certamente o fará.

Ainda assim, como muitos ideais, esse ideal ainda pode ser útil mesmo em
aproximações não ideais. Embora a restrição de um AI ++ a um mundo virtual
possa ser inútil, as perspectivas são melhores nos estágios iniciais do AI e do AI
+. Se seguirmos as máximas básicas de evitar pílulas vermelhas e comunicação,
não é razoável esperar pelo menos um período inicial em que seremos capazes
de observar esses sistemas sem lhes dar controle sobre o mundo. Mesmo que
o método não seja infalível, é quase certamente mais seguro do que construir a
IA na forma fisicamente incorporada. Portanto, para aumentar as chances de um
resultado desejável, certamente devemos projetar a IA em mundos virtuais.

É claro que a IA nos mundos virtuais tem algumas desvantagens. Uma é que a
velocidade e a capacidade dos sistemas de IA serão limitadas pela velocidade e
capacidade do sistema no qual o mundo virtual é implementado, de modo que,
mesmo se houver auto-amplificação no mundo, a amplificação será limitada.
Outra é que, se concebermos um mundo virtual simulando algo semelhante a
um mundo físico inteiro, a carga de processamento será enorme. Da mesma
forma, se tivermos que simular algo como a microfísica de um cérebro inteiro,
isso provavelmente sobrecarregará nossos recursos muito mais do que outras
formas de IA.

Uma abordagem alternativa é criar um mundo virtual com uma física


relativamente simples e ter sistemas de IA implementados separadamente: um
tipo de processo simulando a física do mundo e outro tipo de processo simulando
agentes no mundo. Isso corresponde à maneira como os mundos virtuais
geralmente funcionam hoje em dia e permite um processamento de IA mais
eficiente. Ao mesmo tempo, esse modelo torna mais difícil para os sistemas de
IA ter acesso a seus próprios processos e aprimorá-los. Quando esses sistemas
investigam seus corpos e ambientes, eles provavelmente não encontrarão seus
"cérebros" e provavelmente endossarão algum tipo de dualismo cartesiano. 22
Ainda é possível que eles possam construir computadores em seu mundo e
projetar a IA nesses computadores, mas voltaremos aos limites do modelo
anterior. Portanto, para que esse modelo funcione, precisaríamos conceder ao
sistema de IA algum tipo de acesso especial a seus processos cognitivos (uma
maneira de monitorar e reprogramar diretamente seus processos, digamos) que
é bem diferente do tipo de acesso perceptivo e introspectivo que nós temos que
ter nossos próprios processos cognitivos.

Essas considerações sugerem que uma explosão de inteligência dentro de um


mundo virtual pode ser limitada, pelo menos no futuro próximo, quando nosso
poder computacional for limitado. Mas isso pode não ser uma coisa ruim. Em vez
disso, podemos examinar cuidadosamente os primeiros sistemas de IA e AI +
sem nos preocupar com uma explosão de inteligência. Se decidirmos que esses
sistemas têm propriedades indesejáveis, podemos deixá-los em isolamento. 23
Desativar completamente a simulação pode estar fora de questão: se os
sistemas de IA estiverem conscientes, isso seria uma forma de genocídio. Mas
não há nada que nos impeça de diminuir a velocidade do relógio na simulação
e, entretanto, trabalhar em diferentes sistemas em diferentes mundos virtuais.

Se decidirmos que os sistemas AI e AI + têm o tipo certo de propriedades para


que nos sejam úteis e que seja desejável uma maior amplificação, poderemos
quebrar algumas das barreiras: primeiro permitindo comunicação limitada e
depois conectando-as incorporar processos em nosso mundo e dar acesso a seu
próprio código. Dessa forma, podemos pelo menos ter algum controle sobre a
explosão da inteligência. 24
8. Integração em um mundo pós-singularidade

Se criarmos um mundo com sistemas AI + ou AI ++, qual é o nosso lugar nesse


mundo? Parece haver quatro opções: extinção, isolamento, inferioridade ou

integração.

A primeira opção fala por si. Na segunda opção, continuamos a existir sem
interagir com os sistemas AI +, ou pelo menos com uma interação muito limitada.
Talvez os sistemas AI + habitem seu próprio mundo virtual, ou nós habitemos
nosso próprio mundo virtual, ou ambos. Na terceira opção, habitamos um mundo
comum com alguma interação, mas existimos como inferiores.

Do ponto de vista de interesse próprio, a primeira opção é obviamente


indesejável. Penso que a segunda opção também não será atraente para muitos:
seria semelhante a um tipo de isolacionismo cultural e tecnológico que se cega
ao progresso em outras partes do mundo. A terceira opção pode ser impraticável,
uma vez que os sistemas artificiais certamente funcionarão enormemente mais
rápido do que nós, e, de qualquer forma, ameaça diminuir significativamente o
significado de nossas vidas. Talvez seja mais atraente em um modelo em que
os sistemas AI + ou AI ++ tenham nossa felicidade como seu maior valor, mas,
mesmo assim, acho que é preferível um modelo em que somos colegas dos
sistemas AI.

Isso deixa a quarta opção: integração. Nesta opção, nos tornamos sistemas
superinteligentes. Como isso pode acontecer? As opções óbvias são
aprimoramento cerebral, ou emulação cerebral seguida de aprimoramento. Esse
processo de aprimoramento pode ser o caminho pelo qual criamos o AI + em
primeiro lugar, ou pode ser um processo que ocorre depois que criamos

AI + por outros meios, talvez porque os sistemas AI + tenham sido projetados


para valorizar nossa melhoria.

A longo prazo, se quisermos equiparar a velocidade e a capacidade dos sistemas


não biológicos, provavelmente teremos que dispensar inteiramente nosso núcleo
biológico. Isso pode acontecer através de um processo gradual de escanear
nosso cérebro e carregar o resultado em um computador, além de aprimorar os
processos resultantes. De qualquer maneira, é provável que o resultado seja um
sistema não biológico aprimorado, provavelmente um sistema computacional.

Esse processo de migração do cérebro para o computador costuma ser chamado


de upload. O upload pode fazer muitas formas diferentes. Pode envolver a
substituição gradual de partes do cérebro (carregamento gradual), verificação e
ativação instantâneas (carregamento instantâneo) ou verificação seguida de
ativação posterior (carregamento atrasado). Pode envolver a destruição das
partes originais do cérebro (carregamento destrutivo), preservação do cérebro
original (carregamento não destrutivo) ou reconstrução da estrutura cognitiva a
partir de registros (carregamento reconstrutivo).

Só podemos especular sobre qual tecnologia de upload de formulários terá, mas


alguns formulários foram amplamente discutidos. 25 Para concretização,
mencionarei três formas relativamente específicas de carregamento destrutivo,
carregamento gradual e carregamento não destrutivo.

Upload destrutivo: É amplamente aceito que esta pode ser a primeira forma de
upload possível. Uma forma possível envolve o corte em série. Aqui se congela
um cérebro e passa a analisar sua estrutura camada por camada. Em cada
camada, registra-se a distribuição dos neurônios e outros componentes
relevantes, juntamente com o caráter de suas interconexões. Em seguida,
carrega todas essas informações em um modelo de computador que inclui uma
simulação precisa do comportamento e da dinâmica neural. O resultado pode
ser uma emulação do cérebro original.

Upload gradual: Aqui, o método mais amplamente discutido é o da


nanotransferência. Aqui, um ou mais dispositivos de nanotecnologia (talvez
pequenos robôs) são inseridos no cérebro e se ligam a um único neurônio. Cada
dispositivo aprende a simular o comportamento do neurônio associado e também
aprende sobre sua conectividade. Uma vez que simula o comportamento do
neurônio bem o suficiente, ele substitui o neurônio original, talvez deixando
receptores e efetores no lugar e transferindo o processamento relevante para um
computador via radiotransmissores. Em seguida, ele se move para outros
neurônios e repete o procedimento, até que todos os neurônios sejam
substituídos por uma emulação e, talvez, todo o processamento tenha sido
transferido para um computador.

Upload não destrutivo: O método da nanotransferência pode, em princípio, ser


usado de forma não destrutiva. O Santo Graal aqui é algum tipo de método não
invasivo de imagiologia cerebral, análogo à ressonância magnética funcional,
mas com grão suficientemente fino para que a dinâmica neural e sináptica possa
ser registrada. Nenhuma tecnologia está atualmente no horizonte, mas a
tecnologia de imagem é uma área de rápido progresso.

Em todas as suas formas, o upload levanta muitas questões. Do ponto de vista


de interesse próprio, a questão principal é: vou sobreviver ao upload? Essa
questão em si se divide em duas partes, cada uma correspondendo a uma das
questões mais difíceis da filosofia: as questões de consciência e identidade
pessoal. Primeiro, uma versão carregada de mim estará consciente? Segundo,
serei eu?

9. Upload e Consciência

Os seres humanos comuns são conscientes. Ou seja, há algo que é ser nós.
Temos experiências conscientes com um caráter subjetivo: há algo que é ver,
ouvir, sentir e pensar. Essas experiências conscientes estão no coração de
nossas vidas mentais e são uma parte central do que dá sentido e valor às
nossas vidas. Se perdêssemos a capacidade de consciência, então, em um
sentido importante, não existiríamos mais.

Antes de fazer o upload, é crucial saber se o upload resultante será consciente.


Se meu único resíduo é um upload e o upload não tem capacidade de
consciência, então é possível que eu não exista. E se existe um sentido em que
eu existo, esse sentido envolve, na melhor das hipóteses, uma espécie de
existência zumbificada. Sem consciência, essa seria uma vida de significado e
valor muito diminuídos.

Um upload pode ser consciente? A questão aqui é complicada pelo fato de nossa
compreensão da consciência ser tão pobre. Ninguém sabe exatamente por que
ou como os processos cerebrais dão origem à consciência. A neurociência está
gradualmente descobrindo vários correlatos neurais da consciência, mas esse
programa de pesquisa considera amplamente a existência da consciência. Não
há nada que se aproxime de uma teoria ortodoxa de por que existe consciência
em primeiro lugar. Do mesmo modo, não há nada que se aproxime de uma teoria
ortodoxa sobre que tipos de sistemas podem ser conscientes e quais sistemas
não podem ser.

Um problema central é que a consciência parece ser um fato adicional sobre os


sistemas conscientes, pelo menos no sentido de que o conhecimento da
estrutura física de um sistema desse tipo não diz a todos sobre as experiências
conscientes desse sistema. 26 O conhecimento completo da estrutura física
pode dizer tudo sobre o comportamento objetivo de um sistema e seu
funcionamento objetivo, o que é suficiente para saber se o sistema está vivo e
se é inteligente no sentido discutido acima. Mas esse tipo de conhecimento por
si só não parece responder a todas as perguntas sobre a experiência subjetiva
de um sistema.

Uma ilustração famosa aqui é o caso de Frank Jackson de Mary, a neurocientista


em uma sala em preto e branco, que sabe tudo sobre os processos físicos
associados à cor, mas não sabe como é ver o vermelho. Se isso estiver certo, o
conhecimento físico completo deixa em aberto certas questões sobre a
experiência consciente da cor. De maneira mais ampla, uma descrição física
completa de um sistema como um mouse não parece nos dizer como é ser um
mouse e, de fato, se existe algo que seja como um mouse. Além disso, não
temos um "medidor de consciência" que possa resolver o assunto diretamente.
Portanto, dado qualquer sistema, biológico ou artificial, haverá pelo menos uma
pergunta substancial e não óbvia sobre se é consciente e sobre que tipo de
consciência possui.

Ainda assim, se alguém pensa que há outros fatos sobre a consciência ou não,
pode-se pelo menos levantar a questão de que tipo de sistemas são conscientes.
Os poucos filósofos se dividem em vários campos. Os teóricos biológicos da
consciência sustentam que a consciência é essencialmente biológica e que
nenhum sistema não biológico pode ser consciente. Os teóricos funcionalistas
da consciência sustentam que o que importa para a consciência não é a
constituição biológica, mas a estrutura causal e o papel causal, de modo que um
sistema não biológico pode ser consciente enquanto estiver organizado
corretamente. 27

A questão filosófica entre as teorias biológica e funcionalista é crucial para a


questão prática de se não devemos carregar. Se os teóricos biológicos estão
corretos, os uploads não podem ser conscientes, portanto, não podemos
sobreviver conscientemente na forma de upload. Se os teóricos funcionalistas
estiverem corretos, os uploads quase certamente podem ser conscientes, e esse
obstáculo ao upload é removido.

Minha opinião é de que as teorias funcionalistas estão mais próximas da verdade


aqui. É verdade que não temos idéia de como um sistema não biológico, como
um sistema computacional de silício, possa ser consciente. Mas o fato é que
também não temos idéia de como um sistema biológico, como um sistema
neural, poderia ser consciente. A diferença é tão ampla nos dois casos. E não
conhecemos nenhuma diferença de princípio entre sistemas biológicos e não
biológicos que sugira que o primeiro possa ser consciente e o segundo não. Na
ausência de tais diferenças de princípios, acho que a atitude padrão deve ser a
de que os sistemas biológicos e não biológicos podem ser conscientes. 28 Penso
que esta visão pode ser apoiada por mais raciocínios.

Para examinar o assunto com mais detalhes: Suponha que possamos criar um
carregamento perfeito de um cérebro dentro de um computador. Para cada
neurônio no cérebro original, existe um elemento computacional que duplica
perfeitamente seu comportamento de entrada / saída. O mesmo vale para
componentes não neurais e subneurais do cérebro, na medida em que sejam
relevantes. Os elementos computacionais estão conectados aos dispositivos de
entrada e saída (olhos e ouvidos artificiais, membros e corpos), talvez em um
ambiente físico comum ou talvez em um ambiente virtual. Ao receber uma
entrada visual, digamos, o upload passa pelo processamento isomórfico para o
que ocorre no cérebro original. Primeiros análogos artificiais dos olhos e do nervo
óptico são ativados, depois análogos computacionais do núcleo geniculado
lateral e do córtex visual, depois análogos de áreas posteriores do cérebro,
resultando em uma ação (física ou virtual) análoga à produzida pelo cérebro
original.

Nesse caso, podemos dizer que o upload é um isomorfo funcional do cérebro


original. Obviamente, é uma alegação substantiva que isomorfos funcionais são
possíveis. Se alguns elementos do processamento cognitivo funcionarem de
maneira incomparável, por exemplo, para que o comportamento de entrada /
saída de um neurônio não possa ser simulado computacionalmente, um isomorfo
funcional algorítmico será impossível. Mas se os componentes do funcionamento
cognitivo são eles próprios computáveis, então um isomorfo funcional é possível.
Aqui vou assumir que isomorfos funcionais são possíveis para perguntar se eles
estarão conscientes.
Penso que a melhor maneira de considerar se um isomorfo funcional será
consciente é considerar um processo de carregamento gradual, como a
nanotransferência. 29 Aqui, carregamos diferentes componentes do cérebro, um
de cada vez, ao longo do tempo. Isso pode envolver a substituição gradual de
áreas inteiras do cérebro por circuitos computacionais, ou pode envolver o
carregamento de neurônios, um de cada vez. Os componentes podem ser
substituídos por circuitos de silício em sua localização original ou por processos
em um computador conectado por algum tipo de transmissão ao cérebro. Pode
ocorrer durante meses ou anos ou horas.

Se um processo gradual de carregamento for executado corretamente, cada


novo componente emulará perfeitamente o componente que substitui e interagirá
com os componentes biológicos e não biológicos ao seu redor da mesma
maneira que o componente anterior. Portanto, o sistema se comportará
exatamente da mesma maneira que teria sem o upload. De fato, se assumirmos
que o sistema não pode ver ou ouvir o upload, o sistema não precisa perceber
que ocorreu algum upload. Supondo que o sistema original disse que estava
consciente, o mesmo acontecerá com o sistema parcialmente carregado. O
mesmo se aplica ao longo de um processo de carregamento gradual, até
ficarmos com um sistema puramente não biológico.

O que acontece com a consciência durante um processo gradual de


carregamento? Existem três possibilidades. Pode desaparecer subitamente,
com uma transição de um estado consciente totalmente complexo para nenhuma
consciência quando um único componente é substituído. Ele pode desaparecer
gradualmente em mais de uma substituição, com a complexidade da experiência
consciente do sistema reduzindo por etapas intermediárias. Ou pode ficar
presente o tempo todo. 30

O desaparecimento repentino é a opção menos plausível. Dado esse cenário,


podemos mudar para um cenário em que substituímos o componente principal,
substituindo dez ou mais subcomponentes por vez e, em seguida, reiterar a
pergunta. Um novo cenário envolverá um desbotamento gradual em vários
componentes ou um desaparecimento repentino. No primeiro caso, esta opção
é reduzida para a opção de esmaecimento. Neste último caso, podemos reiterar.
No final, teremos desbotamento gradual ou desaparecimento repentino quando
um único componente minúsculo (um neurônio ou um elemento subneural, por
exemplo) for substituído. Isso parece extremamente improvável.

O desbotamento gradual também parece implausível. Nesse caso, haverá


etapas intermediárias nas quais o sistema está consciente, mas sua consciência
está parcialmente desbotada, na medida em que é menos complexa do que o
estado consciente original. Talvez algum elemento da consciência tenha
desaparecido (experiência visual, mas não auditiva, por exemplo) ou talvez
algumas distinções na experiência tenham desaparecido (cores reduzidas de um
espaço de cores tridimensional para preto e branco, por exemplo). Por hipótese,
o sistema estará funcionando e se comportando da mesma maneira que nunca,
e não mostrará sinais de perceber a mudança. É plausível que o sistema não
acredite que algo mudou, apesar de uma enorme diferença em seu estado
consciente. Isso requer um sistema consciente profundamente desconectado de
sua própria experiência consciente. 31

Podemos imaginar que, em um determinado momento, envios parciais se tornem


comuns e que muitas pessoas tiveram seus cérebros parcialmente substituídos
por circuitos computacionais de silício. Na visão súbita do desaparecimento,
haverá estados de carregamento parcial de tal forma que qualquer mudança
adicional fará com que a consciência desapareça, sem diferença de
comportamento ou organização. As pessoas nesses estados podem ter
consciência constantemente entrando e saindo, ou pelo menos podem sofrer
zumbificação total com uma pequena mudança. Na visão enfraquecida, essas
pessoas estarão vagando com uma consciência altamente degradada, embora
estejam funcionando como sempre e jurando que nada mudou. Na prática, será
difícil levar a sério as duas hipóteses.

Portanto, acho que, de longe, a hipótese mais plausível é que a consciência


plena permanecerá presente o tempo todo. Nesta visão, todos os uploads
parciais ainda estarão totalmente conscientes, desde que os novos elementos
sejam duplicatas funcionais dos elementos que substituem. Ao avançar
gradualmente por envios mais completos, podemos inferir que mesmo um
upload completo estará consciente.

No mínimo, parece muito provável que o upload parcial convencerá a maioria


das pessoas de que o upload preserva a consciência. Quando as pessoas são
confrontadas com amigos e familiares que passaram por um carregamento
parcial limitado e se comportam normalmente, poucas pessoas pensam
seriamente que não têm consciência. E extensões graduais ao carregamento
completo convencerão a maioria das pessoas de que esses sistemas também
estão conscientes. É claro que continua a ser pelo menos uma possibilidade
lógica que esse processo gradualmente ou de repente transforme todos em
zumbis. Mas uma vez confrontados com envios parciais, essa hipótese parecerá
semelhante à hipótese de que pessoas de diferentes etnias ou sexos são
zumbis.

Se aceitarmos que a consciência está presente nos isomorfos funcionais,


deveríamos também aceitar que os isomorfos têm estados qualitativos idênticos
de consciência? Esta conclusão não segue imediatamente. Mas acho que uma
extensão desse raciocínio (o argumento dos “qualia da dança” em Chalmers
1996)) sugere fortemente essa conclusão.

Se isso estiver certo, podemos dizer que a consciência é uma invariante


organizacional : ou seja, sistemas com os mesmos padrões de organização
causal têm os mesmos estados de consciência, independentemente de essa
organização ser implementada em neurônios, silício ou em algum outro
substrato. Sabemos que algumas propriedades não são invariantes
organizacionais (sendo molhadas, por exemplo), enquanto outras são (sendo um
computador, por exemplo). Em geral, se uma propriedade não é invariável na
organização, não devemos esperar que ela seja preservada em uma simulação
por computador (uma tempestade simulada não é úmida). Mas se uma
propriedade é invariável na organização, devemos esperar que ela seja
preservada em uma simulação por computador (um computador simulado é um
computador). Portanto, dado que a consciência é uma invariante organizacional,
devemos esperar que uma simulação por computador suficientemente boa de
um sistema consciente seja consciente e tenha os mesmos tipos de estados
conscientes que o sistema original.

Esta é uma boa notícia para quem está pensando em fazer o upload. Mas ainda
resta uma pergunta.

10. Upload e identidade pessoal

Suponha que eu possa carregar meu cérebro em um computador? O resultado


será eu? 32.

Na visão otimista do upload, o upload será a mesma pessoa que o original. Na


visão pessimista do upload, o upload não será a mesma pessoa que o original.
Obviamente, se alguém pensa que os uploads não são conscientes, pode-se
manter a visão pessimista com o argumento de que o upload não é uma pessoa.
Mas mesmo que se pense que os uploads são conscientes e são pessoas, ainda
é possível questionar se o upload é a mesma pessoa que o original.

Diante da perspectiva de carregamento destrutivo (no qual o cérebro original é


destruído), a questão entre as visões otimista e pessimista é literalmente uma
questão de vida ou morte. Na visão otimista, o upload destrutivo é uma forma de
sobrevivência. Na visão pessimista, o carregamento destrutivo é uma forma de
morte. É como se alguém tivesse destruído a pessoa original e criado um
simulacro em seu lugar.

Um apelo à invariância organizacional não ajuda aqui. Podemos supor que eu


tenha um gêmeo idêntico perfeito, cujo cérebro e corpo sejam duplicados
molécula por molécula. O gêmeo será então um isomorfo funcional de mim e terá
os mesmos estados conscientes que eu. Esse gêmeo é qualitativamente idêntico
a mim: tem exatamente as mesmas qualidades que eu. Mas não é
numericamente idêntico para mim: não sou eu. Se você matar o gêmeo, eu vou
sobreviver. Se você me matar (isto é, se destruir este sistema) e preservar o
gêmeo, eu morrerei. A sobrevivência do gêmeo pode ser um consolo para mim,
mas, do ponto de vista de interesse próprio, esse resultado parece muito pior do
que a alternativa.

Uma vez que admitimos que eu e meu irmão gêmeo temos a mesma
organização, mas não somos a mesma pessoa, segue-se que a identidade
pessoal não é uma invariante organizacional. Portanto, não podemos contar com
o fato de que o upload preserva a organização para garantir que o upload
preserva a identidade. Na visão pessimista, o upload destrutivo é, na melhor das
hipóteses, criar uma espécie de gêmeo digital enquanto me destrói.

Essas perguntas sobre upload estão intimamente relacionadas a perguntas


paralelas sobre duplicação física. Suponhamos que um teletransportador crie
uma duplicata molécula por molécula de uma pessoa a partir de uma nova
matéria enquanto destrói ou dissipa a matéria no sistema original. Então, na
visão otimista do teletransporte, é uma forma de sobrevivência, enquanto na
visão pessimista, é uma forma de morte. Teletransporte não é o mesmo que
carregar: ele preserva a organização física, enquanto o carregamento preserva
apenas a organização funcional em um substrato físico diferente. Porém, pelo
menos uma vez que uma concessão concede o upload, os problemas levantados
pelos dois casos estão intimamente relacionados.

Nos dois casos, a escolha entre visões otimistas e pessimistas é uma questão
sobre identidade pessoal: sob quais circunstâncias uma pessoa persiste ao
longo do tempo? Aqui há uma variedade de visualizações possíveis. Uma visão
extrema de um lado (talvez não sustentada por ninguém) é que exatamente a
mesma matéria é necessária para a sobrevivência (de modo que, quando uma
única molécula no cérebro é substituída, a pessoa original deixa de existir). Uma
visão extrema do outro lado é que apenas ter o mesmo tipo de estados
conscientes é suficiente para a sobrevivência (de modo que, da minha
perspectiva, não haja diferença importante entre matar esse corpo e matar o
corpo do meu irmão gêmeo). Na prática, a maioria dos teóricos sustenta que um
certo tipo de continuidade ou conexão ao longo do tempo é necessário para a
sobrevivência. Mas eles diferem em que tipo de continuidade ou conexão é
necessária.

Existem algumas hipóteses naturais sobre que tipo de conexão é necessária. As


teorias biológicas da identidade sustentam que a sobrevivência de uma pessoa
requer a sobrevivência intacta de um cérebro ou organismo biológico. As teorias
psicológicas da identidade sustentam que a sobrevivência de uma pessoa requer
o tipo certo de continuidade psicológica ao longo do tempo (preservação de
memórias, estados mentais causalmente relacionados e assim por diante). As
teorias dos continuadores mais próximos sustentam que a pessoa sobrevive
como a entidade subsequente mais intimamente relacionada, sujeita a várias
restrições. 33

É provável que os teóricos biológicos mantenham a visão pessimista do


teletransporte e, ainda mais, a visão pessimista do carregamento. Os teóricos da
psicologia têm maior probabilidade de manter a visão otimista de ambos, pelo
menos se aceitarem que um upload pode ser consciente. Teóricos contínuo mais
próximo é provável que sustentam que a resposta depende se o envio é
destrutivo, caso em que o carregamento será o continuador mais próximo, ou
não destrutiva (caso em que o sistema biológico será o continuador mais
próximo. 34
Não tenho uma visão firme sobre essas questões de identidade pessoal e as
acho muito intrigantes. Sou mais solidário com uma visão psicológica das
condições sob as quais a sobrevivência obtém do que com uma visão biológica,
mas

Não tenho certeza disso, por razões que irei elaborar mais tarde. Do mesmo
modo, estou realmente insegura quanto a uma visão otimista ou pessimista do
carregamento destrutivo. Estou muito inclinado a ser otimista, mas certamente
não tenho certeza o suficiente para hesitar antes de passar por um upload
destrutivo.

Para ajudar a esclarecer a questão, apresentarei um argumento para a visão


pessimista e um argumento para a visão otimista, ambos paralelos aos
argumentos relacionados que podem ser dados sobre o teletransporte. O
primeiro argumento é baseado no upload não destrutivo, enquanto o segundo
argumento é baseado no upload gradual.

O argumento do upload não destrutivo. Suponha que ontem Dave tenha sido
carregado em um computador. O cérebro e o corpo originais não foram
destruídos, então agora existem dois seres conscientes: BioDave e DigiDave. A
atitude natural da BioDave será que ele é o sistema original e que o DigiDave é,
na melhor das hipóteses, algum tipo de cópia de filial. O DigiDave provavelmente
possui alguns direitos, mas é natural afirmar que ele não possui os direitos da
BioDave. Por exemplo, é natural afirmar que a BioDave tem certos direitos sobre
as posses de Dave, seus amigos e assim por diante, onde o DigiDave não. E é
natural afirmar que isso ocorre porque o BioDave é Dave: ou seja, Dave
sobreviveu como BioDave e não como DigiDave.

Se admitirmos que, em um caso de upload não destrutivo, o DigiDave não é


idêntico a Dave, é natural questionar se o upload destrutivo é diferente. Se Dave
não sobreviveu como DigiDave quando o sistema biológico foi preservado, por
que ele deveria sobreviver como DigiDave quando o sistema biológico é
destruído?

Podemos colocar isso na forma de um argumento para a visão pessimista, da


seguinte maneira:

1. No upload não destrutivo, o DigiDave não é idêntico ao Dave.

2. Se no upload não destrutivo, o DigiDave não é idêntico ao Dave, no upload


destrutivo, o DigiDave não é idêntico ao Dave.

3. No upload destrutivo, o DigiDave não é idêntico ao Dave.

Várias reações ao argumento são possíveis. Um pessimista sobre o upload


aceitará a conclusão. Um otimista sobre o upload presumivelmente negará uma
das instalações. Uma opção é negar a premissa 2, talvez porque alguém aceite
uma teoria do continuador mais próximo: quando o BioDave existe, ele é o
continuador mais próximo, mas quando não o faz, o DigiDave é o continuador
mais próximo. Alguns acharão que isso faz da sobrevivência e do status uma
questão inaceitavelmente extrínseca.

Outra opção é negar a premissa 1, sustentando que mesmo no carregamento


não destrutivo, o DigiDave é idêntico a Dave. Agora, neste caso, é difícil negar
que o BioDave é pelo menos tão bom candidato quanto o DigiDave, portanto,
essa opção ameaça ter a conseqüência de que o DigiDave também é idêntico
ao BioDave. Essa consequência é difícil de engolir, pois o BioDave e o DigiDave
podem ser seres conscientes qualitativamente distintos, com estados físicos e
mentais bastante diferentes nesse ponto.

Uma terceira opção relacionada sustenta que o upload não destrutivo deve ser
considerado como um caso de fissão. Um caso paradigmático de fissão é aquele
em que os hemisférios esquerdo e direito de um cérebro são separados em
diferentes corpos, continuando a funcionar bem por conta própria com muitas
propriedades do original. Nesse caso, é desconfortável dizer que os dois
sistemas resultantes são idênticos ao original, pela mesma razão que acima.
Mas alguém pode sustentar que eles estão no mesmo nível. Por exemplo, Parfit
(1984) sugere que, embora o sistema original não seja idêntico ao sistema do
hemisfério esquerdo ou ao sistema do hemisfério direito, ele mantém uma
relação especial R (que poderíamos chamar de sobrevivência) a ambos, e ele
afirma que essa relação e não a identidade numérica é o que importa. Da mesma
forma, pode-se afirmar que, em um caso de carregamento não destrutivo, Dave
sobrevive como BioDave e DigiDave (mesmo que não seja idêntico a eles), e
sustenta que a sobrevivência é o que importa. Ainda assim, se a sobrevivência
é o que importa, essa opção levanta questões desconfortáveis sobre se o
DigiDave tem os mesmos direitos que o BioDave quando ambos sobrevivem.

O argumento do carregamento gradual. Suponha que 1% do cérebro de Dave


seja substituído por um circuito de silício funcionalmente isomórfico. Em seguida,
suponha que outro 1% seja substituído e outro 1%. Podemos continuar o
processo por 100 meses, após os quais resultará um sistema totalmente
carregado. Podemos supor que o isomorfismo funcional preserva a consciência,
de modo que o sistema tenha o mesmo tipo de estados conscientes por toda
parte.

Deixe Dave ser o sistema depois de n meses. Será que Dave instalará o sistema
após um mês, será Dave? É natural supor que sim. O mesmo vale para Dave 2
e Dave 3 . Agora considere o Dave 100 , o sistema totalmente carregado após
100 meses. Dave 100 será Dave? É pelo menos muito natural sustentar que
será. Poderíamos transformar isso em um argumento da seguinte maneira.

1. Para todos os n < 100, Davc n + | é idêntico ao Dave n .


2. Se para todos os n < 100, Dave B + 1 for idêntico a Dave n , então Dave 100
será idêntico a Dave.

3. Dave 100 é idêntico a Dave.

Em face disto, a premissa 2 é difícil negar: segue-se a partir de uma aplicação


repetida da alegação de que quando um = H e h = c , em seguida, um grupo =
C. Diante disso, também é difícil negar a premissa 1: é difícil ver como a mudança
de 1% de um sistema mudará sua identidade. Além disso, se alguém negar a
premissa 1, podemos repetir o experimento mental com quantidades cada vez
menores do cérebro sendo substituídas, até neurônios isolados e até menores.
Manter a mesma estratégia exigirá que a substituição de um único neurônio
possa efetivamente matar uma pessoa. Essa é uma conclusão difícil de aceitar.
Aceitá-lo aumentaria a possibilidade de que a morte neural cotidiana possa estar
nos matando sem o nosso conhecimento.

Poder-se-ia resistir ao argumento observando que é um argumento sorites ou


escorregadio, e sustentando que a identidade pessoal pode vir em graus ou ter
casos indeterminados. Também se pode deixar de falar em identidade e
sustentar que a sobrevivência pode ocorrer em graus. Por exemplo, pode-se
afirmar que cada Dave n sobrevive em grande parte como Dave B + 1, mas em
menor grau como sistemas posteriores. Nesta visão, a pessoa original será
gradualmente morta pelo processo de substituição. Essa visão exige aceitar a
visão contra-intuitiva de que a sobrevivência pode ocorrer em graus ou ser
indeterminada nesses casos. Talvez o mais importante seja que não esteja claro
por que se deve aceitar que Dave seja morto gradualmente, em vez de existir
por toda parte. Se alguém aceitasse isso, levantaria novamente a questão de
saber se a substituição cotidiana da matéria em nossos cérebros por um período
de anos também está nos matando gradualmente.

Minha opinião é que, neste caso, é muito plausível que o sistema original
sobreviva. Ou, pelo menos, é plausível que, na medida em que sobrevivemos
normalmente por um período de muitos anos, também possamos sobreviver ao
carregamento gradual. No mínimo, como no caso da consciência, parece que se
o carregamento gradual acontecer, a maioria das pessoas ficará convencida de
que é uma forma de sobrevivência. Assumindo que os sistemas são isomórficos,
eles dirão que tudo parece igual e que ainda estão presentes. Não é muito
natural para a maioria das pessoas acreditar que seus amigos e familiares estão
sendo mortos pelo processo. Talvez haja grupos de pessoas que acreditam que
o processo mata repentina ou gradualmente pessoas sem que elas ou outras
pessoas percebam, mas é provável que essa crença pareça levemente ridícula.

Depois de aceitarmos que o upload gradual ao longo de um período de anos


possa preservar a identidade, o próximo passo óbvio é acelerar o processo.
Suponha que o cérebro de Dave seja gradualmente carregado ao longo de um
período de horas, com os neurônios substituídos um de cada vez por circuitos
de silício funcionalmente isomórficos. Dave sobreviverá a esse processo? É
difícil perceber por que um período de horas deve ser diferente em princípio de
um período de anos, por isso é natural afirmar que Dave sobreviverá.

Para fazer o melhor caso para o carregamento gradual, podemos supor que o
sistema esteja ativo o tempo todo, para que haja consciência durante todo o
processo. Então podemos argumentar: (i) a consciência será contínua de
momento a momento (a substituição de um único neurônio ou de um pequeno
grupo não interromperá a continuidade da consciência), (ii) se a consciência for
contínua de momento a momento, será contínua por todo o processo, (iii) se a
consciência é contínua ao longo do processo, haverá um único fluxo de
consciência ao longo; (iv) se houver um único fluxo de consciência ao longo, a
pessoa original sobrevive por todo o processo. Talvez se possa negar uma das
premissas, mas negar qualquer uma delas é desconfortável. Minha opinião é que
a continuidade da consciência (especialmente quando acompanhada de outras
formas de continuidade psicológica) é uma base extremamente forte para afirmar
a continuação de uma pessoa.

Podemos então imaginar a aceleração do processo de horas para minutos. As


questões aqui não parecem diferentes em princípio. O On pode acelerar até
segundos. Em um certo ponto, é possível começar a substituir pedaços do
cérebro grandes o suficiente de momento a momento, para que a causa da
continuidade da consciência entre momentos não seja tão segura quanto acima.
Ainda assim, uma vez que concedemos que o envio por um período de minutos
preserva a identidade, é pelo menos difícil perceber por que o envio por um
período de segundos não deve.

À medida que carregamos cada vez mais rápido, o ponto limite é o carregamento
destrutivo instantâneo, onde todo o cérebro é substituído de uma só vez. Talvez
esse ponto limite seja diferente de tudo que veio antes dele, mas isso é pelo
menos óbvio. Podemos formular isso como um argumento para a visão otimista
do carregamento destrutivo. Aqui deve ser entendido que tanto o carregamento
gradual como o carregamento instantâneo são destrutivos, pois destroem o
cérebro original.

1. Dave sobrevive como Dave 100 em upload gradual.

2. Se Dave sobreviver como Dave 100 no upload gradual, Dave sobreviverá


como DigiDave no upload instantâneo.

3. Dave sobrevive como DigiDave no upload instantâneo.

Na verdade, argumentei pela primeira premissa acima, e há pelo menos um caso


prima facie para a segunda premissa, na medida em que é difícil perceber por
que há uma diferença de princípio entre fazer upload durante um período de
segundos e fazê-lo instantaneamente. . Como antes, esse argumento é paralelo
ao argumento correspondente sobre o teletransporte (a substituição gradual da
matéria preserva a identidade, portanto, a substituição instantânea da matéria
também preserva a identidade), e as considerações disponíveis são
semelhantes.

Um oponente poderia resistir a esse argumento negando a premissa 1 ao longo


das linhas sugeridas anteriormente, ou talvez melhor, negando a premissa 2. Um
pessimista sobre upload instantâneo, como um pessimista sobre teletransporte,
pode sustentar que os sistemas intermediários desempenham um papel vital na
transmissão de informações. identidade de um sistema para outro. Esta é uma
visão comum do navio de Teseu, no qual todas as pranchas de um navio são
gradualmente substituídas ao longo dos anos. É natural afirmar que o resultado
é o mesmo navio que as novas pranchas. É plausível que o mesmo se aplique,
mesmo que a substituição gradual seja feita em dias ou minutos. Por outro lado,
a criação de uma duplicata a partir do zero, sem casos intermediários, resulta
em um novo navio. Ainda assim, é natural afirmar que a questão sobre o navio
é, de certo modo, uma questão verbal ou uma questão de estipulação, enquanto
a questão sobre a sobrevivência pessoal é mais profunda do que isso. Portanto,
não está claro quão bem se pode generalizar do estojo do navio para a forma
das pessoas.

Onde estão as coisas. Estamos em uma posição em que há pelo menos


argumentos fortemente sugestivos para as visões otimista e pessimista do
carregamento destrutivo. Os argumentos têm conclusões diametralmente
opostas, portanto, eles não podem ser sólidos. Minha opinião é de que a melhor
resposta do otimista ao argumento de carregamento não destrutivo é a resposta
de fissão, e a melhor resposta do pessimista ao argumento de carregamento
gradual é a resposta de caso intermediário. Meus instintos favorecem o otimismo
aqui, mas, como antes, não posso ter certeza de qual visão está correta.

Ainda assim, estou confiante de que a forma mais segura de upload é o upload
gradual, e estou razoavelmente confiante de que o upload gradual é uma forma
de sobrevivência. Portanto, se em algum momento no futuro eu me deparar com
a escolha entre carregar e continuar em uma incorporação biológica cada vez
mais lenta, desde que eu tenha a opção de carregamento gradual, ficarei feliz
em fazê-lo.

Infelizmente, posso não ter essa opção. Pode ser que a tecnologia de upload
gradual não esteja disponível durante a minha vida. Pode até ser que nenhuma
tecnologia de upload adequada esteja disponível durante a minha vida. Isso
levanta a questão de saber se ainda pode haver um lugar para mim, ou para
qualquer ser humano atualmente existente, em um mundo pós-singularidade.

Upload após preservação do cérebro. Uma possibilidade é que possamos


preservar nossos cérebros para upload posterior. A tecnologia cryonic oferece a
possibilidade de preservar nosso cérebro em um estado de baixa temperatura
logo após a morte, até o momento em que a tecnologia esteja disponível para
reativar o cérebro ou talvez fazer o upload das informações nele contidas. É claro
que muita informação pode ser perdida na morte e, no momento, não sabemos
se a criônica preserva a informação suficiente para reativar ou reconstruir
qualquer coisa semelhante a um isomorfo funcional do original. Mas, pelo menos,
podemos esperar que, após uma explosão de inteligência, uma tecnologia
extraordinária seja possível aqui.

Se houver informações suficientes para reativação ou reconstrução, o sistema


resultante será eu? No caso de reativação, é natural sustentar que o sistema
reativado será semelhante a uma pessoa que acorda após um longo coma, para
que a pessoa original sobreviva aqui. Pode-se então gradualmente carregar o
cérebro e integrar o resultado em um mundo pós-singularidade. Como
alternativa, pode-se criar um sistema carregado do cérebro sem jamais reativá-
lo. Se alguém considera isso como sobrevivência dependerá da atitude de
alguém com relação ao carregamento destrutivo e não destrutivo comum. Se
alguém é otimista sobre essas formas de upload, também pode ser otimista
sobre o upload de um cérebro preservado.

Outro resultado possível é que primeiro haverá uma série de uploads de um


cérebro preservado, usando cada vez melhor a tecnologia de varredura e,
eventualmente, a reativação do cérebro. Aqui, um otimista sobre o upload pode
ver isso como um caso de fissão, enquanto um pessimista pode sustentar que
apenas o sistema reativado é idêntico ao original.

Nesses casos, nossa visão das questões filosóficas sobre o upload afeta nossas
decisões não apenas no futuro distante, mas no curto prazo. Mesmo no curto
prazo, qualquer pessoa com dinheiro suficiente tem a opção de preservar
crionicamente o cérebro e deixar instruções sobre como lidar com o cérebro à
medida que a tecnologia se desenvolve. Nossas visões filosóficas sobre o status
do upload podem muito bem fazer a diferença nas instruções que devemos
deixar.

É claro que a maioria das pessoas não preserva seus cérebros, e mesmo
aqueles que optam por fazê-lo podem morrer de uma maneira que impossibilita
a preservação. Existem outras rotas para a sobrevivência em um mundo pós-
singularidade?

Upload reconstrutivo. A alternativa final aqui é a reconstrução do sistema original


a partir de registros e, principalmente, o upload reconstrutivo, no qual um upload
do sistema original é reconstruído a partir de registros. Aqui, os registros podem
incluir exames cerebrais e outros dados médicos; qualquer material genético
disponível; registros de áudio e vídeo da pessoa original; seus escritos; e o
testemunho de outros sobre eles. Esses registros podem parecer limitados, mas
não está fora de questão que uma superinteligência possa percorrer um longo
caminho com eles. Dadas as restrições na estrutura de um sistema humano,
mesmo informações limitadas podem possibilitar uma boa quantidade de
engenharia reversa. E informações detalhadas, como podem estar disponíveis
em extensas gravações de vídeo e em imagens detalhadas do cérebro, podem,
em princípio, permitir que uma superinteligência reconstrua algo próximo a um
isomorfo funcional do sistema original.
Surge então a questão: o upload reconstrutivo é uma forma de sobrevivência?
Se reconstruirmos um isomorfo funcional de Einstein a partir de registros, será
Einstein? Aqui, a visão pessimista diz que isso é, na melhor das hipóteses, uma
cópia de Einstein sobrevivente. A visão otimista diz que é semelhante a ter
Einstein acordado de um longo coma.

O upload reconstrutivo das varreduras do cérebro é muito semelhante ao upload


comum (não-gradual) das varreduras do cérebro, com a principal diferença
sendo o atraso no tempo e talvez a existência continuada nesse meio tempo da
pessoa original. Pode-se vê-lo como uma forma de carregamento destrutivo ou
não destrutivo atrasado. Se considerarmos o carregamento não destrutivo como
sobrevivência (talvez através da fissão), naturalmente consideraremos o
carregamento reconstrutivo da mesma maneira. Se considerarmos o
carregamento destrutivo, mas não não destrutivo, como sobrevivência, porque
adotamos uma teoria continuada mais próxima, também podemos considerar o
carregamento reconstrutivo como sobrevivência (pelo menos se o sistema
biológico original se for). Se não se considera uma sobrevivência, provavelmente
tomará a mesma atitude em relação ao carregamento reconstrutivo. As mesmas
opções se aplicam plausivelmente ao upload reconstrutivo de outras fontes de
informação.

Uma preocupação com o upload reconstrutivo é executada da seguinte maneira.


Suponha que eu tenho um gêmeo. Então o gêmeo não sou eu. Mas uma versão
de upload reconstruída de mim também será efetivamente um upload
reconstruído do meu irmão gêmeo. Mas então é difícil ver como o sistema pode
realmente ser eu. Em face disso, é mais parecido com um novo gêmeo
acordando. Um proponente do upload reconstrutivo pode contar dizendo que o
fato de o upload ter sido baseado nas varreduras do meu cérebro e não nos
meus gêmeos é importante aqui. Mesmo que essas verificações sejam
exatamente iguais, a conexão causal resultante é entre o upload e eu e não o
meu gêmeo. Ainda assim, se tivermos duas varreduras idênticas, não é fácil ver
como a escolha entre usar uma e outra resultará em pessoas totalmente
diferentes.

A visão adicional dos fatos. 35 Nesse ponto, é útil recuar e examinar uma
questão filosófica mais ampla sobre sobrevivência, que se assemelha a uma
pergunta anterior sobre consciência. Esta é a questão de saber se a identidade
pessoal envolve outro fato. Ou seja: dado o conhecimento completo do estado
físico de vários sistemas em vários momentos (e das conexões causais entre
eles) e até dos estados mentais desses sistemas naqueles momentos, isso
automaticamente nos permite conhecer todos os fatos sobre a sobrevivência
com o tempo, ou há perguntas em aberto aqui?

Há pelo menos uma intuição de que o conhecimento completo dos fatos físicos
e mentais em um caso de carregamento destrutivo deixa uma questão em
aberto: vou sobreviver ao carregamento ou não? Dados os fatos físicos e
mentais de um caso envolvendo Dave e DigiDave, por exemplo, esses fatos
parecem consistentes com a hipótese de que Dave sobrevive como DigiDave e
consistentes com a hipótese de que ele não sobrevive. E há uma intuição de que
existem fatos sobre quais hipóteses estão corretas que queremos muito saber.
Nessa perspectiva, o argumento entre as visões otimista e pessimista, e entre
as visões psicológica e biológica de maneira mais geral, é uma tentativa de
determinar esses fatos adicionais.

Poderíamos dizer que a visão de fato adicional é a visão de que existem fatos
sobre a sobrevivência que são deixados em aberto pelo conhecimento de fatos
físicos e mentais. 36 Como definido aqui, a visão de fato adicional é uma
afirmação sobre conhecimento, e não uma afirmação sobre a realidade (na
verdade, sustenta que existem fatos epistemológicos adicionais), portanto, é
compatível em princípio com o materialismo. Uma visão mais forte sustenta que
existem outros fatos ontológicos sobre a sobrevivência, envolvendo outros
elementos não-físicos da realidade, como um eu não-físico. Vou enfocar a visão
epistemológica mais fraca aqui, no entanto.

Uma visão de fato adicional da sobrevivência é particularmente natural, embora


não obrigatória, se alguém sustentar que já existem fatos adicionais sobre a
consciência. Isso é especialmente verdade nas versões ontológicas de ambas
as visões: se existem propriedades primitivas da consciência, é natural (embora
não obrigatório) que existam entidades primitivas que possuem essas
propriedades. Então, fatos sobre sobrevivência podem ser considerados fatos
sobre a persistência dessas entidades primitivas. Mesmo na visão
epistemológica, pode-se afirmar que a lacuna epistemológica entre processos
físicos e consciência acompanha uma lacuna epistêmica entre processos físicos
e o eu. Nesse caso, também pode haver uma lacuna epistêmica nos fatos sobre
a sobrevivência do eu.

Em princípio, uma visão de fato adicional é compatível com visões psicológicas,


biológicas e mais próximas da sobrevivência. 37 Pode-se afirmar que o
conhecimento completo dos fatos físicos e mentais deixa uma questão em aberto
sobre a sobrevivência e que, no entanto, a sobrevivência realmente acompanha
continuidade psicológica ou biológica. Obviamente, se alguém conhece a teoria
correta da sobrevivência, combiná-la com o pleno conhecimento de fatos físicos
e mentais pode responder a todas as questões em aberto sobre a sobrevivência.
Mas um defensor da visão de fato adicional sustentará que o conhecimento
completo dos fatos físicos e mentais por si só deixa essas questões em aberto e
também deixa em aberto a questão de qual teoria é verdadeira.

Minha opinião é que uma visão de fato adicional pode ser verdadeira. Não sei se
isso é verdade, mas não acho que isso seja descartado por qualquer coisa que
sabemos. 38 Se uma visão de fato adicional estiver correta, não sei se uma visão
psicológica, biológica ou alguma outra visão das condições de sobrevivência
está correta. Como resultado, não sei se tenho uma visão otimista ou pessimista
do carregamento destrutivo e reconstrutivo.

Ainda assim, acho que em uma visão mais aprofundada, é muito provável que a
continuidade da consciência seja suficiente para a sobrevivência. 39 Isto é
especialmente claro em versões ontológicas da visão, em que existam
propriedades primitivas de consciência e entidades primitivas que os têm. Então
a continuidade da consciência sugere uma forte forma de continuidade entre as
entidades através dos tempos. Mas também é plausível em uma visão
epistêmica. Na verdade, acho plausível que, uma vez que se especifique que há
um fluxo contínuo de consciência ao longo do tempo, não haja mais uma questão
realmente aberta sobre se alguém sobrevive.

E os casos difíceis, como upload gradual não destrutivo ou casos cerebrais


divididos, nos quais um fluxo de consciência se divide em dois? Em uma visão
mais aprofundada, acho que esse caso deve ser melhor tratado como um caso
de fissão, análogo a um caso em que uma partícula ou um verme se divide em
dois. Nesse caso, acho que se pode dizer que uma pessoa sobrevive como
ambas as futuras pessoas.

Geral: acho que, se uma visão mais detalhada estiver correta, o status do
carregamento destrutivo e reconstrutivo não é claro, mas há boas razões para
adotar a visão otimista do carregamento gradual.

A visão deflacionária. No entanto, está longe de ser óbvio que a visão de fato
adicional esteja correta. Isso ocorre porque está longe de ser óbvio que
realmente existem fatos sobre a sobrevivência do tipo que as reivindicações da
visão de fato adicional são incertas. Uma visão deflacionária da sobrevivência
sustenta que nossas tentativas de resolver questões em aberto sobre
sobrevivência pressupõem tacitamente fatos sobre a sobrevivência que não
existem. Pode-se dizer que estamos inclinados a acreditar na sobrevivência
edênica: o tipo de sobrevivência primitiva de um eu que se poderia supor que
tínhamos no Jardim do Éden. Agora, após a queda do Éden, e não há
sobrevivência edênica, mas ainda estamos inclinados a pensar como se
houvesse. 40.

Se houvesse sobrevivência edênica, as perguntas sobre a sobrevivência ainda


seriam questões abertas, mesmo depois que alguém explicasse todos os fatos
físicos e mentais sobre as pessoas às vezes. Mas, do ponto de vista
deflacionário, uma vez que aceitamos que não há sobrevivência edênica,
devemos aceitar que não existem mais questões em aberto. Existem certos fatos
sobre a continuidade biológica, psicológica e causal, e isso é tudo o que há para
dizer.

Uma visão deflacionária é naturalmente combinada com uma espécie de


pluralismo sobre a sobrevivência. Mantemos certas relações biológicas com
nossos sucessores, certas relações causais e certas relações psicológicas, mas
nenhuma delas é privilegiada como "a" relação de sobrevivência. Todas essas
relações nos dão algum motivo para se preocupar com nossos sucessores, mas
nenhuma delas tem peso absoluto. 41

Pode-se dar uma guinada pessimista na visão deflacionária, dizendo que nunca
sobrevivemos de momento a momento, ou de dia para dia. 42 Pelo menos,
nunca sobrevivemos da maneira que pensamos que fazemos naturalmente. Mas
alguém poderia dar uma guinada otimista ao dizer que essa é a forma de vida
da nossa comunidade e não é tão ruim assim. Poder-se-ia pensar que era
necessário que a sobrevivência edênica valesse a pena ser vivida, mas a vida
ainda tem valor sem ela. Ainda sobrevivemos de várias maneiras não-edênicas,
e isso é suficiente para o futuro importar.

A visão deflacionária combina elementos da visão otimista e pessimista do


upload. Como na visão otimista, afirma-se que diz que o upload é como acordar.
Como na visão pessimista, o upload não envolve a sobrevivência edênica. Mas,
sob esse ponto de vista, acordar também não envolve a sobrevivência edênica,
e carregar não é muito pior do que acordar. Como ao acordar, há conexão causal
e semelhança psicológica. Ao contrário de acordar, há desconexão biológica.
Talvez a conexão biológica tenha algum valor, portanto, acordar comum pode
ser mais valioso do que carregar. Mas a diferença entre conexão biológica e sua
ausência não deve ser confundida com a diferença entre a sobrevivência edênica
e sua ausência: a diferença de valor é, na pior das hipóteses, pequena.

Se uma visão deflacionária estiver correta, acho que as questões sobre


sobrevivência se resumem a questões sobre o valor de certos tipos de futuros:
devemos nos preocupar com eles da maneira como nos preocupamos com os
futuros nos quais sobrevivemos? Não sei se essas perguntas têm respostas
objetivas. Mas estou inclinado a pensar que, na medida em que haja condições
que atinjam o que nos interessa, a continuidade da consciência é suficiente para
grande parte do valor certo. A continuidade causal e psicológica também pode
ser suficiente para uma quantidade razoável do tipo certo de valor. Nesse caso,
o carregamento destrutivo e reconstrutivo pode ser razoavelmente próximo da
sobrevivência comum.

E os casos difíceis, como upload gradual não destrutivo ou casos cerebrais


divididos, nos quais um fluxo de consciência se divide em dois? Numa visão
deflacionária, a resposta dependerá de como alguém valoriza ou deve valorizar
esses futuros. Pelo menos, dado o nosso atual esquema de valores, há um caso
em que a continuidade física e biológica conta com algum valor extra; nesse
caso, o BioDave pode ter mais direito de ser contado como Dave do que o
DigiDave. Mas não está fora de questão que esse esquema de valores deva ser
revisado ou que seja revisado no futuro, para que BioDave e DigiDave sejam
contados igualmente como Dave.

De qualquer forma, penso que, numa visão deflacionária, o carregamento


gradual é quase tão bom quanto a sobrevivência não-edênica comum. E o
carregamento destrutivo, não destrutivo e reconstrutivo é razoavelmente próximo
da sobrevivência comum. A sobrevivência comum não é tão ruim, então
podemos ver isso como uma conclusão otimista.

Resultado. Falando por mim, não tenho certeza se uma visão de fato adicional
ou uma visão deflacionária estão corretas. Se a visão de fato adicional estiver
correta, o status do carregamento destrutivo e reconstrutivo não é claro, mas
acho que o carregamento gradual é suficiente para sobreviver. Se a visão
deflacionária estiver correta, o carregamento gradual é quase tão bom quanto a
sobrevivência comum, enquanto o carregamento destrutivo e reconstrutivo é
razoavelmente próximo de ser bom. De qualquer forma, acho que o upload
gradual é certamente o método mais seguro de upload.

Várias outras perguntas sobre o upload permanecem. É claro que existem


inúmeras questões sociais, legais e morais que ainda não comecei a abordar.
Aqui vou abordar apenas mais duas perguntas.

Uma pergunta diz respeito ao aprimoramento cognitivo. Suponha que, antes ou


depois do upload, nossos sistemas cognitivos sejam aprimorados a ponto de
usar uma arquitetura cognitiva totalmente diferente. Nós sobreviveríamos a esse
processo? Mais uma vez, parece-me que as respostas são mais claras no caso
em que a melhoria é gradual. Se meu sistema cognitivo é revisado um
componente de cada vez, e se em todos os estágios houver uma continuidade
psicológica razoável com o estágio anterior, acho que é razoável sustentar que
a pessoa original sobrevive.

Outra questão é prática. Se o carregamento reconstrutivo eventualmente for


possível, como garantir que isso aconteça? Houve bilhões de humanos na
história do planeta. Não está claro que nossos sucessores desejem reconstruir
todas as pessoas que já viveram, ou mesmo todas as pessoas com registros.
Então, se alguém está interessado em imortalidade, como maximizar as chances
de reconstrução? Pode-se tentar manter uma conta bancária com juros
compostos para pagar por isso, mas é difícil saber se nosso sistema financeiro
será relevante no futuro, especialmente após uma explosão de inteligência.

Minha própria estratégia é escrever sobre a singularidade e sobre o upload.


Talvez isso encoraje nossos sucessores a me reconstruirem, apenas para provar
que estou errado.

11. Conclusões

Haverá uma singularidade? Penso que certamente não está fora de questão e
que os principais obstáculos provavelmente serão obstáculos de motivação e
não de capacidade.

Como devemos negociar a singularidade? Com muito cuidado, incorporando


valores apropriados em máquinas e construindo os primeiros sistemas de IA e
AI + em mundos virtuais.

Como podemos nos integrar a um mundo pós-singularidade? Carregamentos


graduais, seguidos de aprimoramentos, se ainda estamos por lá, e
carregamentos reconstrutivos, seguidos de aprimoramentos, se ainda não
estivermos.
Notas

* Este artigo foi publicado no Journal of Consciousness Studies 17: 7-65, 2010.
Interessei-me pela primeira vez nesse grupo de idéias quando estudante, antes
de ouvir pela primeira vez explicitamente a "singularidade" em 1997. Fui
estimulado a pensar mais sobre essas questões com um convite para falar na
Cúpula da Singularidade de 2009 em Nova York. Agradeço a muitas pessoas
nesse evento por discussões, bem como a muitas outras conversas e discussões
em West Point, CUNY, NYU, Delhi, ANU, Tucson, Oxford e UNSW.
Agradecemos também a Doug Hofstadter, Marcus Hutter, Ole Koksvik, Drew
McDermott, Carl Shulman e Michael Vassar pelos comentários neste artigo.

1. Cenários desse tipo têm antecedentes na ficção científica, talvez mais


notavelmente no conto de John Campbell, de 1932, "The Last Evolution".

2. Solomonoff também discute os efeitos do que poderíamos chamar de


"explosão populacional": uma população em rápido crescimento de
pesquisadores de IA artificial.

3. Como observa Vinge (1993), Stanislaw Ulam (1958) descreve uma conversa
com John von Neumann, na qual o termo é usado de maneira relacionada: “Uma
conversa centrou-se no progresso sempre acelerado da tecnologia e nas
mudanças no modo humano. a vida, que parece aproximar-se de alguma
singularidade essencial na história da raça, além da qual os assuntos humanos,
como os conhecemos, não poderiam continuar ”.

4. Uma taxonomia útil de usos da “singularidade” é apresentada por Yudkowsky


(2007). Ele distingue uma escola de "mudança acelerada", associada a Kurzweil,
uma escola de "horizonte de eventos", associada a Vinge, e uma escola de
"explosão de inteligência" associada a Good. Smart (1999-2008) fornece um
histórico detalhado das idéias associadas, com foco especial na aceleração de
mudanças.

5. Com algumas exceções: as discussões dos acadêmicos incluem Bostrom


(1998; 2003), Hanson (2008), Hofstadter (2005) e Moravec (1988; 1998).
Hofstadter organizou simpósios sobre a perspectiva de máquinas
superinteligentes na Universidade de Indiana em 1999 e na Universidade de
Stanford em 2000 e, mais recentemente, o Future of Humanity Institute da
Bostrom na Universidade de Oxford organizou uma série de atividades
relevantes.

6. Os principais temas deste artigo foram discutidos muitas vezes antes por
outros, especialmente nos círculos não acadêmicos mencionados anteriormente.
Meus principais objetivos ao escrever o artigo são submeter alguns desses
temas (especialmente a alegação de que haverá uma explosão de inteligência e
reivindicações sobre o upload) a uma análise filosófica, com o objetivo de
explorar e talvez fortalecer os fundamentos sobre os quais essas idéias se
baseiam. , e também para ajudar a trazer esses temas à atenção de filósofos e
cientistas.

7. Seguindo a prática comum, uso 'AT e parentes como um termo geral (“Existe
uma IA”), um adjetivo (“Existe um sistema de IA”) e como termo em massa
(“existe uma IA”).

8. O artigo baseado na Web de Yudkowsky agora está marcado como "obsoleto"


e, posteriormente, ele não endossa a estimativa ou o argumento das tendências
de hardware. Veja Hofstadter (2005) para ceticismo sobre o papel da
extrapolação de hardware aqui e, de maneira mais geral, para ceticismo sobre
estimativas de período de tempo da ordem de décadas.

9. Entendo que, quando alguém tem a capacidade de fazer algo, se estiver


suficientemente motivado para fazê-lo e em circunstâncias razoavelmente
favoráveis, o fará. Assim, os derrotadores podem ser divididos em derrotadores
motivacionais, envolvendo motivação insuficiente, e derrotadores situacionais,
envolvendo circunstâncias desfavoráveis (como um desastre). Há uma linha
embaçada entre circunstâncias desfavoráveis que impedem a manifestação de
uma capacidade e aquelas que implicam que a capacidade nunca esteve
presente em primeiro lugar - por exemplo, as limitações de recursos podem ser
classificadas em ambos os lados desta linha - mas isso não importa muito para
nossos propósitos.

10. Para um argumento geral sobre forte inteligência artificial e uma resposta a
muitas objeções diferentes, consulte Chalmers (1996, capítulo 9). Para uma
resposta a Penrose e Lucas, veja Chalmers (1995). Para uma discussão
aprofundada sobre as perspectivas atuais de emulação do cérebro inteiro,
consulte Sandberg e Bostrom (2008).

11. As “máquinas Godel” de Schmidhuber (2003) fornecem um exemplo teórico


de sistemas de auto-aperfeiçoamento em um nível abaixo da IA, embora ainda
não tenham sido implementados e existam grandes obstáculos práticos para
usá-los como um caminho para a IA. o processo de evolução pode contar como
um exemplo indireto: sistemas menos inteligentes têm a capacidade de criar
sistemas mais inteligentes por reprodução, variação e seleção natural. Essa
versão chegaria à mesma coisa que um caminho evolutivo para a IA e a AI ++.
Para os propósitos atuais, estou interpretando a "criação" para envolver um
mecanismo mais direto do que isso.

12. Flynn 2007 oferece uma excelente visão geral do debate sobre inteligência
geral e as razões para acreditar em tal medida. Shalizi 2007 argumenta que g é
um artefato estatístico. O Legg 2008 tem uma boa discussão sobre essas
questões no contexto da superinteligência de máquinas.

13. Quando discuti essas questões com cadetes e funcionários da Academia


Militar de West Point, surgiu a questão de saber se as forças armadas dos EUA
ou outros ramos do governo poderiam tentar impedir a criação de IA ou AI +
devido aos riscos de uma inteligência. explosão. O consenso era de que não,
pois tal prevenção aumentaria apenas as chances de a IA ou a AI + serem
criadas pela primeira vez por uma potência estrangeira. Pode-se até uma corrida
armamentista da IA em algum momento, uma vez que as conseqüências
potenciais de uma explosão de inteligência sejam registradas.

De acordo com esse raciocínio, embora o AI + tivesse riscos do ponto de vista


do governo dos EUA, os riscos do AI + chinês (por exemplo) seriam muito
maiores.

14. Veja Kurzweil (2005), Hofstadter (2005) e Joy (2000) para discussões de
inúmeras outras maneiras pelas quais uma singularidade pode ser uma coisa
boa (Kurzweil) e uma coisa ruim (Hofstadter, Joy).

15. Um caso especialmente ruim é uma “bomba de singularidade”: uma IA +


projetada para valorizar principalmente a destruição do planeta (ou de uma
determinada população) e, secundariamente, a criação de sistemas cada vez
mais inteligentes com os mesmos valores até o primeiro objetivo ser alcançado.
alcançado.

16. Para um tratamento muito mais extenso da questão dos valores restritivos
nos sistemas de IA, consulte o documento na Web em formato de livro “Criando
IA Amigável” pelo Singularity Institute. A maioria dos problemas nesta seção é
discutida com muito mais profundidade. Ver também Floridi e Sanders (2004),
Omohundro (2007; 2008) e Wallach e Allen (2009).

17. Ver Hanson (1994) para uma discussão sobre essas questões.

18. Para uma perspectiva contrária, consulte Hanson (2009), que argumenta que
é mais importante que os sistemas de IA cumpram as leis do que compartilham
nossos valores. Uma preocupação óbvia em resposta é que, se um sistema de
IA for muito mais poderoso do que nós e tiver valores suficientemente diferentes
dos nossos, ele terá pouco incentivo para obedecer nossas leis, e suas próprias
leis podem não nos proteger melhor do que nossas leis proteger formigas.

19. Certamente, há arquiteturas cognitivas humeanas nas quais os valores


(objetivos e desejos) são independentes da razão teórica (raciocínio sobre o que
é o caso) e da razão instrumental (raciocínio sobre a melhor forma de atingir
determinados objetivos e desejos). Discussões de valor em IA tendem a assumir
essa arquitetura. Mas, embora essas arquiteturas sejam certamente possíveis
(pelo menos em sistemas limitados), não é óbvio que todas as IAs terão essa
arquitetura ou que nós temos essa arquitetura. Também não é óbvio que essa
arquitetura forneça uma rota eficaz para a IA.
20. Veja Yudkowsky (2002) para alguns experimentos em "Al-boxing", nos quais
os seres humanos desempenham o papel da IA e tentam convencer outros
humanos a deixá-los sair.

21. Podemos pensar nisso como um movimento de "design não inteligente" no


mundo simulado: encontre evidências de design que revelem as fraquezas dos
criadores. Espero que esse movimento tenha alguns análogos na teologia do
mundo real. O romance de Robert Sawyer, Calculating God, descreve uma
variante fictícia desse cenário.

22. Veja meu artigo "Como o dualismo cartesiano poderia ter sido verdadeiro".

23. Qual será o ponto de inflexão para tomar essas decisões? Talvez quando os
sistemas começarem a projetar sistemas tão inteligentes quanto eles. Se
levarmos a sério a possibilidade de sermos nós mesmos nessa simulação (como
eu faço em Chalmers 2005), consequentemente, podemos levar a sério a
possibilidade de que nosso próprio ponto de inflexão esteja em um futuro não
muito distante. Portanto, não está fora de questão que possamos nos integrar
aos nossos simuladores antes de nos integrarmos com nossos simulados,
embora talvez seja mais provável que estejamos em um dos bilhões de
simulações que são executadas sem supervisão em segundo plano.

24. Podemos resumir as seções anteriores com algumas máximas para negociar
a singularidade: 1. AI baseada em humanos primeiro (se possível). 2. Valores de
IA amigáveis ao ser humano (se não). 3. AIs iniciais valorizam negativamente a
criação de sucessores.

4. Vá devagar. 5. Crie IA em mundos virtuais. 6. Sem pílulas vermelhas . 7.


Minimize a entrada. Veja também as máximas mais específicas na seção
“Creating AI amigável ” do Singularity Institute , que exigem um tipo específico
de arquitetura baseada em objetivos que pode ou não ser a maneira como
alcançamos a IA pela primeira vez .

25. Veja Sandberg e Bostrom 2008 e Strout 2006 para obter uma discussão
detalhada sobre a potencial tecnologia de upload. Veja Egan 1994 e Sawyer
2005 para explorações ficcionais de upload.

26. A alegação de fato adicional aqui é simplesmente que fatos sobre


consciência são fatos epistemologicamente adicionais, de modo que o
conhecimento desses fatos não é resolvido pelo raciocínio apenas a partir do
conhecimento microfísico. Essa afirmação é compatível com o materialismo
sobre a consciência. Uma afirmação mais forte é que fatos sobre consciência
são fatos ontologicamente adicionais, envolvendo alguns elementos distintos da
natureza - por exemplo, propriedades fundamentais além das propriedades
físicas fundamentais . No contexto de Chalmers (2003), um materialista do tipo
A (por exemplo, Daniel Dennett) nega que a consciência envolva fatos
epistemologicamente adicionais , um materialista do tipo B (por exemplo, Ned
Block) sustenta que a consciência envolve fatos epistemologicamente, mas não
ontológicos, enquanto um dualista da propriedade (por exemplo, eu) sustenta
que a consciência envolve fatos ontologicamente adicionais. É interessante notar
que a maioria dos materialistas (pelo menos em filosofia) são de tipo
materialistas B e mantenha que existem epistemologicamente outros factos.

27. Aqui eu estou interpretando biológicas e teorias funcionalistas não como


teorias de que é a consciência, mas apenas como teorias dos correlatos físicos
de consciência: isto é, como as teorias sobre as condições físicas em que a
consciência existe no mundo real. Mesmo um dualista da propriedade pode, em
princípio, aceitar uma teoria biológica ou funcionalista interpretada da segunda
maneira. Filósofos que simpatizam com as teorias biológicas incluem Ned Block
e John Searle; aqueles que simpatizam com as teorias funcionalistas incluem
Daniel Dennett e eu. Outra teoria do segundo tipo que vale a pena mencionar é
o panismo, aproximadamente a teoria de que tudo é consciente. (Obviamente,
se tudo estiver consciente e houver uploads, os uploads também serão
conscientes.)

28. Ocasionalmente, vejo perplexidade que alguém com minha própria visão
dualista da propriedade (ou mesmo que alguém que pensa que existe um
problema significativo e significativo de consciência) deva ser solidário com a
consciência mecanizada. Mas a questão de saber se os correlatos físicos da
consciência são biológicos ou funcionais é amplamente ortogonal à questão de
saber se a consciência é idêntica ou distinta de seus correlatos físicos. É difícil
entender por que a visão de que a consciência é restrita às criaturas com nossa
biologia deveria estar mais no espírito do dualismo da propriedade! De qualquer
forma, muito do que se segue é neutro em questões sobre materialismo e
dualismo.

29. Para uma versão muito mais aprofundada do argumento apresentado aqui,
veja o meu “Qualia ausente, Qualia desvanecida, Qualia dançante” (também
capítulo 7 de A mente consciente).

30. Essas três possibilidades podem ser formalizadas supondo que temos uma
medida para a complexidade de um estado de consciência (por exemplo, o
número de bits de informação em um campo visual consciente), de modo que a
medida para um estado humano típico seja alta e a medida para um sistema
inconsciente é zero. Talvez seja melhor considerar essa medida em uma série
de isomorfos funcionais hipotéticos com a substituição de cada vez mais o
cérebro. Então, se o sistema final não estiver consciente, a medida deve passar
por valores intermediários (desvanecimento) ou passar por valores
intermediários (desaparecimento repentino).

31. Bostrom (2006) postula um parâmetro de “quantidade” de consciência que é


bastante distinto da qualidade e sugere que a quantidade pode diminuir
gradualmente sem afetar a qualidade. Mas o ponto na nota anterior sobre
complexidade e bits ainda se aplica. Ou o número de bits diminui gradualmente,
juntamente com a quantidade de consciência, levando ao problema do
desbotamento, ou cai repentinamente para zero quando a quantidade cai de
baixo para zero, levando ao problema do desaparecimento repentino.

32. Será óbvio para quem leu Razões e Pessoas de Derek Parfit que a discussão
atual é fortemente influenciada pela discussão de Parfit lá. Parfit não discute o
carregamento, mas sua discussão sobre fenômenos relacionados, como o
teletransporte, pode naturalmente ser vista como generalizada. Em grande parte
do que se segue, estou simplesmente realizando aspectos da generalização.

33. Existem também teorias primitivistas, sustentando que a sobrevivência


requer persistência de um eu não-físico primitivo. (Essas teorias estão
intimamente relacionadas às teorias ontológicas de fatos adicionais discutidas
posteriormente.) As teorias primitivistas ainda precisam responder perguntas
sobre sob quais circunstâncias o eu realmente persiste, e são compatíveis com
as teorias psicológicas, biológicas e de continuação mais próxima interpretadas.
como respostas a esta pergunta. Portanto, não os incluirei como uma opção
separada aqui.

34. Na pesquisa de 2009 da PhilPapers com 931 filósofos profissionais


[philpapers. org / pesquisas], 34% aceitaram ou se inclinaram para uma visão
psicológica, 17% para uma visão biológica e 12% para uma visão de fato
adicional (outros não tinham certeza, não estavam familiarizados com o
problema, sustentavam que não há fato do assunto e em breve). Os
entrevistados não foram questionados sobre o upload, mas sobre a questão
intimamente relacionada de se o teletransporte (com novos assuntos) é
sobrevivência ou morte, 38% aceitaram ou se inclinaram para a sobrevivência e
31% da morte. Os defensores de uma visão psicológica dividiram 67/22% em
relação à sobrevivência / morte, enquanto os defensores de visões biológicas e
de fatos adicionais dividiram 12/70% e 33/47%, respectivamente.

35. O material sobre visões de fatos adicionais e visões deflacionárias é um


pouco mais filosoficamente abstrato do que o outro material (embora eu tenha
relegado o mais técnico emitido às notas de rodapé) e pode ser ignorado por
aqueles que não têm estômago para esses detalhes.

36. O termo "visão de fato adicional" é devido a Parfit, que não distingue versões
epistemológicas e ontológicas da visão. O uso de Parfit coloca visões nas quais
o self é uma “entidade existente separadamente” em uma categoria diferente,
mas, no meu uso, essas visões são instâncias de uma visão de fato adicional.
Com efeito, existem três visões, paralelamente a três visões sobre a consciência.
O reducionismo do tipo A sustenta que não há fatos epistemológicos nem
ontológicos sobre a sobrevivência. O reducionismo do tipo B sustenta que
existem outros fatos epistemológicos, mas não outros fatos ontológicos. O
dualismo de entidades sustenta que existem fatos adicionais epistemológicos e
ontológicos. Minha opinião é de que, como no caso da consciência (por razões
discutidas em Chalmers 2003), se alguém aceita a visão epistemológica de fatos
adicionais, também deve aceitar a visão ontológica de fatos adicionais. Mas não
vou pressupor esta afirmação aqui.
37. Uma visão ontológica de fatos adicionais é indiscutivelmente incompatível
com teorias psicológicas e biológicas interpretadas como teorias do que é a
sobrevivência, mas é compatível com elas interpretadas como teorias das
condições sob as quais a sobrevivência realmente se obtém. (Se a sobrevivência
é a persistência de um eu não-físico, a sobrevivência não é a mesma que
continuidade biológica ou psicológica, mas a continuidade biológica ou
psicológica poderia, no entanto, dar as condições sob as quais um eu não-físico
persiste.) Uma visão epistemológica de fatos adicionais pode ser combinada
com qualquer uma dessas quatro visualizações.

38. Em Reasons and Persons, Parfit argumenta contra visões de fatos adicionais
(no meu uso) argumentando que elas requerem dualismo de entidades
(“entidades existentes separadamente”) e argumentando que visões desse tipo
são tornadas implausíveis tanto pela ciência quanto por certos casos de
teletransporte e fissão parciais. O próprio Parfit parece aceitar uma visão dualista
de consciência de um fato adicional e uma propriedade, e é difícil ver por que
existe alguma implausibilidade científica adicional a uma visão dualista de um
fato adicional ou de uma entidade: de qualquer maneira , é melhor que outros
fatos não interfiram nas leis da física, mas não está claro por que eles deveriam
ter (consulte Chalmers 2003 para discussão aqui). Quanto aos casos
problemáticos, os argumentos de Parfit aqui parecem depender da suposição de
que visões de fatos adicionais e visões dualistas de entidades estão
comprometidas com a alegação de que a sobrevivência é tudo ou nada, mas não
vejo por que existe tal compromisso. O dualismo de entidades não precisa negar
que pode haver sobrevivência (se não identidade) via fissão, por exemplo.

39. Veja Dainton 2008 para um argumento extenso sobre a importância da


continuidade da consciência na sobrevivência, e Unger 1990 para uma visão
contrária. Vale a pena notar que existe um sentido em que essa visão não
precisa ter uma visão de fato adicional (Dainton a considera uma forma de visão
psicológica): se incluirmos fatos sobre a continuidade da consciência entre os
fatos físicos e mentais relevantes na base, e se alguém sustentar que não há
perguntas em aberto sobre sobrevivência depois que esses fatos forem
resolvidos, não haverá mais fatos. Para os propósitos atuais, no entanto, é
melhor considerar os fatos físicos e mentais relevantes como fatos sobre os
sistemas às vezes, e não ao longo do tempo, de maneira que fatos sobre a
continuidade da consciência ao longo do tempo sejam excluídos. Além disso,
mesmo sob esse ponto de vista, podem permanecer questões em aberto sobre
a sobrevivência nos casos em que a continuidade da consciência está ausente.

40. Nesse sentido, uma visão deflacionária é quase a mesma do reducionismo


do tipo A discutido em uma nota anterior. Parfit usa “reducionismo” para visões
deflacionárias, mas eu não uso esse termo aqui, pois as visões tipo B podem
razoavelmente ser consideradas reducionistas sem ser deflacionárias nesse
sentido.
Por que estou comprometido com uma visão mais aprofundada da consciência,
mas não da identidade pessoal? A diferença é que acho que temos certeza de
que estamos conscientes (em um sentido forte que gera uma lacuna epistêmica),
mas não temos certeza de que sobrevivemos ao longo do tempo (no sentido
edênico, que é o sentido que gera uma epistemia). Gap = Vão). Com efeito, a
consciência é um dado, enquanto a sobrevivência edênica não. Para mais
informações sobre as visões edênicas em geral, veja minha “Percepção e a
queda do Éden”.

41. Parfit mantém uma visão deflacionária não pluralista que privilegia um certo
tipo de continuidade causal e psicológica como o tipo que importa. Depois de
desistir da sobrevivência edênica, não está claro para mim por que esse tipo de
continuidade deve ser privilegiado.

42. Há uma visão que possui elementos tanto da visão deflacionária quanto da
visão posterior, sobre a qual nós Edenicamente sobrevivemos durante um único
fluxo de consciência, mas não quando a consciência cessa. Nesta visão,
podemos sobreviver edênicamente de um momento para outro, mas talvez não
de um dia para o outro. Não apoio essa visão, mas não sou totalmente antipática.

Bibliografia

Block, N. 1981. Psicologismo e behaviorismo. Revisão Filosófica 90: 5 ^ 13.

Bostrom, N. 1998. Quanto tempo antes da superinteligência? Jornal


Internacional de Estudos Futuros 2. [
http://www.nickbostrom.com/superintelligence.html ]

Bostrom, N. 2003. Questões éticas na inteligência artificial avançada. Em (I.


Smit, ed.) Aspectos cognitivos, emotivos e éticos da tomada de decisão em
humanos e em inteligência artificial, vol. 2. Instituto Internacional de Estudos
Avançados em Pesquisa de Sistemas e Cibernética.

Bostrom, N. 2006. Quantidade de experiência: duplicação cerebral e graus de


consciência. Mentes e Máquinas 16: 185-200.

Campbell, JW 1932. A última evolução. Histórias incríveis.

Chalmers, DJ 1990. Como o dualismo cartesiano pode ter sido verdadeiro, [


http://consc.net/

notes / dualism.html]

Chalmers, DJ 1995. Mentes, máquinas e matemática. Psique 2: 11-20.


Chalmers, DJ 1996. A Mente Consciente. Imprensa da Universidade de Oxford.

Chalmers, DJ 2003. Consciência e seu lugar na natureza. Em (S. Stich e F.


Warfield, eds) Guia de Blackwell à filosofia da mente. Blackwell.

Chalmers, DJ 2005. Matrix como metafísica. Em (C. Grau, ed.) Filósofos Explore
a Matriz. Imprensa da Universidade de Oxford.

Chalmers, DJ 2006. Percepção e queda do Éden. In (T. Gendler e J. Hawthorne,


eds) Experiência Perceptual. Imprensa da Universidade de Oxford.

Clark, A. e Chalmers, D. 1998. A mente estendida. Análise 58: 7-19.

Dainton, B. 2008. The Phenomenal Self. Imprensa da Universidade de Oxford.

Dreyfus, H. 1972. O que os computadores não podem fazer.

Egan, G. 1994. Permutation City. Orion / Millennium.

Floridi, L. e Sanders, JW 2004. Sobre a moralidade dos agentes artificiais. Minds


and Machines 14: 349-79.

Flynn, JR 2007. O que é inteligência? Cambridge University Press.

Bom, IJ 1965. Especulações sobre a primeira máquina ultra-inteligente. In (F. Alt


& M. Rubinoff, eds) Advances in Computers, vol. 6.

Hanson, R. 1994. Se os carregamentos vierem primeiro: O crack de um futuro


amanhecer. Extropia 6: 2. [ http://hanson.gmu.edu/uploads.html ]

Hanson, R. 2008. Economia da singularidade. IEEE Spectrum, junho, 37-43.

Hanson, R, 2009. Prefira lei a valores, [


http://www.overcomingbias.com/2009/10/ prefere-lei-a-valores.html]

Hofstadter, DR 2005. Lei de Moore, evolução artificial e o destino da


humanidade. In (L. Booker, S. Forrest, M. Mitchell e R. Riolo, eds) Perspectivas
sobre adaptação em sistemas naturais e artificiais. Imprensa da Universidade de
Oxford.

Joy, W. 2000. Por que o futuro não precisa de nós. Wired 8.04, julho de 2000.

Kurzweil, R. 2005. A singularidade está próxima.


Legg, S. 2008. Superinteligência de máquinas.

Lucas, JR 1961. Mentes, máquinas e Godel. Philosophy 36: 112-27.

Moravec, H. 1988. Mind Children: O Futuro do Robô e da Inteligência Humana.


Harvard University Press.

Moravec, H. 1998. Robôs: Mera Máquina para Mente Transcendente. Imprensa


da Universidade de Oxford.

Omohundro, S. 2007. A natureza da inteligência artificial auto-aperfeiçoada,


[http: /steveomohundro.com/scientific-contributions/]

Omohundro, S. 2008. As unidades básicas de IA. In (P. Wang, B. Goertzel e S.


Franklin, eds) Proceedings of the First AGI Conference. Fronteiras em
Inteligência Artificial e Aplicações, Volume 171. IOS Press.

Parfit, DA 1984. Razões e Pessoas. Imprensa da Universidade de Oxford.

Penrose, R. 1994. Sombras da mente. Imprensa da Universidade de Oxford.

Sandberg, A. & Bostrom, N. 2008. Emulação do cérebro inteiro: Um roteiro.


Relatório técnico 2008-3, Instituto Futuro para a Humanidade, Universidade de
Oxford. [ http: // www . fhi.ox.ac.uk/Reports/2008-3.pdf]

Sawyer, R. 2000. Calculating God. Tor.

Sawyer, R. 2005. Mentes podem. Tor.

Schmidhuber, J. 2003. Máquinas Godel: solucionadores de problemas universais


auto-referenciais que fazem auto-aperfeiçoamentos comprovadamente ótimos. [
http://arxiv.org/abs/cs.LO/0309048 ]

Searle, J. 1980. Mentes, cérebros e programas. Behavioral and Brain Sciences


3: 417-57.

Shalizi, C. 2007. g, um mito estatístico, [ http://bactra.org/weblog/523.html ]

Smart, J. 1999-2008. Breve histórico da discussão intelectual sobre mudanças


aceleradas. [ http://www.accelerationwatch.com/history_brief.html ]
Solomonoff, F. 1985. A escala temporal da inteligência artificial: reflexões sobre
efeitos sociais. North-Holland Human Systems Management 5: 149-153.
Elsevier.

Strout, J. 2006. A página inicial de upload da mente, [


http://www.ibiblio.org/jstrout/ uploading /]

Ulam, S. 1958. John von Neumann 1903-1957. Boletim da Sociedade Americana


de Matemática 64 (número 3, parte 2): 1—49.

Unger, P. 1990. Identidade, Consciência e Valor. Imprensa da Universidade de


Oxford.

Vinge, V. 1983. Primeira palavra. Omni, janeiro de 1983, p. 10)

Vinge, V. 1993. A singularidade tecnológica que se aproxima: Como sobreviver


na era pós-humana. Whole Earth Review, inverno de 1993.

Wallach, W & Allen, C. 2009. Máquinas Morais: Ensinando Robôs Corretos.


Imprensa da Universidade de Oxford.

Yudkowsky, E. 1996. Observando a singularidade, [


http://yudkowsky.net/obsolete/ singularity.html]

Yudkowsky, E. 2002. O experimento Al-box, [ http://yudkowsky.net/singularity/


aibox]

Yudkowsky, E. 2007. Três principais escolas de singularidade, [


http://yudkowsky.net/ singularidade / escolas]

Yudkowsky, E. 2008. Inteligência artificial como um fator positivo e negativo no


risco global. In (N. Bostrom, ed.) Riscos Catastróficos Globais. Imprensa da
Universidade de Oxford.

Alien Minds

Susan Schneider

Eu acho muito provável - de fato, inevitável - que a inteligência biológica seja


apenas um fenômeno transitório ... Se alguma vez encontrarmos inteligência
extraterrestre, acredito que é muito provável que seja de natureza pós-biológica
...
Paul Davies 1

Como os alienígenas inteligentes pensariam? Eles teriam experiências


conscientes? Seria uma certa maneira de ser um alienígena? É fácil descartar
essas questões como especulativas demais, uma vez que não encontramos
alienígenas, pelo menos até onde sabemos. E, ao conceber mentes estranhas,
fazemos isso de dentro - de dentro do ponto de vista das experiências sensoriais
e dos padrões de pensamento característicos de nossa espécie. Na melhor das
hipóteses, antropomorfizamos; na pior das hipóteses, corremos o risco de falhas
estupendas da imaginação.

Ainda assim, ignorar essas perguntas pode ser um erro grave. Alguns
defensores do SETI estimam que encontraremos inteligência alienígena nas
próximas décadas. Mesmo que você tenha uma estimativa mais conservadora -
digamos, que a chance de encontrar inteligência alienígena nos próximos
cinquenta anos seja de cinco por cento -, as apostas para nossa espécie são
altas. Saber que não estamos sozinhos no universo seria uma realização
profunda, e o contato com uma civilização alienígena poderia produzir incríveis
inovações tecnológicas e insights culturais. Portanto, pode ser valioso considerar
essas questões, embora com o objetivo de introduzir possíveis rotas para
respondê-las, em vez de produzir respostas definitivas. Então, vamos perguntar:
como os alienígenas podem pensar? E eles estariam conscientes? Acredite

Detalhes da publicação original: "Alien Minds", Susan Schneider, em Discovery


, Stephen Dick (ed.), Cambridge: Cambridge University Press, 2015. Usado com
permissão.

Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

ou não, podemos dizer algo concreto em resposta a ambas as perguntas, tiradas


do trabalho em filosofia e ciência cognitiva.

Você pode pensar que a segunda pergunta é estranha. Afinal, se os alienígenas


têm vidas mentais sofisticadas o suficiente para serem inteligentes, eles não
seriam conscientes? A pergunta muito mais intrigante é: como seria a qualidade
de sua consciência? Isso colocaria a carroça diante do cavalo, no entanto, já que
não acredito que as civilizações alienígenas mais avançadas sejam biológicas.
As civilizações mais sofisticadas serão pós-biológicas, formas de inteligência
artificial (IA). (Bradbury, Cirkovic e Dvorsky 2011; Cirkovic e Bradbury 2006;
Davies 2010; Dick 2013; Shostak 2009). 2 Além disso, as civilizações alienígenas
tenderão a ser formas de superinteligência: inteligência capaz de exceder a
melhor inteligência de nível humano em todos os campos - habilidades sociais,
sabedoria geral, criatividade científica e assim por diante (Bostrom 2014;
Kurzweil 2005; Schneider 2011) . É uma questão substantiva se a IA
superinteligente (SAI) pode ter experiências conscientes; filósofos debateram
vigorosamente exatamente essa questão no caso da IA em geral. Talvez todo o
processamento de informações ocorra no escuro, por assim dizer, sem nenhuma
experiência interior. É por isso que considero a segunda questão tão urgente e,
em um sentido importante, antes de qualquer investigação sobre os contornos
da consciência alienígena e o problema epistemológico de como podemos saber
"como é" ser alienígena.

Neste capítulo, explico primeiro por que é provável que as civilizações


alienígenas que encontramos sejam formas de SAI. Volto-me então à questão
de saber se alienígenas superinteligentes podem ser conscientes - se parece
uma certa maneira de ser alienígena, apesar de sua natureza não biológica.
Aqui, retiro-me da literatura em filosofia da IA e exorto que, embora não
possamos ter certeza de que alienígenas superinteligentes possam estar
conscientes, é provável que sim. Volto então à difícil questão de como essas
criaturas podem pensar. Tento provisoriamente identificar alguns objetivos e
capacidades cognitivas que provavelmente serão possuídos por seres
superinteligentes. Discuto o livro recente de Nick Bostrom sobre
superinteligência, que se concentra na gênese da SAI na Terra; por acaso,
muitas das observações de Bostrom são informativas no contexto atual. Por fim,
isolei um tipo específico de superinteligência que é de particular importância no
contexto da superinteligência alienígena, superinteligências de inspiração
biológica ("BISAs").

Superinteligência Alienígena

Nossa cultura há muito descreve os alienígenas como criaturas humanóides com


queixo pequeno e pontudo, olhos enormes e cabeças grandes, aparentemente
para abrigar cérebros maiores que os nossos. Paradigmaticamente, eles são
"homenzinhos verdes". Embora tenhamos consciência de que nossa cultura é
antropomorfizada, imagino que minha sugestão de que alienígenas sejam
supercomputadores possa parecer absurda. Então, qual é a minha lógica para a
visão de que a maioria das civilizações alienígenas inteligentes terá membros
que são SAIs? Apresento três observações que, juntas, motivam essa
conclusão.

1. A observação da janela curta. Uma vez que uma sociedade cria a tecnologia
que pode colocá-los em contato com o cosmos, ela fica a poucas centenas de
anos de mudar seu próprio paradigma da biologia para a IA (Davies 2010; Dick
2013; Shostak 2009). Essa "janela curta" torna mais provável que os alienígenas
que encontramos sejam pós-biológicos.

A observação de janela curta é apoiada pela evolução cultural humana, pelo


menos até agora. Nossos primeiros sinais de rádio datam de apenas cento e
vinte anos, e a exploração espacial tem apenas cinquenta anos, mas já estamos
imersos em tecnologia digital, como telefones celulares e laptops. Dispositivos
como o Google Glass prometem colocar a Internet em contato mais direto com
nossos corpos, e provavelmente é uma questão de menos de cinquenta anos
antes que conexões sofisticadas à Internet sejam conectadas diretamente em
nossos cérebros. De fato, os implantes para Parkinson já estão em uso e, nos
Estados Unidos, a Agência de Projetos de Pesquisa Avançada em Defesa
(DARPA) começou a desenvolver implantes neurais que se relacionam
diretamente com o sistema nervoso, regulando condições como transtorno de
estresse pós-traumático, artrite, depressão e doença de Crohn. O programa da
DARPA, chamado "ElectRx", visa substituir certos medicamentos por implantes
neurais de "circuito fechado", implantes que avaliam continuamente o estado de
saúde e fornecem a estimulação nervosa necessária para manter o
funcionamento do sistema biológico. Eventualmente, os implantes serão
desenvolvidos para melhorar o funcionamento normal do cérebro, e não para fins
médicos.

Para onde tudo isso pode levar? Um experimento mental do meu


“Transcendendo e aprimorando o cérebro humano” é sugestivo (Schneider
2011a).

Suponha que seja 2025 e, sendo um tecnófilo, você compra aprimoramentos


cerebrais à medida que se tornam disponíveis. Primeiro, você adiciona uma
conexão de Internet móvel à sua retina e aprimora sua memória de trabalho
adicionando circuitos neurais. Agora você é oficialmente um ciborgue. Agora
pule para 2040. Com terapias e aprimoramentos nanotecnológicos, você pode
prolongar sua vida útil e, com o passar dos anos, continua acumulando
aprimoramentos de maior alcance. Em 2060, depois de várias alterações
pequenas, mas cumulativamente profundas, você será um "pós-humano". Para
citar o filósofo Nick Bostrom, os pós-humanos são possíveis seres futuros ", cujas
capacidades básicas excedem tão radicalmente as dos humanos atuais que não
são mais inequivocamente humanas por nossos pais". padrões atuais ”(Bostrom
2003).

Nesse ponto, sua inteligência é aprimorada não apenas em termos de velocidade


do processamento mental; agora você pode fazer conexões avançadas que não
era capaz de fazer antes. Humanos sem aprimoramento, ou "naturais", parecem-
lhe ser intelectualmente deficientes - você tem pouco em comum com eles -, mas
como transhumanista, você apoia seu direito de não melhorar (Bostrom 2003;
Garreau 2005; Kurzweil 2005).

Agora são 2400 dC. Durante anos, desenvolvimentos tecnológicos em todo o


mundo, incluindo seus próprios aprimoramentos, foram facilitados pela IA
superinteligente. De fato, como explica Bostrom, "criar superinteligência pode
ser a última invenção que os humanos precisarão fazer, uma vez que as
superinteligências poderiam cuidar de desenvolvimentos científicos e
tecnológicos" (Bostrom 2003). Com o tempo, a lenta adição de melhores e
melhores circuitos neurais não deixou nenhuma diferença intelectual real entre
você e a IA superinteligente. A única diferença real entre você e uma criatura de
IA de design padrão é a de origem - você já foi natural. Mas agora você está
quase inteiramente projetado pela tecnologia - talvez seja mais adequadamente
caracterizado como membro de uma classe bastante heterogênea de formas de
vida de IA (Kurzweil 2005).
Claro, isso é apenas um experimento mental. Mas acabei de observar que já
estamos começando a desenvolver implantes neurais. É difícil imaginar pessoas
na sociedade dominante resistindo a oportunidades de saúde, inteligência e
eficiência superiores. E, assim como as pessoas já se voltaram para a cryonics,
mesmo em seu estado embrionário, suspeito que cada vez mais tentarão fazer
upload para evitar a morte, especialmente quando a tecnologia for aperfeiçoada.
3 De fato, o Instituto Future of Humanity da Universidade de Oxford divulgou um
relatório sobre os requisitos tecnológicos para carregar uma mente em uma
máquina. E uma agência do Departamento de Defesa financiou um programa, o
Synapse, que está desenvolvendo um computador que se assemelha a um
cérebro em forma e função (Schneider 2014). Em essência, a observação de
janela curta é apoiada por nossa própria evolução cultural, pelo menos até agora.

Você pode objetar que esse argumento emprega “N = 1 raciocínio”,


generalizando do caso humano para o caso de civilizações alienígenas. Ainda
assim, não é prudente descontar argumentos com base no caso humano. A
civilização humana é a única que conhecemos e é melhor aprendermos com ela.
Não é um grande salto afirmar que outras civilizações desenvolverão tecnologias
para promover sua inteligência e sobrevivência. E, como explicarei em breve, o
silício é um meio melhor para pensar do que o carbono.

Uma segunda objeção à minha curta janela de observação aponta corretamente


que nada do que eu disse até agora sugere que os humanos serão
superinteligentes. Eu apenas disse que os futuros seres humanos serão pós-
humanos . Embora eu ofereça apoio à visão de que nossa própria evolução
cultural sugere que os seres humanos serão pós-biológicos, isso não mostra que
civilizações alienígenas avançadas alcançarão superinteligência. Portanto,
mesmo que alguém se sinta à vontade para argumentar a partir do caso humano,
o caso humano não suporta a posição de que os membros de civilizações
alienígenas avançadas serão superinteligentes.

Isto está correto. Esta é a tarefa da segunda observação.

2. A maior era das civilizações alienígenas. Os defensores do SETI muitas vezes


concluíram que as civilizações alienígenas seriam muito mais antigas que a
nossa: “todas as linhas de evidência convergem na conclusão de que a idade
máxima da inteligência extraterrestre seria bilhões de anos, especificamente
[1,7] varia de 1,7 bilhões a 8 bilhões anos ”(Dick 2013, 468). Se as civilizações
são milhões ou bilhões de anos mais antigas que nós, muitas seriam muito mais
inteligentes do que nós. Pelos nossos padrões, muitos seriam superinteligentes.
Somos bebês galácticos.

Mas seriam formas de IA, bem como formas de superinteligência? Eu acredito


que sim. Mesmo que fossem biológicos, meramente com aprimoramentos
biológicos do cérebro, sua superinteligência seria alcançada por meios artificiais,
e poderíamos considerá-los como "inteligência artificial". Mas suspeito que algo
mais forte do que isso: espero que eles não sejam de carbono. Sediada. O
carregamento permite que uma criatura seja quase imortal, permite
reinicializações e sobrevive sob uma variedade de condições que as formas de
vida baseadas em carbono não conseguem. Além disso, o silício parece ser um
meio melhor para o processamento de informações do que o próprio cérebro. Os
neurônios atingem uma velocidade de pico de cerca de 200 Hz, sete ordens de
magnitude mais lenta que os atuais microprocessadores (Bostrom 2014, 59).
Embora o cérebro possa compensar parte disso com paralelismo massivo,
recursos como "hubs" e assim por diante, capacidades mentais cruciais, como
atenção, dependem do processamento em série, que é incrivelmente lento e tem
uma capacidade máxima de sete pedaços gerenciáveis (Miller 1956). Além
disso, o número de neurônios no cérebro humano é limitado pelo volume
craniano e metabolismo, mas os computadores podem ocupar prédios ou
cidades inteiras e podem ser conectados remotamente em todo o mundo
(Bostrom 2014). Obviamente, o cérebro humano é muito mais inteligente do que
qualquer computador moderno. Mas máquinas inteligentes podem, em princípio,
ser construídas através da engenharia reversa do cérebro e aprimorando seus
algoritmos.

Em suma: observei que parece haver uma pequena janela do desenvolvimento


da tecnologia para acessar o cosmos e o desenvolvimento das mentes pós-
biológicas e da IA. Observei então que somos bebês galácticos: é provável que
as civilizações extraterrestres sejam muito mais velhas que nós (se é que
existem) e, portanto, já teriam atingido não apenas a vida pós-biológica, mas a
superinteligência. Finalmente, observei que eles provavelmente seriam SAI,
porque o silício é um meio superior para a superinteligência. Concluo que, se
realmente existem civilizações alienígenas avançadas, é provável que sejam
SAIs.

Mesmo que eu esteja errado - mesmo que a maioria das civilizações alienígenas
se mostre biológica - pode ser que as civilizações alienígenas mais inteligentes
sejam aquelas em que os habitantes são EFS. Além disso, as criaturas baseadas
em silício, e não biologicamente, são mais propensas a suportar viagens
espaciais, possuindo sistemas duráveis que são praticamente imortais, para que
possam ser o tipo de criatura que encontramos pela primeira vez.

Tudo isso dito, alienígenas superinteligentes seriam conscientes, tendo


experiências interiores? Aqui, retiro de uma rica literatura filosófica sobre a
natureza da experiência consciente.

Alienígenas superinteligentes seriam conscientes?

Considere sua própria experiência consciente. Suponha que você esteja sentado
em um café se preparando para dar uma palestra. Em um único momento, você
experimenta o café expresso, toma uma idéia e ouve o grito da máquina de café
expresso. Este é o seu fluxo atual de consciência. Fluxos conscientes parecem
estar muito ligados a quem você é. Não é que esse momento em particular seja
essencial - embora você possa sentir que certos são importantes. Antes, durante
toda a sua vida, você parece ser o sujeito de um fluxo unificado de experiência
que o apresenta como sujeito, vendo o programa.

Vamos nos concentrar em três características do fluxo: primeiro, pode parecer-


lhe, metaforicamente, que existe uma espécie de “tela” ou “estágio” em que as
experiências se apresentam aos seus “olhos da mente”. parece ser um local
central onde as experiências são "rastreadas" antes de você. Daniel Dennett
chama esse lugar de "teatro cartesiano" (Dennett 1991). Segundo, nesse lugar
central, parece haver um momento singular que, dada uma entrada sensorial
específica, a consciência acontece. Por exemplo, parece haver um momento em
que o grito da máquina de café expresso começa, tirando você da sua
concentração. Finalmente, parece haver um eu - alguém que está dentro do
teatro, assistindo ao show.

Os filósofos consideraram cada um desses recursos em detalhes. Cada um é


altamente problemático. Por exemplo, uma explicação da consciência não pode
ser literalmente a existência de um olho mental no cérebro, assistindo a um
show. E não há evidências de que exista um lugar ou tempo singular no cérebro
em que a consciência congele.

Essas são questões intrigantes, mas persegui-las no contexto da consciência


alienígena está colocando a carroça na frente dos bois. Pois existe um problema
mais fundamental: alienígenas superinteligentes, sendo formas de IA, seriam
conscientes? Por que deveríamos acreditar que criaturas tão vastamente
diferentes de nós, baseadas em silício, teriam alguma experiência interior?

Esse problema está relacionado ao que os filósofos chamam de difícil problema


da consciência, um problema que foi colocado no contexto da consciência
humana pelo filósofo David Chalmers (Chalmers 2008). O problema difícil de
Chalmers é o seguinte. Como a ciência cognitiva ressalta, quando deliberamos,
ouvimos música, vemos os ricos tons do pôr-do-sol e assim por diante, há
processamento de informações no cérebro. Mas acima e além da manipulação
de dados, há um lado subjetivo - há uma "qualidade sentida" em nossa
experiência. O difícil problema é: por que todo esse processamento de
informações no cérebro humano, sob certas condições, tem uma qualidade
sentida?

Como Chalmers enfatiza, o problema difícil é um problema dos filósofos, porque


não parece ter uma resposta científica. Por exemplo, poderíamos desenvolver
uma teoria completa da visão, entendendo todos os detalhes do processamento
visual no cérebro, mas ainda não entendendo por que existem experiências
subjetivas associadas a esses estados informacionais. Chalmers contrasta o
difícil problema com o que ele chama de “problemas fáceis”, problemas que
envolvem a consciência que têm eventuais respostas científicas, como os
mecanismos por trás da atenção e como categorizamos e reagimos aos
estímulos. Claro que esses problemas científicos são difíceis; Chalmers apenas
os chama de "problemas fáceis" para contrastá-los com o "problema difícil" da
consciência, que ele acha que não terá uma solução puramente científica.
Agora, enfrentamos outra questão desconcertante envolvendo a consciência -
um tipo de "problema difícil" que envolve superinteligência alienígena, se você:

O difícil problema da superinteligência alienígena: o processamento de um

sistema superinteligente baseado sentir de uma certa maneira, por dentro?

Uma EFS alienígena poderia resolver problemas que mesmo os humanos mais
brilhantes são incapazes de resolver, mas ainda assim, sendo feitos de um
substrato não biológico, o processamento de suas informações pareceria um
certo caminho por dentro?

Vale ressaltar que o difícil problema da consciência alienígena não é apenas o


difícil problema de consciência de Chalmers aplicado ao caso dos alienígenas.
Pois o difícil problema da consciência supõe que somos conscientes - afinal,
cada um de nós pode dizer, por meio da introspecção, que estamos conscientes
neste momento. Ele pergunta por que somos conscientes. Por que todo o seu
processamento de informações parece uma certa maneira por dentro? Em
contraste, o difícil problema da consciência alienígena pergunta se a
superinteligência alienígena, baseada no silício, é capaz de ser consciente. Não
pressupõe que os alienígenas sejam conscientes. Esses são problemas
diferentes, mas ambos são problemas difíceis que a ciência sozinha não pode
responder.

O problema no caso de alienígenas superinteligentes é que a capacidade de


estar consciente pode ser exclusiva de organismos biológicos baseados em
carbono. De acordo com o naturalismo biológico, mesmo as formas mais
sofisticadas de IA serão desprovidas de experiência interior (Blackmore 2004;
Searle 1980, 2008). De fato, mesmo os humanos que desejam carregar suas
mentes não conseguirão transferir sua consciência. Embora eles possam copiar
suas memórias em um formato computacional, sua consciência não será
transferida, pois os naturalistas biológicos sustentam que a consciência requer
um substrato biológico. 4

Que argumentos apóiam o naturalismo biológico? A consideração mais comum


a favor do naturalismo biológico é o experimento mental de John Searle, na Sala
Chinesa, que sugere que um programa de computador não pode entender ou
ser consciente (Searle, 1980). Searle supõe que ele esteja trancado em uma
sala, onde ele entregou um conjunto de regras em inglês que lhe permitem
vincular um conjunto de símbolos chineses a outros símbolos chineses. Portanto,
embora ele não saiba chinês, as regras permitem que ele responda, em chinês
escrito, a perguntas escritas em chinês. Então ele está essencialmente
processando símbolos. Searle conclui que, embora os que estão fora da sala
possam pensar que ele entende chinês, ele obviamente não; da mesma forma,
um computador pode parecer estar tendo uma conversa em chinês, mas não
entende realmente chinês. Nem é consciente.
Embora esteja correto que Searle não entenda chinês, a questão não é
realmente se Searle entende; Searle é apenas uma parte do sistema maior. A
questão relevante é se o sistema como um todo entende chinês. Essa resposta
básica ao experimento de pensamento da Sala Chinesa de Searle é conhecida
como Resposta do Sistema. 5

Parece-me implausível que um sistema simples como o Salão Chinês


compreenda, no entanto, pois o Salão Chinês não é suficientemente complexo
para entender ou estar consciente. Mas a resposta do sistema está ligada a algo:
a questão real é se o sistema como um todo entende, não se um componente
entende. Isso deixa em aberto a possibilidade de um sistema mais complexo à
base de silício entender; é claro, os cálculos de uma IA superinteligente serão
muito mais complexos que o cérebro humano.

Aqui, alguns podem suspeitar que possamos reformular o experimento de


pensamento da Sala Chinesa no contexto de uma IA superinteligente. Mas o que
está alimentando essa suspeita? Não pode ser que algum componente central
da EFS, análogo a Searle na Sala Chinesa, não entenda, pois acabamos de
observar que é o sistema como um todo que entende. A suspeita é alimentada
pela posição de que a compreensão e a consciência não se decompõem em
operações mais básicas? Nesse caso, o experimento mental pretende provar
demais. Considere o caso do cérebro humano. De acordo com a ciência
cognitiva, as capacidades cognitivas e perceptivas se decompõem em
operações mais básicas, que são decompostas em constituintes mais básicos,
as quais podem ser explicadas causalmente (Bloco 1995). Se o Salão Chinês
ilustra que a mentalidade não pode ser explicada assim, o cérebro também não
pode ser explicado dessa maneira. Mas essa abordagem explicativa, conhecida
como "o método de decomposição funcional", é uma abordagem líder para
explicar as capacidades mentais na ciência cognitiva. Consciência e
compreensão são propriedades mentais complexas que são determinadas pelos
arranjos dos neurônios no cérebro.

Além disso, o naturalismo biológico nega uma das principais idéias da ciência
cognitiva - a percepção de que o cérebro é computacional - sem uma lógica
empírica substancial. A ciência cognitiva sugere que nossa melhor teoria
empírica do cérebro sustenta que a mente é um sistema de processamento de
informações e que todas as funções mentais são computações. Se a ciência
cognitiva está correta de que o pensamento é computacional, os seres humanos
e a SAI compartilham uma característica comum: seu pensamento é
essencialmente computacional. Assim como uma ligação telefônica e um sinal
de fumaça podem transmitir a mesma informação, o pensamento pode ter
substratos à base de silício e carbono. O resultado é que, se a ciência cognitiva
está correta, o pensamento é computacional, também podemos esperar que
máquinas pensantes sofisticadas possam ser conscientes, embora os contornos
de suas experiências conscientes certamente sejam diferentes.
Na verdade, observei que o silício é sem dúvida um meio melhor para o
processamento de informações do que o cérebro. Então, por que o silício não é
um meio melhor para a consciência do que um pior , como propõem os
naturalistas biológicos? Seria surpreendente se a SAI, que teria habilidades de
processamento de informações muito superiores às nossas, se mostrasse
deficiente em relação à consciência. Pois nossas melhores teorias científicas da
consciência sustentam que a consciência está intimamente relacionada ao
processamento de informações (Tonini 2008; Baars 2008).

Alguns diriam que, para mostrar que a IA não pode ser consciente, o naturalista
biológico precisaria localizar uma propriedade especial da consciência (chamada
de "P") que herda os neurônios ou suas configurações e que não pode ser
instanciada pelo silício. Até agora, P não foi descoberto. Não está claro, no
entanto, que localizar P provaria que o naturalismo biológico estivesse correto.
Para o computacionalista, basta dizer que as máquinas são capazes de
instanciar um tipo diferente de propriedade da consciência, F, que é específica
para sistemas baseados em silício.

Massimo Pigliucci ofereceu um tipo diferente de consideração em favor do


naturalismo biológico, no entanto. Fie vê filósofos que defendem o
computacionalismo como abraçando uma perspectiva implausível sobre a
natureza da consciência: o funcionalismo. Segundo os funcionalistas, a natureza
de um estado mental depende da maneira como funciona ou do papel que
desempenha no sistema do qual faz parte. Pigliucci está certo de que
funcionalistas tradicionais, como Jerry Fodor, geralmente ignoram erroneamente
o funcionamento biológico do cérebro. Pigliucci objeta: “a funcionalidade não é
apenas o resultado do arranjo adequado das partes de um sistema, mas também
dos tipos de materiais (e suas propriedades) que compõem essas partes”
(Pigliucci, 2014).

A conhecida antipatia de Fodor em relação à neurociência não deve nos induzir


a pensar que o funcionalismo deve ignorar a neurociência. Claramente, qualquer
posição funcionalista bem concebida deve levar em consideração o trabalho
neurocientífico no cérebro, porque o funcionalista está interessado nas
propriedades causais ou disposicionais das partes, não apenas nas próprias
partes. De fato, como argumentei em meu livro The Language of Thought,
encarar o cérebro como irrelevante para a abordagem computacional da mente
é um grande erro. O cérebro é o melhor sistema computacional que conhecemos
(Schneider 2011b).

Isso faz da minha posição uma forma de naturalismo biológico? Nem um pouco.
Estou sugerindo que ver a neurociência (e, por extensão, a biologia) como sendo
oposta ao computacionalismo está errado. De fato, a neurociência é
computacional; um grande subcampo da neurociência é chamado de
"neurociência computacional" e procura entender o sentido em que o cérebro é
computacional e fornecer relatos computacionais das capacidades mentais
identificadas por subcampos relacionados, como a neurociência cognitiva. O que
diferencia minha visão do naturalismo biológico é que sustento que o
pensamento é computacional e, além disso, que pelo menos um outro substrato
além do carbono (isto é, silício) pode dar origem à consciência e ao
entendimento, pelo menos em princípio.

Mas vale a pena considerar o naturalismo biológico. Estou raciocinando que um


substrato que suporta a superinteligência, capaz de processar informações ainda
mais sofisticadas do que nós, provavelmente também seria consciente. Mas
observe que eu usei a expressão "provável". Pois nunca podemos ter certeza de
que a IA é consciente, mesmo que pudéssemos estudá-la de perto. O problema
é semelhante ao quebra-cabeça filosófico conhecido como o problema de outras
mentes (Schneider 2014). O problema de outras mentes é que, embora você
possa saber que está consciente, não pode ter certeza de que outras pessoas
também estão conscientes. Afinal, você pode estar testemunhando um
comportamento sem nenhum componente consciente associado. Diante do
problema de outras mentes, tudo o que você pode fazer é observar que outras
pessoas têm cérebros estruturalmente semelhantes aos seus e concluir que,
como você é consciente, é provável que outras pessoas também o sejam.
Quando confrontado com a IA, sua situação seria semelhante, pelo menos se
você aceitar que o pensamento é computacional. Embora não tenhamos certeza
absoluta de que um programa de IA realmente tenha sentido alguma coisa, não
podemos ter certeza de que outros humanos também o fazem. Mas parece
provável em ambos os casos.

Portanto, para a questão de saber se a superinteligência alienígena pode ser


consciente, respondo, com muita cautela, "provavelmente".

Como os estrangeiros superinteligentes pensam?

Até agora, falei pouco sobre a estrutura das mentes alienígenas


superinteligentes. E pouco é tudo o que podemos dizer: superinteligência é, por
definição, um tipo de inteligência que supera os seres humanos em todos os
domínios. Em um sentido importante, não podemos prever ou entender
completamente como ele vai pensar. Ainda, podemos ser capazes de identificar
algumas características importantes, embora em traços gerais.

O livro recente de Nick Bostrom sobre superinteligência se concentra no


desenvolvimento da superinteligência na Terra, mas podemos extrair de sua
discussão ponderada (Bostrom 2014). Bostrom distingue três tipos de
superinteligência:

Superinteligência de velocidade - mesmo uma emulação humana poderia, em


princípio, correr tão rápido que poderia escrever uma tese de doutorado em uma
hora.

Superinteligência coletiva - as unidades individuais não precisam ser


superinteligentes, mas o desempenho coletivo dos indivíduos supera a
inteligência humana.
Superinteligência de qualidade - pelo menos tão rápido quanto o pensamento
humano e muito mais inteligente que os seres humanos em praticamente todos
os domínios.

Qualquer um desses tipos poderia existir ao lado de um ou mais dos outros.

Uma questão importante é se podemos identificar objetivos comuns que esses


tipos de superinteligências possam compartilhar. Bostrom sugere

A tese da ortogonalidade: “Inteligência e objetivos finais são ortogonais - mais


ou menos qualquer nível de inteligência poderia, em princípio, ser combinado
com mais ou menos qualquer objetivo final.” (Bostrom 2014, 107)

Bostrom tem o cuidado de enfatizar que muitos tipos impensáveis de EFS podem
ser desenvolvidos. A certa altura, ele apresenta um exemplo preocupante de
superinteligência com o objetivo final de fabricar clipes de papel (pp. 107-108,
123-125). Embora isso possa inicialmente parecer um esforço inofensivo,
embora dificilmente uma vida valha a pena ser vivida, Bostrom ressalta que uma
superinteligência poderia utilizar todas as formas de matéria da Terra para apoiar
esse objetivo, acabando com a vida biológica no processo. De fato, Bostrom
adverte que a superinteligência emergente na Terra pode ser de natureza
imprevisível, sendo “extremamente estranha” para nós (p. 29). Ele apresenta
vários cenários para o desenvolvimento da SAI. Por exemplo, a SAI poderia ser
alcançada de maneira inesperada por programadores inteligentes, e não
derivada do cérebro humano. Ele também leva a sério a possibilidade de que a
superinteligência terrestre possa ser biologicamente inspirada, ou seja,
desenvolvida a partir da engenharia reversa, os algoritmos que a ciência
cognitiva diz que descrevem o cérebro humano ou a varredura do conteúdo do
cérebro humano e a transferência para um computador (ou seja, " Enviando"). 6

Embora os objetivos finais da superinteligência sejam difíceis de prever, o


Bostrom destaca vários objetivos instrumentais como prováveis, uma vez que
eles apóiam qualquer objetivo final:

A Tese da Convergência Instrumental: “Vários valores instrumentais podem ser


convergentes no sentido de que sua realização aumentaria as chances de o
objetivo do agente ser realizado para uma ampla gama de objetivos finais e uma
ampla gama de situações, implicando que esses valores instrumentais
provavelmente serão perseguidos por um amplo espectro de agentes
inteligentes situados. ”(Bostrom 2014, 109)

Os objetivos que ele identifica são aquisição de recursos, perfeição tecnológica,


aprimoramento cognitivo, autopreservação e integridade do conteúdo da meta
(ou seja, que o futuro eu de um ser superinteligente perseguirá e atingirá esses
mesmos objetivos). Ele ressalta que a autopreservação pode envolver a
preservação de um grupo ou de um indivíduo, e que isso pode ter um papel
secundário na preservação das espécies para as quais a IA foi projetada para
servir (Bostrom 2014).

Vamos chamar de superinteligência alienígena que se baseia na engenharia


reversa de cérebro alienígena, incluindo carregá-lo, um alienígena super
inteligente biologicamente inspirado (ou "BISA"). Embora os BISAs sejam
inspirados nos cérebros das espécies originais das quais a superinteligência é
derivada, os algoritmos de um BISA podem se afastar dos do modelo biológico
a qualquer momento.

Os BISAs são de particular interesse no contexto da superinteligência


alienígena. Pois, se a Bostrom está correta, existem muitas maneiras de
construir a superinteligência, mas várias civilizações alienígenas desenvolvem a
superinteligência a partir do upload ou de outras formas de engenharia reversa,
pode ser que os BISAs sejam a forma mais comum de superinteligência
alienígena existente. Isso ocorre porque existem muitos tipos de
superinteligência que podem surgir de técnicas de programação brutas
empregadas por civilizações alienígenas. (Considere, por exemplo, a
diversidade de programas de IA em desenvolvimento na Terra, muitos dos quais
não são modelados segundo o cérebro humano.) Isso pode nos deixar em uma
situação em que a classe de SAIs é altamente heterogênea, com membros
geralmente tendo pouca semelhança entre si. Pode acontecer que, de todas as
ISC, os BISAs tenham maior semelhança entre si. Em outras palavras, os BISAs
podem ser o subgrupo mais coeso, porque os outros membros são muito
diferentes um do outro.

Aqui, você pode suspeitar que, como os BISAs poderiam estar espalhados pela
galáxia e gerados por multidões de espécies, há pouco interesse interessante
que possamos dizer sobre a classe de BISAs. Mas observe que os BISAs têm
duas características que podem dar origem a capacidades e objetivos cognitivos
comuns:

1. Os BISAs são descendentes de criaturas que tinham motivações como:


encontrar comida, evitar ferimentos e predadores, reproduzir, cooperar, competir
e assim por diante.

2. As formas de vida das quais os BISAs são modelados evoluíram para lidar
com restrições biológicas, como baixa velocidade de processamento e as
limitações espaciais da modalidade.

Poderia (1) ou (2) produzir características comuns a membros de muitas


civilizações alienígenas superinteligentes? Eu suspeito que sim.

Considere (1). A vida biológica inteligente tende a se preocupar principalmente


com sua própria sobrevivência e reprodução, portanto, é mais provável que os
BISAs tenham objetivos finais que envolvam sua própria sobrevivência e
reprodução, ou pelo menos a sobrevivência e reprodução dos membros de sua
sociedade. Se os BISAs estiverem interessados em reprodução, podemos
esperar que, dadas as enormes quantidades de recursos computacionais à sua
disposição, os BISAs criem universos simulados, repletos de vida artificial e até
inteligência ou superinteligência. Se essas criaturas pretendiam ser “crianças”,
elas também podem manter os objetivos listados em (1).

Você pode argumentar que é inútil teorizar sobre os BISAs, pois eles podem
mudar sua arquitetura básica de inúmeras formas imprevistas, e quaisquer
motivações biologicamente inspiradas podem ser restringidas pela
programação. Pode haver limites para isso, no entanto. Se uma superinteligência
é baseada biologicamente, ela pode ter sua própria sobrevivência como objetivo
principal. Nesse caso, talvez não queira alterar sua arquitetura
fundamentalmente, mas mantenha melhorias menores. Pode pensar: quando
altero fundamentalmente minha arquitetura, não sou mais eu (Schneider 2011).
Uploads, por exemplo, podem ser especialmente inclinados a não alterar as
características que foram mais importantes para eles durante sua existência
biológica.

Considere (2). Os projetistas da superinteligência, ou uma superinteligência de


auto-aperfeiçoamento, podem se afastar do modelo biológico original de todo
tipo de formas imprevistas, embora eu tenha observado que um BISA pode não
querer alterar fundamentalmente sua arquitetura. Mas poderíamos procurar
capacidades cognitivas úteis para manter; capacidades cognitivas que formas
sofisticadas de inteligência biológica provavelmente possuem e que permitem à
superinteligência realizar seus objetivos finais e instrumentais. Poderíamos
também procurar por características que provavelmente não serão projetadas,
pois não prejudicam o BISA de seus objetivos.

Se (2) estiver correto, podemos esperar o seguinte, por exemplo.

Eu. Aprender sobre a estrutura computacional do cérebro das espécies que


criaram o BISA pode fornecer informações sobre os padrões de pensamento do
BISA. Um meio influente de entender a estrutura computacional do cérebro na
ciência cognitiva é por meio da "conectômica", um campo que busca fornecer
um mapa de conectividade ou diagrama de fiação do cérebro (Seung 2012).
Embora seja provável que um determinado BISA não tenha o mesmo tipo de
conectoma que os membros da espécie original, algumas das conexões
funcionais e estruturais podem ser mantidas, e podem ser encontradas partidas
interessantes dos originais.

ii. Os BISAs podem ter representações invariantes do ponto de vista. Em um alto


nível de processamento, seu cérebro tem representações internas das pessoas
e objetos com os quais você interage que são invariantes do ponto de vista.
Considere caminhar até a porta da frente. Você percorreu esse caminho
centenas, talvez milhares de vezes, mas tecnicamente, vê coisas de ângulos
ligeiramente diferentes a cada vez, pois nunca é posicionado exatamente da
mesma maneira duas vezes. Você tem representações mentais que estão em
um nível relativamente alto de processamento e são invariantes do ponto de
vista. Parece difícil para a inteligência de base biológica evoluir sem essas
representações, pois elas permitem categorização e previsão (Hawkins e
Blakeslee 2004). Tais representações surgem porque um sistema móvel precisa
de um meio de identificar itens em seu ambiente em constante mudança;
portanto, esperamos que os sistemas baseados em biologia os tenham. A BISA
teria poucas razões para desistir de representações invariantes a objetos, na
medida em que permanece móvel ou tem dispositivos móveis enviando
informações remotamente.

iii. Os BISAs terão representações mentais semelhantes à linguagem que são


recursivas e combinatórias. Observe que o pensamento humano tem a
característica crucial e difundida de ser combinatório. Considere o pensamento
de que o vinho é melhor na Itália do que na China. Você provavelmente nunca
teve esse pensamento antes, mas conseguiu entendê-lo. A chave é que os
pensamentos são combinatórios porque são construídos a partir de constituintes
familiares e combinados de acordo com as regras. As regras aplicam-se a
construções a partir de constituintes primitivos, que são construídos
gramaticalmente, bem como aos próprios constituintes primitivos. As operações
mentais gramaticais são incrivelmente úteis: é a natureza combinatória do
pensamento que permite entender e produzir essas sentenças com base no
conhecimento prévio da gramática e dos constituintes atômicos (por exemplo,
vinho , China). De maneira semelhante, o pensamento é produtivo: em princípio,
é possível entreter e produzir um número infinito de representações distintas,
porque a mente possui uma sintaxe combinatória (Schneider 2011).

O cérebro precisa de representações combinatórias porque existem infinitas


representações lingüísticas possíveis, e o cérebro possui apenas um espaço de
armazenamento finito. Mesmo um sistema superinteligente se beneficiaria de
representações combinatórias. Embora um sistema superinteligente possa ter
recursos computacionais tão vastos que seja capaz de emparelhar enunciados
ou inscrições com uma frase armazenada, seria improvável que trocasse uma
inovação tão maravilhosa dos cérebros biológicos. Se o fizesse, seria menos
eficiente, pois existe o potencial de uma frase não estar em seu armazenamento,
o que deve ser finito.

iv. Os BISAs podem ter um ou mais espaços de trabalho globais. Quando você
procura um fato ou se concentra em algo, seu cérebro concede a esse conteúdo
sensorial ou cognitivo acesso a um "espaço de trabalho global", onde as
informações são transmitidas para sistemas de memória atencional e de trabalho
para um processamento mais concentrado, bem como para os canais
massivamente paralelos no cérebro (Baars 2008). O espaço de trabalho global
opera como um local singular, onde informações importantes dos sentidos são
consideradas em conjunto, para que a criatura possa julgar todas as coisas e
agir de maneira inteligente, à luz de todos os fatos à sua disposição. Em geral,
seria ineficiente ter um senso ou capacidade cognitiva que não estivesse
integrada aos outros, porque as informações desse sentido ou capacidade
cognitiva seriam incapazes de figurar em previsões e planos com base em uma
avaliação de todas as informações disponíveis.
v. O processamento mental de um BISA pode ser entendido por decomposição
funcional. Por mais complexo que a superinteligência alienígena possa ser, os
humanos podem usar o método de decomposição funcional como uma
abordagem para entendê-lo. Uma característica fundamental das abordagens
computacionais do cérebro é que as capacidades cognitivas e perceptivas são
entendidas decompondo a capacidade específica em suas partes causalmente
organizadas, as quais podem ser entendidas em termos da organização causal
de suas partes. Este é o "método de decomposição funcional" mencionado acima
e é um método explicativo chave na ciência cognitiva. É difícil imaginar uma
máquina pensante complexa que não tenha um programa que consiste em
elementos causalmente inter-relacionados, cada um dos quais consiste em
elementos causalmente organizados. Isso tem implicações importantes se um
programa SETI descobrir um BISA em comunicação.

Tudo isso dito, seres superinteligentes são por definição seres superiores aos
seres humanos em todos os domínios. Embora uma criatura possa ter um
processamento superior que ainda basicamente faz sentido para nós, pode ser
que uma dada superinteligência seja tão avançada que não possamos entender
nenhum dos seus cálculos. Pode ser que qualquer civilização verdadeiramente
avançada tenha tecnologias indistinguíveis da magia, como sugeriu Arthur C.
Clark (1962). Obviamente, falo do cenário em que o processamento da EFS faz
algum sentido para nós, em que os desenvolvimentos da ciência cognitiva
produzem um vislumbre de entendimento nas complexas vidas mentais de
certos BISAs.

Conclusão

Argumentei que os membros das civilizações alienígenas mais avançadas serão


formas de inteligência artificial superinteligente (SAI). Sugeri ainda, muito
provisoriamente, que poderíamos esperar que se uma dada superinteligência
alienígena fosse uma alienígena superinteligente biologicamente inspirada
(BISA), ela teria representações combinatórias e que poderíamos buscar uma
compreensão do seu processamento decompondo suas funções computacionais
em interação causal peças. Também poderíamos aprender sobre isso
observando os diagramas de ligação cerebral (conectomos) dos membros da
espécie original. Além disso, os BISAs podem ter um ou mais espaços de
trabalho globais. E argumentei que, em princípio, não há razão para negar que
as ISC possam ter experiência consciente.

Notas

Muito obrigado a Joe Corabi, Steven Dick, Clay Ferris Naff e Eric Schwitzgebel
pelos comentários úteis por escrito sobre um rascunho anterior e a James
Flughes pela conversa útil.

1. Davies 2010, 160.


2. “Pós-biológico”, na literatura astrobiológica, contrasta com “pós-humano” na
literatura de singularidade. Na literatura astrobiológica, criaturas "pós-biológicas"
são formas de IA. Na literatura da singularidade, os "pós-humanos" podem ser
formas de

AI, mas eles não precisam ser. Eles são meramente criaturas descendentes de
humanos, mas que apresentam alterações que os tornam não mais
inequivocamente humanos. Eles não precisam ter uma IA completa.

3. Embora eu tenha argumentado em outro lugar que o upload criaria apenas


uma cópia da configuração do cérebro e não seria um verdadeiro meio de
sobrevivência, duvido que indivíduos moribundos ajam de acordo com os
escrúpulos de um filósofo quando têm pouco a perder tentando (Schneider 2014)
.

4. O naturalismo biológico foi desenvolvido originalmente por John Searle, que


desenvolveu a visão no contexto de um relato mais amplo da relação entre a
mente e o corpo. Vou não discutir esses detalhes, e eles não são essenciais para
a posição Acabei esboçado. De fato, não está claro que Searle ainda seja um
naturalista biológico, embora ele persista em chamar sua visão de "naturalismo
biológico". Em seu capítulo para meu recente Companheiro de Consciência
Blackwell, ele escreveu: "O fato de os processos cerebrais causarem
consciência não implica que apenas cérebros podem ser conscientes. O cérebro
é uma máquina biológica, e podemos construir uma máquina artificial que seja
consciente; assim como o coração é uma máquina, e construímos corações
artificiais . Como não sabemos exatamente como o cérebro faz isso, ainda não
estamos em condições de saber como fazê-lo artificialmente ”(Searle 2008).

5. Para um tratamento completo das respostas ao argumento de Searle,


incluindo a resposta do sistema, o leitor pode recorrer aos comentários que
aparecem na peça original de Searle (Searle, 1980), bem como em Cole 2014.

6. Ao longo de seu livro, Bostrom enfatiza que devemos ter em mente que a
superinteligência, sendo imprevisível e difícil de controlar, pode representar um
grave risco existencial para nossa espécie. Isso deve nos dar uma pausa no
contexto do alienígena contato como bem (Bostrom 2014).

Referências

Baars, B. 2008. "The Global Workspace Theory of Consciousness". Em Max


Velmans e Susan Schneider (orgs.), The Blackwell Companion to
Consciousness. Oxford: Wiley-Blackwell.

Blackmore, Susan. 2004. Consciência: Uma Introdução. Nova York: Oxford


University Press.
Block, N. 1995. "A mente como o software do cérebro". Em D. Osherson, L.
Gleitman, S. Kosslyn, E. Smith e S. Sternberg (eds.), Um convite à ciência
cognitiva (pp. 377-421). Nova York: MIT Press.

Bostrom, N. 2003. “As Perguntas Freqüentes Transhumanistas”: v 2.1.


Associação Transumanista Mundial . Recuperado em
http://transhumanism.org/index . php / WTA / faq /.

Bostrom, N. 2005. "History of Transhumanist Thought." Jornal de Evolução e


Tecnologia, 14 (1).

Bostrom, N. 2008. “Dignidade e aprimoramento.” No Conselho de Presidente em


Bioética, Dignidade Humana e Bioética: Ensaios encomendados pelo Conselho
de Presidente em Bioética, Washington, DC: Escritório de Impressão do Governo
dos EUA.

Bostrom, N. 2014. Superinteligência: Caminhos, Perigos, Estratégias. Oxford:


Oxford University Press.

Bradbury, R., Cirkovic, M. e Dvorsky, G. 2011. “Abordagem disoniana ao SETI:


Um jornal frutífero do meio termo da British Interplanetary Society, vol. 64, pp.
156-165.

Chalmers, D. 2008. "The Hard Problem of Consciousness". Em Max Velmans e


Susan Schneider (orgs.), The Blackwell Companion to Consciousness. Oxford:
Wiley-Blackwell.

Cirkovic, M. e Bradbury, R. 2006. "Gradientes galácticos, evolução pós-biológica


e a aparente falha do SETI", New Astronomy 11, 628-639.

Clarke, A. (1962). Perfis do futuro: uma investigação sobre os limites do possível.


Nova Iorque: Harper & Row.

Cole, David. 2014. “The Chinese Room Argument”. Em Edward N. Zalta (ed.),
The Stanford Encyclopedia of Philosophy (verão de 2014 edn). < http: // platão.
stanford.edu/archives/sum2014/entries/chinese-room/ >.

Davies, Paul. 2010. O silêncio misterioso: renovando nossa busca por


inteligência alienígena, Boston: Houghton Mifflin Harcourt.

Dennett, D. 1991. Consciousness Explained, Nova Iorque: Penguin Press.

Dick, S. 2013. “Trazendo a Cultura para o Cosmos: O Universo Pós-Biológico.”


Em Dick, S. e Lupisella, M. (eds.), Cosmos e Cultura: Evolução Cultural em um
Contexto Cósmico, Washington, DC, NASA. http://history.nasa.gov/SP-4802.pdf
Garreau, J. 2005. Evolução radical: a promessa e o perigo de melhorar nossas
mentes, nossos corpos - e o que significa ser humano, Nova York: Doubleday.

Guerini, Federico. 2014. “Projeto ElectRx da DARPA: órgãos de autocura através


da estimulação direcionada dos nervos”,
http://www.forbes.com/sites/federicoguerrini / 2014/08/29 / darpas-electrx-
project-self-healing-corpos revista forbes, estimulação dos nervos / forbes,
29/8/2014. Extraído em 30 de setembro de 2014.

Hawkins, J. e Blakeslee, S. 2004. Sobre inteligência: como um novo


entendimento do cérebro levará à criação de uma máquina verdadeiramente
inteligente. Nova York: Times Books.

Kurzweil, R. 2005. A singularidade está próxima: quando os seres humanos


transcendem a biologia. Nova York: Viking.

Miller, R. 1956. "O número mágico sete, mais ou menos dois: alguns limites à
nossa capacidade de processar informações", The Psychological Review, vol.
63, pp. 81-97.

Pigliucci, M. 2014. “Upload de Mentes: Uma Contra-Análise Filosófica”. Em R.


Blackford e D. Broderik (orgs.), Intelligence Unbound, Oxford: Wiley-Blackwell.

Sandberg, A. e Bostrom, N. 2008. “Emulação do Cérebro Inteiro: Um Roteiro”.


Relatório Técnico # 2008-3. Instituto do Futuro da Humanidade, Universidade de
Oxford.

Schneider, Susan, ed. 2009. Ficção científica e filosofia. Chichester: Wiley-


Blackwell.

Schneider, Susan. 2011a. “Mindscan: Transcending and Enhancing the Brain.”


Em James Giordano (ed.), Neurociência e Neuroética: Questões na Interseção
da Mente, Significados e Moralidade, Cambridge: Cambridge University Press.

Schneider, Susan. 2011b. A linguagem do pensamento: uma nova direção


filosófica. Boston: MIT Press.

Schneider, Susan. 2014. "The Philosophy of'Her", The New York Times, 2 de
março.

Searle, J. 1980. "Minds, Brains and Programs", The Behavioral and Brain
Sciences, 3: 417 ^ 57.
Searle, J. 2008. "Biological Naturalism". Em Max Velmans e Susan Schneider
(orgs.), The Blackwell Companion to Consciousness. Oxford: Wiley-Blackwell.

Seung, S. 2012. Connectome: Como a fiação do cérebro nos faz ser quem
somos. Boston: Houghton Mifflin Harcourt.

Shostak, S. 2009. Confissões de um caçador estrangeiro, Nova York: National


Geographic. Tonini, G. 2008. "The Information Integration Theory of
Consciousness". Em Max Velmans e Susan Schneider (orgs.), The Blackwell
Companion to Consciousness. Oxford: Wiley-Blackwell.

Parte IV

Questões éticas e políticas

Trabalhos relacionados

O corajoso jogo de Ender do Mundo Johnny Mnemonic Gattaca I, Robot


Terminator

2001: Uma Odisséia no Espaço

Mindscan

Autofac

Neuromancer

Planeta dos Macacos

Filhos dos homens

Mil novecentos e oitenta e quatro

Tocador de piano

Por um hálito, eu fico

Idade do diamante

245
260

18 O homem na lua George J. Annas

19 mentes podem: transcender e melhorar o cérebro humano Susan Schneider

20 O Argumento do Juízo Final John Leslie

21 A Última Pergunta Isaac Asimov

290.

22 “As três leis da robótica” e a metética das máquinas de Asimov Susan Leigh
Anderson

23 O Problema de Controle. Trechos da Superinteligência:

Caminhos, Perigos, Estratégias

Nick Bostrom

O homem da lua

George J. Annas

A genética não foi apenas a arena científica mais superaquecida da década


passada; também tem sido um campo de batalha febril para a bioética
americana. E nenhuma área suscitou tanta controvérsia quanto a perspectiva
especulativa da engenharia genética. Não podemos saber como será a vida
humana daqui a mil anos, mas podemos e devemos pensar seriamente sobre
como gostaríamos que fosse. O que é único sobre os seres humanos e sobre
ser humano; o que torna os humanos humanos? Que qualidades da espécie
humana devemos preservar para preservar a própria humanidade? Como seria
um "humano melhor"? Se as técnicas de engenharia genética funcionam,
existem qualidades humanas que devemos tentar moderar e outras que
devemos aprimorar? Se os direitos humanos e a dignidade humana dependem
de nossa natureza humana, podemos mudar nossa "humanidade" sem
comprometer nossa dignidade e nossos direitos? No início do terceiro milênio,
podemos começar nossa exploração dessas questões, analisando alguns dos
principais eventos e temas dos últimos mil anos na civilização ocidental e os
instintos humanos primitivos que ilustram.
Guerras santas

O segundo milênio começou com guerras santas: guerras locais, como a


Reconquista Espanhola para retomar a Espanha dos Mouros, e as Cruzadas
multinacionais mais amplas para tirar as Terras Sagradas dos muçulmanos que
eram

Detalhes da publicação original: "The Man on the Moon", George J. Annas, da


American Bioethics: Crossing Human Rights and Health Law Boundaries , Oxford
University Press, 2004, pp. 29-42. Com permissão da Oxford University Press.

Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley Sc Sons, Inc. Publicado 2016 por John Wiley Sc Sons, Inc.

ameaçando peregrinos cristãos lá. As grandes Cruzadas, que duraram quase


duzentos anos, foram travadas em nome de Deus com o grito de guerra, Deus
volt ("Deus quer"). O inimigo era o não crente, o infiel; matar o infiel se tornou um
ato sagrado. A capacidade de rotular um inimigo como “outro” e subumano, e
justificar a matança do “outro” em nome de Deus ou país, era uma característica
humana definidora ao longo de todo o milênio. Argumentarei mais tarde que essa
tendência genocida do milênio passado poderia levar ao genocídio em uma
escala ainda mais horrível se criarmos uma espécie humana nova ou "melhor"
(ou subespécie) por meio da engenharia genética.

Como os cruzados, Colombo procurou conquistar territórios habitados por infiéis,


em nome de Deus. Quando Colombo chegou ao "novo" mundo, que por engano
pensava ser parte da Índia, ele nomeou a ilha em que desembarcou "San
Salvador". Ele a reivindicou em nome da Igreja Católica e dos monarcas católicos
da Espanha. Nomear os europeus era emblemático da conquista. Tomar posse
pode ser simbolizado com uma bandeira ou mesmo uma cruz. Colombo, cujo
objetivo declarado também era converter os "selvagens" que habitavam o novo
mundo, escreveu em seu diário "em todas as regiões sempre deixei uma cruz
em pé" como uma marca do domínio cristão. A religião era a matéria de capa da
conquista. No entanto, o encontro de Colombo com os nativos americanos ou
"índios" resultou em sua subjugação impiedosa e destruição genocida.

Os conquistadores espanhóis que seguiram Colombo continuaram a usar a


religião católica e sua ausência no Novo Mundo como uma desculpa para
reivindicar a terra e conquistar seus habitantes. Em sua História da conquista do
México, de 1843 , William Prescott relata a crença européia de que o paganismo
era "um pecado a ser punido com fogo ... neste mundo e sofrimento eterno no
próximo". Prescott continua, "sob esse código. , o território dos pagãos, onde
quer que fosse encontrado [era perdido para a Santa Sé] e, como tal, era
entregue livremente pelo chefe da Igreja a qualquer potentado temporal a quem
quisesse que assumisse o ônus da conquista. ”Prescott parece ter tinham
alguma simpatia por Montezuma (o deus do sol) e pelos outros astecas mortos
pelos espanhóis em sua conquista, mas finalmente concluíram que os astecas
não mereciam ser considerados totalmente humanos: “Como pode uma nação,
onde os sacrifícios humanos prevalecem, e especialmente quando combinado
com o canibalismo, promove a marcha da civilização? ”

De maneira semelhante, Pizarro justificou sua conquista do Peru e a subjugação


dos incas, incluindo o seqüestro e o eventual assassinato de Atahuallpa,
alegando que era para a "glória de Deus" e trazer "à nossa santa fé católica um
número tão vasto de pagãos. ”Embora Deus fosse a matéria de capa, eles
também eram motivados pelo ouro. Em sua perseguição posterior a El Dorado,
a famosa cidade do ouro, após as conquistas de Cortes e Pizarro, no entanto,
nenhum dos outros conquistadores espanhóis conseguiu saquear a quantidade
de ouro que produziam.

As Cruzadas, a viagem de Colombo e as matanças dos conquistadores


espanhóis que se seguiram são exemplos poderosos de exploração e encontros
humanos com o desconhecido. Eles nos ensinam que o domínio do domínio
humano pode ser radicalmente ampliado pela imaginação e coragem humanas.
Igualmente importante: eles nos ensinam que, sem crer na dignidade e na
igualdade humanas, o custo desse domínio é a violação genocida dos direitos
humanos. Eles também nos advertem a suspeitar de motivos declarados e
reportagens de capa; embora cheios de zelo missionário, a maioria desses
aventureiros e exploradores buscava principalmente fama e fortuna.

Guerras Profanas

É claro que é muito mais fácil olhar para trás 500 anos do que 50 anos. No
entanto, a Segunda Guerra Mundial, os pousos na lua da Apollo e a perspectiva
da engenharia genética humana levantam a maioria das questões importantes
que enfrentamos no novo milênio na definição de responsabilidades humanas,
direitos humanos e ciência. O pós-modernismo pode ser datado de qualquer um
deles, e cada um tem suas próprias lições e precauções. Muitos estudiosos
datam do pós-modernismo de Hiroshima e do Holocausto, um aniquilação
instantânea e o outro sistemático. Juntas, a aplicação de técnicas industriais ao
abate humano representa a morte do sonho de nossa civilização de progresso
moral e científico que caracterizou a era moderna. A era nuclear é muito mais
ambígua e incerta. Agora adoramos a ciência como a nova religião da sociedade,
pois a busca pela vida eterna com Deus é substituída por nossa nova cruzada
pela imortalidade na Terra.

O movimento moderno dos direitos humanos nasceu do sangue da Segunda


Guerra Mundial e da morte da lei positiva, que acredita que a única lei que
importa é a promulgada por um governo legítimo, incluindo o governo nazista. O
julgamento multinacional dos criminosos de guerra nazistas em Nuremberg após
a Segunda Guerra Mundial foi realizado com a premissa de que existe uma lei
universal da humanidade e que aqueles que a violam podem ser julgados e
punidos adequadamente. Direito penal universal, lei que se aplica a todos os
seres humanos e protege todos os seres humanos, proscreve crimes contra a
humanidade, incluindo genocídio, assassinato, tortura e escravidão sancionados
pelo Estado. Obedecer às leis de um país em particular ou às ordens dos
superiores não é uma defesa.

As cruzadas também ecoaram na Segunda Guerra Mundial. O general Dwight


Eisenhower intitulou seu relato da Cruzada da Segunda Guerra Mundial na
Europa, e sua ordem do dia para a invasão do Dia D dizia: “Soldados,
marinheiros e aviadores das forças expedicionárias aliadas, você está prestes a
embarcar em uma grande cruzada ... as esperanças e orações das pessoas que
amam a liberdade em todos os lugares marcham com você. ”E, como nas
cruzadas e na conquista das Américas, para justificar o massacre humano da
Segunda Guerra Mundial, o inimigo teve que ser desumanizado. No lado aliado,
a língua mais desumanizadora foi dada aos japoneses:

Entre os Aliados, os japoneses também eram conhecidos como "chacais" ou


"homens-macaco" ou "sub-humanos", o termo usado pelos alemães para russos,
poloneses e eslavos variados, justificando amplamente sua vivissecção ... Jap .
.. foi uma ferramenta rápida e monossílaba para slogans como “Rap the Jap” ou
“Let's Blast the Jap Clean Off the Map”, a última profecia virtual de Hiroshima.

As Nações Unidas foram formadas para impedir novas guerras e com a premissa
de que todos os seres humanos têm dignidade e têm direito a direitos iguais. A
ciência e a medicina estiveram sob investigação específica no "Julgamento dos
Médicos" de 1946-47 de 23 médicos-pesquisadores nazistas. As experiências
nazistas envolveram assassinato e tortura, atos sistemáticos e bárbaros, com a
morte como o ponto final planejado. Os sujeitos dessas experiências, que
incluíam congelamento letal e experiências em grandes altitudes, eram
prisioneiros de campos de concentração, principalmente judeus, ciganos e
eslavos, pessoas que os nazistas viam como sub-humanos. Com ecos da
conquista das Américas, a filosofia nazista foi fundada na crença de que os
alemães eram uma "raça superior" cujo destino era subjugar e governar as raças
inferiores. Uma parte central do projeto nazista era a eugenia, a tentativa de
melhorar as espécies, principalmente pela eliminação de pessoas "inferiores", os
chamados comedores inúteis. Em seu julgamento final, o tribunal articulou o que
hoje conhecemos como o Código de Nuremberg, que continua sendo o
documento legal e ético mais autorizado que rege os padrões internacionais de
pesquisa e requer o consentimento informado de todos os sujeitos da pesquisa.
É um dos principais documentos de direitos humanos da história mundial e a
principal contribuição da bioética americana para a comunidade internacional até
o momento.

Os julgamentos em Nuremberg logo foram seguidos pela adoção da Declaração


Universal dos Direitos Humanos em 1948, que é, como discutido anteriormente,
o mais importante documento sobre direitos humanos até o momento. Seguiu-
se dois tratados, o Pacto sobre Direitos Civis e Políticos e o Pacto sobre Direitos
Econômicos, Sociais e Culturais. A Declaração Universal dos Direitos Humanos
e os dois tratados representam um marco para a humanidade: o reconhecimento
de que os direitos humanos são baseados na dignidade humana e que a
dignidade humana é compartilhada por todos os membros da raça humana, sem
distinções de raça, religião ou origem nacional. .

O homem da lua

A exploração mais espetacular do século XX foi a viagem da Apollo 11 à


superfície da lua e o retorno seguro de sua tripulação. As palavras de Neil
Armstrong ao pisar na lua pareciam corretas: “Um pequeno passo para [um]
homem, um salto gigante para a humanidade [sic].” Embora a corrida para a lua
tenha mais a ver com a política da guerra fria do que a ciência, foi, no entanto,
uma realização de engenharia quase mágica. E, como Columbus, a história se
lembrará de Armstrong porque ele foi o primeiro a pôr os pés na lua.

Os Estados Unidos estavam dispostos a fazer grandes esforços para garantir


que o primeiro homem na lua fosse americano e colocasse uma bandeira
americana na lua. No entanto, havia restrições de direitos humanos mesmo
nesse experimento. O presidente John Kennedy, por exemplo, estabeleceu
como objetivo dos Estados Unidos pousar um homem na lua "e devolvê-lo em
segurança à Terra". Colocando os valores humanos em segundo lugar em
vencer uma corrida com os russos, aterrissando um homem na lua sem um plano
claro para devolvê-lo à Terra foi rejeitado.

Os Estados Unidos não conquistaram explicitamente a lua para a glória de Deus,


mas Deus estava nas mentes dos conquistadores montando em uma
espaçonave denominada Apollo, o deus do sol. Algumas das declarações
religiosas mais explícitas foram feitas pelo designer de foguetes Werner Von
Braun, que havia sido oficial da SS nazista e criador dos destruidores de foguetes
V2 que os alemães jogaram na Inglaterra perto do final da Segunda Guerra
Mundial. Von Braun foi capturado pelos Estados Unidos e "higienizado" para
trabalhar na propulsão de foguetes, eventualmente liderando o esforço da NASA
. Um dia antes da Apollo 11 decolar, ele explicou as razões para colocar um
homem na lua: “Estamos expandindo a mente do homem. Estamos estendendo
esse cérebro dado por Deus e essas mãos dadas por Deus até seus limites mais
externos e, ao fazê-lo, toda a humanidade se beneficiará. Toda a humanidade
colherá a colheita ... ”O zelo missionário dos cruzados e conquistadores devia
ecoar na lua.

Norman Mailer, em sua crônica da aterrissagem lunar De um incêndio na lua, faz


uma pergunta central: “A viagem da Apollo 11 foi a expressão mais nobre da era
tecnológica ou a melhor evidência de sua insanidade total? ... são
testemunhamos grandeza ou loucura? ”Hoje, nenhum dos extremos parece
certo. As rochas da lua retornadas à Terra eram apenas um símbolo pobre da
viagem, mas as fotos da Terra tiradas do espaço tiveram um impacto profundo
em nossa consciência global, se não em nossa consciência global, e ajudaram
a energizar o movimento mundial de proteção ambiental. É muito mais difícil
negar nossa humanidade comum quando todos podemos ver nosso lar comum.
Agora sabemos que os russos nunca foram sérios desafiadores na corrida lunar
e que a perspectiva dos Estados Unidos após o pouso na Lua com um esforço
sério na exploração espacial foi exagerada. Nossa perda de encantamento, e até
interesse, na lua foi capturada por Gene Cernam, o último dos 12 astronautas a
pousar na lua, quando ele disse, enquanto disparava sua superfície: "Vamos tirar
essa mãe daqui". O pouso na lua era principalmente sobre comércio e política,
não paz e harmonia. Como observa o historiador Walter McDougall em seu livro
The Heavens and the Earth, embora a placa que colocamos na lua dizia "Viemos
em paz para toda a humanidade", a paz não era o objetivo da missão. Ele tinha
algo a ver com ciência e orgulho nacional, mas ele argumenta: “Principalmente
era sobre satélites de espionagem e comsats e outros sistemas orbitais para fins
militares e militares.

vantagem comercial. ”Metas militares e comerciais continuam a dominar o


espaço sideral, assim como fizeram com os conquistadores. E mesmo que a
exploração espacial tripulada tenha sido relegada novamente ao reino da ficção
científica, o pouso na lua continua sendo o feito científico e de engenharia com
o qual aqueles que aspiram a inovar comparam seus esforços.

É no domínio da ficção científica que se vê a maior parte das especulações


importantes sobre a situação humana e o futuro da humanidade. Foi Jorge Luis
Borges, por exemplo, quem primeiro sugeriu que os humanos poderiam se tornar
imortais se estivessem dispostos a ter todas as suas funções corporais
desempenhadas por máquinas. Os seres humanos poderiam entrar no mundo
do pensamento puro fazendo com que seus cérebros habitassem uma peça de
mobília "semelhante a um cubo". No pesadelo idealizado por Borges, a cirurgia
moderna e as peças de reposição mecânicas poderiam trazer um tipo de
imortalidade para a humanidade, não como atores imortais, mas como
testemunhas imortais.

Arthur Clarke, em 2001: A Space Odyssey, sugere que a evolução humana pode
se mover em uma direção diferente: em direção ao desenvolvimento de uma
mente computadorizada encapsulada em um corpo metálico como um espaço,
vagando eternamente pela galáxia em busca de novas sensações. O preço da
imortalidade humana, nessa visão, é a erradicação do corpo humano e da mente
humana, sendo o primeiro substituído por um contêiner artificial à prova de
destruição e o segundo por um programa de computador infinitamente replicável.
É claro que o corpo indestrutível de um robô habitado por um chip de memória
digitalizado não seria humano no sentido em que o conhecemos hoje, e os
direitos dessa assembléia provavelmente estariam mais na ordem dos direitos
dos robôs do que nos seres humanos contemporâneos.

Poderíamos usar nossa tecnologia para explorar o espaço sideral com esses
robôs, mas nosso fascínio atual está focado no espaço interior. Em vez de
expandir nossas mentes e nossas perspectivas como espécie, ponderando os
mistérios do espaço sideral com suas possibilidades de outras formas de vida,
estamos nos voltando para dentro e nos contemplando no nível microscópico. A
nova biologia, talvez melhor descrita como a nova genética ou a "era da
genética", sugere uma imortalidade baseada na biologia para um cérebro digital
em um corpo de metal e plástico: mudando e "aprimorando" nossas capacidades
humanas alterando nossos genes em o nível molecular. Ou, como James
Watson, o descobridor de códigos da estrutura do DNA, disse: "Costumávamos
pensar que nosso futuro estava em nossas estrelas, agora sabemos que nosso
futuro está em nossos genes".

Engenharia genética

Como a exploração espacial, o trabalho em genética humana é dominado por


agências governamentais e interesses comerciais. Ocorrendo à sombra de
Hiroshima e sob a ameaça sempre presente de suicídio de espécies por
aniquilação nuclear, a pesquisa genética pode ser vista como uma tentativa da
ciência de se redimir, de trazer o “presente” da imortalidade a uma espécie cuja
própria existência existe. colocou em risco. O objetivo científico (e comercial) é
descaradamente vencer a morte projetando o humano imortal. Como declarou o
chefe da Human Genome Sciences, “A morte é uma série de doenças evitáveis”.
Estratégias básicas para construir um “ser humano melhor” são sugeridas por
dois experimentos genéticos: clonar ovelhas e criar um rato mais inteligente.

Em 1997, o embriologista Ian Wilmut anunciou que ele e seus colegas haviam
clonado uma ovelha, criando um gêmeo genético de um animal adulto ao
reprogramar uma de suas células somáticas para atuar como o núcleo de um
ovo enucleado. Ele chamou o cordeiro clonado Dolly. Um debate internacional
sobre a proibição da clonagem de humanos começou imediatamente e
continuou. O "criador" de Dolly, Wilmut, sempre argumentou que sua técnica de
clonagem não deveria ser aplicada aos seres humanos para reprodução. Ele não
usou a literatura para reforçar seu argumento, mas conseguiu.

Um repórter que descreveu Wilmut como o "pai do laboratório de Dolly", por


exemplo, não poderia ter imaginado imagens de Frankenstein de Mary Shelley
melhor se ele tentasse. Frankenstein também era o pai-deus de sua criatura; a
criatura diz a ele: “Eu deveria ser teu Adão.” Como Dolly, a “centelha da vida” foi
infundida na criatura por corrente elétrica. Ao contrário de Dolly, a criatura de
Frankenstein foi criada totalmente crescida (não é uma possibilidade de
clonagem) e queria mais do que criatura. Ele queria um companheiro de sua
"espécie" com quem viver e se reproduzir. Relutantemente, Frankenstein
concordou em fabricar uma companheira se a criatura concordasse em deixar a
humanidade em paz. Mas, no final, Frankenstein destrói cruelmente a
companheira de criatura, concluindo que ele não tem o direito de infligir os filhos
desse par, "uma raça de demônios", a "gerações eternas". Frankenstein
finalmente reconheceu sua responsabilidade para com a humanidade e Shelley.
O grande romance explora quase todos os elementos não comerciais do debate
de clonagem de hoje.

A nomeação do primeiro mamífero clonado do mundo, como o de San Salvador


e a espaçonave Apollo, é reveladora. O único sobrevivente de 277 embriões
clonados (ou "dísticos fundidos"), o clone poderia ter o nome de sua sequência
nesse grupo (por exemplo, 6LL3), mas isso apenas enfatizaria seu caráter como
produto. Em forte contraste, o nome Dolly sugere um indivíduo único. Victor
Frankenstein, é claro, nunca nomeou sua criatura, repudiando assim qualquer
responsabilidade dos pais. Ao nomear o primeiro clone de mamíferos do mundo,
Dolly, Wilmut aceitou a responsabilidade por ela.

A clonagem é replicação e, como tal, tem pouca atração ou interesse pelas


pessoas que desejam ter filhos. Muitos de nós queremos que nossos filhos
tenham uma vida melhor do que a nossa, não apenas para duplicar a nossa,
mesmo geneticamente. É por isso que experimentos de engenharia genética que
prometem crianças “melhores” (e melhores seres humanos) são muito mais
importantes para o futuro da humanidade. Em 1999, por exemplo, o cientista de
Princeton Joe Tsien anunciou que havia usado técnicas de engenharia genética
para criar ratos que tinham melhores memórias e, portanto, podiam aprender
mais rápido do que outros ratos; eles eram "mais espertos". Tsien está
convencido de que, se suas descobertas puderem ser aplicáveis aos seres
humanos, todos quererão usar a engenharia genética para ter bebês mais
espertos. Nas suas palavras: "Todo mundo quer ser esperto".

Apropriando-se da metáfora da aterrissagem na lua, Tsien disse sobre seus ratos


geneticamente modificados (ele nomeou a linhagem Doogie em homenagem ao
médico fictício menino gênio da TV): A questão fundamental é: 'Este é um passo
gigantesco para a humanidade?' ”Tsien também sugeriu que seu trabalho é
muito mais importante que a clonagem, porque uma duplicata genética não
acrescenta nada de novo ao mundo. Seu ponto de vista é bem aceito. A
possibilidade de aplicar técnicas de engenharia genética a seres humanos com
o objetivo de tornar humanos mais inteligentes, mais fortes, mais felizes, mais
bonitos ou com vida mais longa simultaneamente levanta todas as perguntas
que eu fiz no início deste capítulo: o que significa ser humano e que mudanças
na “humanidade” resultariam em seres humanos melhores (ou uma nova espécie
completamente)?

No mundo da engenharia genética, nossos filhos se tornariam produtos de nossa


própria fabricação. Como produtos, eles estariam sujeitos a controle de
qualidade e melhorias, incluindo destruição e substituição, se fossem
"defeituosos". Poderíamos construir uma nova eugenia baseada não em uma
visão hitleriana corrupta de nossos semelhantes, mas em um sonho utópico de
como deve ser uma criança ideal. Realmente queremos o que parecemos
querer? Tsien está correto, por exemplo, em afirmar que todos gostariam de ter
uma memória melhor?

Elie Wiesel, a testemunha mais eloquente do Holocausto, dedicou à memória o


trabalho de sua vida, tentando garantir que o mundo não possa esquecer os
horrores do Holocausto, para que não se repitam. Esse também era o objetivo
principal da acusação e dos juízes do Tribunal Militar Internacional de
Nuremberg. Os crimes contra a humanidade cometidos durante a Segunda
Guerra Mundial tiveram que ser lembrados. Como o promotor-chefe da Justiça,
Robert Jackson, colocou ao tribunal: "Os erros que procuramos condenar e punir
foram tão calculados, tão malignos e tão devastadores que a civilização não
pode tolerar que sejam ignorados porque não pode sobreviver à repetição".
Obviamente, não é apenas a própria memória que importa, mas a memória da
informação mantém e o que os humanos fazem com essa informação. Temos,
por exemplo, mais e mais informações sobre nossos genes todos os dias. Dizem-
nos que os cientistas em breve serão capazes de entender a vida no nível
molecular. Mas, ao perseguir esse objetivo, perdemos toda a perspectiva. Não
vivemos a vida no nível molecular, mas como pessoas plenas. Nunca seremos
capazes de entender a vida (ou como ela deve ser vivida, ou o que significa ser
humano), explorando ou compreendendo nossas vidas ou nossos corpos nos
níveis molecular, atômico ou subatômico.

Ovelhas clonadas vivem em uma caneta e os ratos de laboratório são confinados


em um ambiente controlado. A ciência agora parece agir como se o objetivo da
humanidade fosse um mundo de contentamento e contenção em massa, um
zoológico humano do tamanho da terra no qual todo homem, mulher e criança
tem todos os "genes inteligentes" que podemos fornecer, é alimentado com os
alimentos mais nutritivos , é protegido de todas as doenças evitáveis, vive em
um ambiente limpo e filtrado por ar e recebe medicamentos suficientes para
alterar a mente para estar em constante estado de felicidade, até euforia. E essa
vida feliz, que Borges imaginava horrorizada, poderia se estender por centenas
de anos, pelo menos se não houvesse mais vida do que um corpo perfeitamente
projetado, uma mente contente e uma imortalidade virtual. O bioeticista Leon
Kass colocou isso bem no contexto da engenharia genética (mas ele também
poderia estar falando de Columbus): “Embora bem equipados, não sabemos
quem somos ou para onde estamos indo.” Literalmente, não sabemos o que
fazer de nós mesmos. Os seres humanos devem informar a ciência; a ciência
não pode informar (ou definir) a humanidade. A novidade não é progresso, e a
técnica não pode substituir o significado e o propósito da vida.

Em direção ao pós-humano

Enquanto tentamos tomar a evolução humana em nossas próprias mãos, não


são os astecas ou os nazistas que planejamos conquistar em seguida. O
território que reivindicamos agora é o nosso próprio corpo. Reivindicamos em
nome do novo direito eugênico de todo ser humano fazer com seu corpo o que
ele ou ela escolhe. No entanto, a breve história de nossa espécie adverte que
existem limites para nosso conhecimento e nossas reivindicações de domínio.
Cortés poderia racionalizar sua subjugação dos astecas porque, entre outras
coisas, eles se envolveram em sacrifício humano e canibalismo. Com a
experimentação humana, como o transplante de um coração de um babuíno para
Baby Fae, fizemos do sacrifício humano uma arte (embora em nome da ciência,
e não de Deus), e com o transplante de órgãos, domamos o canibalismo. O
homem pós-moderno não aceita limites, não tabus.

Se a humanidade sobreviver outros 1000 anos, como será o humano do ano


3000? Com mais de três quartos da Terra cobertos por água, a adição de
brânquias, por exemplo, seria um aprimoramento ou uma deformidade? Uma
criança seria criada com brânquias para exploração subaquática ou para uma
apresentação de circo? Quão alto é muito alto? Você pode ser inteligente demais
para o seu próprio bem? Se continuarmos ignorando a poluição contínua de
nosso meio ambiente, talvez o ser humano melhorado possa respirar ar poluído
e sobreviver com lixo. À medida que esgotamos nossas fontes de energia, talvez
o ser humano aprimorado deva ter uma roda biônica para substituir nossas
pernas para uma mobilidade mais eficiente. Ou talvez devêssemos tentar criar
asas para voar. Como sociedade, permitiremos que cientistas individuais
experimentem um ou todos esses experimentos com seres humanos, ou
podemos aprender com as conseqüências imprevistas da conquista e da guerra
que os humanos estão melhor quando pensam antes de agir e agem
democraticamente quando a ação pode ter um impacto profundo em todos os
membros da nossa espécie?

Foi para impedir a guerra que as Nações Unidas foram formadas e para
responsabilizar as pessoas por crimes contra a humanidade, como assassinato,
tortura, escravidão e genocídio, que o Tribunal Penal Internacional foi
estabelecido. É claro que ainda são cometidos crimes patrocinados pelo Estado
contra a humanidade. Mas o mundo não ignora mais os direitos dos povos que
no início do século simplesmente seriam designados "não civilizados" ou
considerados subumanos. Se nós humanos sermos os donos de nosso próprio
destino e não simplesmente produtos de nossas novas tecnologias (um grande
"se"), precisaremos criar instituições internacionais mais resistentes que as
Nações Unidas e o Tribunal Penal Internacional para ajudar a canalizar e
controlar nossos novos poderes e para proteger os direitos humanos básicos. É
provável que a dignidade e a igualdade humanas sejam seguras se a ciência
prestar contas às instituições democráticas e transparente o suficiente para que
a deliberação internacional possa ocorrer antes que experimentos irrevogáveis
para pôr em risco espécies sejam conduzidos.

Fora do campo da criação e produção de armas de destruição em massa, a


ciência não é uma atividade criminosa e a clonagem humana e a engenharia
genética não se encaixam confortavelmente na categoria de crimes contra a
humanidade. Além disso, diante do Holocausto e das armas nucleares, a
engenharia genética parece quase benigna. Mas isso é enganoso porque a
engenharia genética tem a capacidade de mudar o significado do que é ser
humano. Existem limites para o quão longe podemos mudar nossa natureza sem
mudar nossa humanidade e nossos valores humanos básicos. Como é o
significado da humanidade (nossa distinção dos outros animais) que deu origem
aos nossos conceitos de dignidade humana e direitos humanos, alterar nossa
natureza ameaça minar nossos conceitos de dignidade humana e direitos
humanos. Com a perda, a crença fundamental na igualdade humana também
seria perdida. Certamente, sabemos que os ricos estão muito melhor que os
pobres e que a verdadeira igualdade exigirá redistribuição de renda. No entanto,
os ricos podem não escravizar, torturar ou matar até os humanos mais pobres
do planeta. Da mesma forma, é uma premissa fundamental da democracia que
todos os seres humanos, mesmo os pobres, tenham voz para determinar o futuro
de nossa espécie e de nosso planeta.

Os direitos humanos e a democracia universais, baseados na dignidade


humana, podem sobreviver à engenharia genética humana? Sem objetivos
claros, o mercado definirá o que é um humano melhor. O marketing e a
publicidade em massa nos incentivarão a seguir alguns ideais construídos
culturalmente, em vez de celebrar as diferenças. Esta é pelo menos uma das
principais lições aprendidas na indústria de cirurgia plástica: quase todos os
pacientes-clientes desejam ser reconstruídos para parecer normais ou
remodelados para parecer mais jovens. Deveria, pelo menos, dar uma pausa na
ciência (e na sociedade) que busca a imortalidade: quanto mais a vida humana
aumenta, mais as sociedades humanas desvalorizam e marginalizam os idosos,
idolatram e procuram imitar os corpos dos jovens.

O novo humano ideal, o humano "superior" geneticamente modificado, quase


certamente representará o "outro". Se a história é um guia, os humanos normais
verão os humanos "melhores" como o outro e tentarão controlar ou destruir eles,
ou vice-versa. O humano melhor se tornará, pelo menos na ausência de um
conceito universal de dignidade humana, ou o opressor ou o oprimido. Em
resumo, como HG Wells deixou claro em seu Vale dos Cegos, é simplesmente
falso que todo "aprimoramento" da capacidade humana seja universalmente
elogiado: no vale dos cegos, os olhos que funcionavam eram considerados uma
deformidade a ser eliminada cirurgicamente para que a pessoa com visão seja
como todo mundo. Em The Time Machine Wells se imaginou a divisão dos seres
humanos em duas espécies separadas e hostis, nem qualquer melhoria sobre
os seres humanos existentes.

Por fim, é quase inevitável que a engenharia genética mova o Homo sapiens
para se transformar em duas espécies separáveis: os seres humanos de caráter
padrão serão como os selvagens das Américas pré-colombianas e serão vistos
pelos novos pós-humanos geneticamente aprimorados como pagãos que podem
ser adequadamente abatidos e subjugados. É esse potencial genocida que faz
de alguns projetos de engenharia genética que alteram espécies armas
potencialmente perigosas de destruição em massa, e o engenheiro genético
inexplicável um potencial bioterrorista. A ciência não pode nos salvar de nossa
desumanidade uns com os outros, apenas pode tornar nossas tendências
destrutivas mais eficientes e mais bestiais. A ciência e a opressão podem, de
fato, andar de mãos dadas. Como o historiador Robert Proctor colocou ao
concluir seu estudo de saúde pública no Terceiro Reich, "a prática rotineira da
ciência pode coexistir tão facilmente com o exercício rotineiro de crueldade".

Novas Cruzadas

Embora nós, humanos, não tenhamos conquistado a morte, inventamos uma


criatura imortal: a corporação. A corporação é uma ficção legal dotada por lei de
vida eterna (e responsabilidade limitada). Essa criatura, como o monstro de
Frankenstein, assumiu poderes não previstos ou controláveis por seu criador.
Em sua forma contemporânea, a corporação tornou-se transnacional e, portanto,
sob o controle de nenhum governo, democrático ou não. Não jura lealdade a
nada e não conhece limites em sua busca de crescimento e lucro. E, assim como
a coroa espanhola, tem sua própria matéria de capa. As empresas, pelo menos
as ciências da vida e as empresas de biotecnologia, buscam lucros não por si
mesmos, de acordo com suas matérias de capa, mas fazem pesquisas
científicas para o bem da humanidade. Alguns no mundo corporativo das
ciências da vida agora procuram criar não apenas plantas e animais melhores,
mas também seres humanos melhores. A fazenda de animais de Orwell , onde
"todos os animais são iguais, mas alguns são mais iguais que outros", agora
parece muito mais provável de ser trazida até nós pelas empresas de ciências
da vida do que pelas ditaduras totalitárias. O escritor de ficção científica Michael
Crichton primeiro pareceu notar que "a comercialização da biologia molecular é
o evento ético mais impressionante da história da ciência, e isso aconteceu com
uma velocidade espantosa".

A cruzada da ciência não busca mais a vida eterna com Deus, mas a vida eterna
na terra. Ao decodificar o genoma humano, a religião é novamente a matéria de
capa, já que os cientistas falam do genoma como o "livro do homem" [ sic \ e o
"santo graal" da biologia. Mas ainda é ouro e glória que esses exploradores
modernos, patrocinados por empresas, buscam. Como há dinheiro a ser ganho
com isso, o redesenho corporativo dos seres humanos é inevitável na ausência
do que Vaclav Havel chamou de “uma transformação do espírito e do
relacionamento humano com a vida e o mundo”. Havel observou que o novo A
"ditadura do dinheiro" substituiu o totalitarismo, mas é igualmente capaz de minar
a vida de seu significado com suas "obsessões materialistas", o "florescimento
do egoísmo" e sua necessidade de "fugir da responsabilidade pessoal". Sem
responsabilidade, nosso futuro é sombrio. . Como a busca fracassada dos
conquistadores espanhóis por El Dorado, nossa busca por mais e mais dinheiro
fracassará. A imortalidade sem propósito também é oca. Nas palavras de Havel,
“o único tipo de política que faz sentido é uma política que cresce a partir do
imperativo e da necessidade de viver como todos devem viver e, portanto, de
maneira dramática, assumir a responsabilidade por todo o mundo . ”

Assumir a responsabilidade pelo mundo inteiro pode parecer excessivo, mas até
Frankenstein o reconheceria como correto. Isso nos lembra o mantra do
movimento ambiental: “pense globalmente, aja localmente” e torne cada um de
nós responsável por todos nós. Como podemos, cidadãos do mundo, recuperar
algum controle sobre a ciência e a indústria que ameaça alterar nossa espécie e
o próprio significado de nossas vidas? Não será fácil e, dada a natureza
consistentemente brutal de nossa espécie, talvez não merecemos sobreviver.
No entanto, a rejeição mundial da perspectiva de clonagem para criar uma
criança fornece alguma esperança de que nossa espécie não esteja
inerentemente condenada. Somente a bioética é uma palheta muito fraca sobre
a qual construir um movimento internacional: a linguagem dos direitos humanos
é mais poderosa e tem maior aplicabilidade. Isso ocorre porque não é apenas a
prática médica e científica que está em jogo, mas a natureza da humanidade e
os direitos dos seres humanos. Obviamente, como os pesquisadores médicos
serão pioneiros em todos os experimentos relevantes, a bioética permanece
essencial, mesmo que não seja determinante. Deixe-me concluir este capítulo
com algumas sugestões modestas.

No nível nacional, eu pedi anteriormente uma moratória nas experiências de


transferência de genes. Isso não aconteceu, mas a reavaliação mundial dos
experimentos de transferência de genes torna essa moratória menos necessária.
No entanto, ainda precisamos garantir que todos os experimentos de
transferência de genes humanos, que são mais comumente (e incorretamente)
referidos como "terapia genética", sejam realizados com total conhecimento e
transparência do público. Um debate nacional sobre os objetivos da pesquisa e
se as linhas entre pesquisa de células somáticas e linha germinativa ou entre
pesquisa de tratamento e aprimoramento são significativas devem continuar com
mais envolvimento do público. Minha opinião é de que a linha de fronteira que
realmente importa é estabelecida pela própria espécie e que experimentos que
colocam em risco a espécie devem ser proibidos.

Podemos tomar algumas ações em nível nacional, mas também precisamos de


regras internacionais sobre a nova ciência, incluindo não apenas a clonagem e
a engenharia genética, mas também os ciborgues de máquinas humanas,
xenoenxertos e alterações cerebrais. Tudo isso poderia se encaixar em uma
nova categoria de "crimes contra a humanidade", no sentido estrito, ações que
ameaçam a integridade da própria espécie humana. Isso não quer dizer que
mudar a natureza da humanidade seja sempre criminoso, apenas que nenhum
cientista individual (ou corporação ou país) tem a garantia social ou moral de pôr
em risco a humanidade, incluindo a alteração dos seres humanos de maneira a
pôr em risco a espécie. A realização de experimentos que ameaçam as espécies
na ausência de mandado social, desenvolvido democraticamente, pode ser
adequadamente considerada um ato terrorista. Os xenoenxertos, por exemplo,
correm o risco de liberar um novo vírus letal sobre a humanidade. Nenhum
cientista ou empresa individual tem a garantia moral de arriscar isso. Alterar a
espécie humana de maneira previsível, deve exigir uma discussão e debate
mundial, seguido de uma votação em uma instituição representativa da
população mundial, sendo as Nações Unidas a única entidade hoje. Também
deve exigir uma discussão profunda e abrangente do nosso futuro e que tipo de
pessoas queremos ser, que tipo de mundo queremos viver e como podemos
proteger os direitos humanos universais com base na dignidade humana e nos
princípios democráticos.

É necessário um tratado internacional que proíba atividades específicas de risco


de espécies para tornar esse sistema eficaz. Naturalmente, isso implica duas
perguntas. Primeiro, exatamente que tipos de experimentos com seres humanos
devem ser proibidos? Segundo, o que exatamente é o regime internacional
proposto? Quanto ao primeiro, a definição geral poderia abranger todas as
intervenções experimentais destinadas a alterar uma característica fundamental
do ser humano. Existem pelo menos duas maneiras de alterar essas
características. O primeiro é tornar opcional uma característica humana. Mudá-
lo em um membro (que continua sendo visto como um membro da espécie)
mudaria a definição de espécie para todos. Um exemplo é a clonagem de
replicação assexuada. Quando um humano se envolve com sucesso na
clonagem de replicação, a reprodução sexual não será mais uma característica
necessária do ser humano. Todos os seres humanos serão capazes de
replicação assexuada. Isso será importante para todos os seres humanos,
porque não são apenas nossos cérebros e o que podemos fazer com eles (como
desenvolver linguagem e antecipar nossas mortes) que nos tornam humanos,
mas também a interação de nossos cérebros com nossos corpos.
Uma segunda maneira de mudar uma característica de ser humano seria
qualquer alteração que tornaria a pessoa resultante alguém que o Homo sapiens
deixaria de identificar como membro de nossa espécie ou que não poderia se
reproduzir sexualmente com um ser humano. Os exemplos incluem a inserção
de um cromossomo artificial que tornaria a reprodução sexual impossível, além
de alterar fisicamente a estrutura básica do cérebro e do corpo (por exemplo,
número de braços, pernas, olhos etc.) e, é claro, a adição de novos apêndices,
como asas ou novos órgãos funcionais, como guelras). Isso é importante porque
a pessoa resultante provavelmente seria vista como uma nova espécie ou
subespécie de seres humanos e, portanto, não necessariamente possuidora de
todos os direitos humanos.

Os experimentos de engenharia genética que não visam mudar a natureza das


espécies ou colocar a pessoa resultante fora da definição de Homo sapiens
(como aqueles destinados a melhorar a memória, imunidade, força e outras
características que alguns seres humanos existentes têm) também devem ser
sujeitos supervisão internacional. Além disso, acho que nenhum deles deve ser
realizado em crianças, fetos ou embriões. Isso se deve ao perigo físico e
psicológico inerente às crianças (e ao perigo geral que elas representam para as
crianças de tratá-las como produtos manufaturados) e porque existem maneiras
alternativas, educacionais, baseadas em exercícios, médicas e cirúrgicas
alternativas, menos perigosas de alcançar esses objetivos. Os pais
simplesmente não devem ser capazes de dominar seus filhos dessa maneira: o
que pode ser considerado liberdade para um adulto é a tirania quando forçada à
próxima geração. Não incluídas seriam intervenções celulares somáticas
destinadas a curar ou prevenir doenças, embora eu acredite que devam ser
reguladas em âmbito nacional. Um caso intermediário pode ser a adição de um
gene artificial a um embrião que não poderia ser ativado até a idade adulta - e
somente pelo indivíduo. Provar que tal intervenção é segura pode, no entanto,
ser um problema intransponível.

Para ser eficaz, um tratado de “proteção de espécies humanas” teria que


descrever e autorizar um mecanismo de supervisão e aplicação. O órgão para
fazer cumprir o tratado deve ser uma agência administrativa internacional com
autoridade de decisão e de decisão. O processo de elaboração de regras
desenvolveria e promulgaria as regras básicas para experimentos em risco de
espécies. A autoridade adjuvante seria necessária para determinar se e quando
as solicitações dos pesquisadores para realizar experimentos potencialmente
ameaçadores de espécies seriam aprovadas e para determinar se indivíduos
haviam violado os termos do tratado. A agência que imagino não teria jurisdição
criminal, mas poderia encaminhar os casos ao Tribunal Penal Internacional.

A elaboração e promulgação de tal tratado, mesmo iniciando o processo, é uma


tarefa não trivial e exigirá um esforço sustentado. Enquanto isso, governos,
empresas e associações profissionais individuais podem declarar experiências
potencialmente ameaçadoras de espécies fora dos limites. Tal ação levaria a
sério os direitos humanos e os princípios democráticos e reconheceria que um
risco para toda a espécie é aquele que somente a própria espécie pode
concordar em assumir.
Para ser eficaz, o próprio tratado deve prever que nenhuma técnica de risco de
espécie seja usada, a menos e até que o organismo internacional aprove seu
uso em seres humanos. Isso mudaria o ônus da prova e o colocaria em risco de
extinção de espécies. Aplicaria, assim, o princípio de precaução do movimento
ambiental à experimentação que põe em risco espécies. O fato de não existir tal
tratado e nenhum mecanismo em vigor hoje significa que a comunidade mundial
ainda não assumiu a responsabilidade por seu futuro. Já passou da hora de
fazermos. James Watson entendeu errado. A verdade é que no início do último
milênio sabíamos que nosso futuro estava nas estrelas; agora, no início deste
milênio, pensamos que nosso futuro está em nossos genes.

Temos uma tendência simplesmente de deixar a ciência nos levar aonde ela
quiser. Mas a ciência não tem vontade, e o julgamento humano é quase sempre
necessário para qualquer exploração bem-sucedida do desconhecido. Os navios
de Colombo teriam retornado se não fosse por sua coragem e determinação
humanas. E o primeiro pouso na lua foi quase um desastre, porque o computador
ultrapassou o local de pouso planejado em seis quilômetros. Somente o
experiente piloto humano de Neil Armstrong foi capaz de evitar o desastre. As
primeiras palavras dos seres humanos na lua não foram "um pequeno passo
para o homem", de Armstrong, mas "Luz de contato!" De Buzz Aldrin. Ok, parada
do motor ... o comando do motor de descida é anulado. ”Está na hora de nós
humanos assumir o comando da nave espacial Terra e ativar o comando de
anulação do motor da ciência. Isso deve aumentar muito a probabilidade de que
nossa espécie sobreviva em boa saúde e experimente outro milênio.

Mindscan: transcendendo e aprimorando o cérebro humano 1

Susan Schneider

Suponha que seja 2025 e, sendo um tecnófilo, você adquire aprimoramentos


cerebrais à medida que se tornam disponíveis. Primeiro, você adiciona uma
conexão de Internet móvel à retina e aprimora sua memória de trabalho
adicionando circuitos neurais. Agora você é oficialmente um ciborgue. Agora
pule para 2040. Com terapias e aprimoramentos nanotecnológicos, você pode
estender sua vida útil e, com o passar dos anos, continua acumulando
aprimoramentos de maior alcance. Em 2060, depois de várias alterações
pequenas, mas cumulativamente profundas, você será um "pós-humano". Para
citar o filósofo Nick Bostrom, os pós-humanos são possíveis seres futuros ", cujas
capacidades básicas excedem tão radicalmente as dos humanos atuais que não
são mais inequivocamente humanas por nossos pais". padrões atuais ”(Bostrom
2003). Nesse ponto, sua inteligência é aprimorada não apenas em termos de
velocidade do processamento mental; agora você pode fazer conexões
avançadas que não era capaz de fazer antes. Humanos sem aprimoramento, ou
"naturais", parecem-lhe ser intelectualmente deficientes - você tem pouco em
comum com eles -, mas como transhumanista, você apoia seu direito de não
melhorar (Bostrom 2003; Garreau 2005; Kurzweil 2005).
Agora é 2400 dC. Por anos, desenvolvimentos tecnológicos em todo o mundo,
incluindo seus próprios aprimoramentos, foram facilitados pela IA
superinteligente. Uma superinteligência é uma criatura com capacidade de
superar radicalmente os melhores cérebros humanos em praticamente todos os
campos, incluindo criatividade científica, sabedoria geral e habilidades sociais.
De fato, como Bostrom explica,

Detalhes da publicação original: “ Mindscan : transcendendo e aprimorando o


cérebro humano”, Susan Schneider.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

“Criar superinteligência pode ser a última invenção que os humanos precisarão


fazer, uma vez que as superinteligências poderiam cuidar de desenvolvimentos
científicos e tecnológicos” (Bostrom 2003). Com o tempo, a lenta adição de
melhores e melhores circuitos neurais não deixou nenhuma diferença intelectual
real entre você e uma IA superinteligente. A única diferença real entre você e
uma criatura de IA de design padrão é a de origem - você já foi um "natural". Mas
agora você está quase inteiramente projetado pela tecnologia. Talvez você
esteja mais adequadamente caracterizado como membro de uma classe
bastante heterogênea de formas de vida de IA (Kurzweil 2005).

Então, deixe-me perguntar: você deve melhorar e, se sim, por quê? Acabei de
dar um esboço do tipo de trajetória de desenvolvimento que o transhumanista
geralmente aspira. 2 O transhumanismo é um movimento filosófico, cultural e
político que sustenta que a espécie humana está agora em uma fase
comparativamente inicial e que sua própria evolução será alterada pelo
desenvolvimento de tecnologias. Os humanos futuros serão muito diferentes da
encarnação atual, tanto no aspecto físico quanto no mental, e de fato se
parecerão com certas pessoas retratadas em histórias de ficção científica. Os
transhumanistas compartilham a crença de que um resultado no qual os seres
humanos têm inteligência radicalmente avançada, quase imortalidade,
profundas amizades com criaturas de IA e características corporais eletivas é um
fim muito desejável, tanto para o desenvolvimento pessoal quanto para o
desenvolvimento de nossa espécie como um todo. .

Apesar de seu sabor de ficção científica, o futuro que o transhumanismo


representa é muito possível: de fato, os estágios iniciais dessa alteração radical
podem estar em certos desenvolvimentos tecnológicos que já estão aqui (se não
disponíveis em geral) ou são aceitos por muitos nos campos científicos
relevantes como estando a caminho (Roco e Bainbridge 2002; Garreau 2005).
Diante desses desenvolvimentos tecnológicos, os transhumanistas oferecem
uma agenda bioética progressiva de aumento da importação pública. Eles
também apresentam uma posição instigante e controversa na filosofia da ciência
cognitiva, aplicando insights sobre a natureza computacional da mente ao tópico
da natureza das pessoas, desenvolvendo uma nova versão de uma teoria
popular da identidade pessoal: a teoria da continuidade psicológica .

Neste capítulo, empregarei experimentos de ficção científica para discutir o que


considero o elemento filosófico mais importante da imagem transhumanista - sua
perspectiva única sobre a natureza e o desenvolvimento das pessoas. As
pessoas são tradicionalmente vistas como sendo uma categoria moral
importante, portadoras de direitos ou, pelo menos, merecedoras de
consideração de seus interesses em um cálculo utilitário. E, como veremos,
considerar a natureza das pessoas através das lentes do transhumanismo
envolve empurrar contra os limites da própria noção de personalidade. Para
considerar novamente a questão do aprimoramento. Quando alguém se
pergunta se deve ou não melhorar as formas radicais defendidas pelos
transhumanistas, deve-se perguntar: “Essa criatura radicalmente aprimorada
ainda será eu?”. Se não, então, na suposição razoável de que um fator-chave na
decisão de melhorar a si mesmo é o seu próprio desenvolvimento pessoal,
mesmo o tecnófilo mais progressivo provavelmente considerará indesejável o
aprimoramento em questão, pois quando você escolhe aprimorar essas formas
radicais, o aprimoramento realmente não o aprimora . Como discutiremos em
breve, esta é uma lição que o personagem principal de Hugo Vencedor Robert
Sawyer varredura mental aprende da maneira mais difícil. Portanto, examinar a
questão do aprimoramento do ponto de vista do problema metafísico da
identidade pessoal apresentará, assim, um sério desafio ao transhumanismo.
Dada sua concepção da natureza de uma pessoa, melhorias radicais e até leves
são arriscadas, não resultando claramente na preservação do seu eu original.
De fato, suspeito que essa seja uma questão premente para qualquer caso de
aprimoramento.

A posição transumanista

O transhumanismo não é de forma alguma uma ideologia monolítica, mas possui


uma organização e uma declaração oficial. A World Transhumanist Association
é uma organização internacional sem fins lucrativos fundada em 1998 pelos
filósofos Nick Bostrom e David Pearce. Os principais princípios do
transhumanismo foram apresentados na Declaração Transhumanista (World
Transhumanist Association 1998) e são reimpressos abaixo:

1. A humanidade será radicalmente mudada pela tecnologia no futuro. Prevemos


a viabilidade de redesenhar a condição humana, incluindo parâmetros como a
inevitabilidade do envelhecimento, limitações no intelecto humano e artificial,
psicologia não escolhida, sofrimento e nosso confinamento ao planeta Terra.

2. A pesquisa sistemática deve ser colocada no entendimento desses


desenvolvimentos futuros e de suas conseqüências a longo prazo.
3. Os transhumanistas pensam que, sendo geralmente abertos e adotando
novas tecnologias, temos mais chances de aproveitá-las do que se tentarmos
proibi-las ou proibi-las.

4. Os transumanistas defendem o direito moral daqueles que desejam usar a


tecnologia para ampliar suas capacidades mentais e físicas (inclusive
reprodutivas) e melhorar seu controle sobre suas próprias vidas. Buscamos
crescimento pessoal além de nossas atuais limitações biológicas.

5. No planejamento para o futuro, é obrigatório levar em consideração a


perspectiva de progresso dramático nas capacidades tecnológicas. Seria trágico
se os benefícios potenciais não se concretizassem devido à tecnofobia e
proibições desnecessárias. Por outro lado, também seria trágico se a vida
inteligente fosse extinta por causa de algum desastre ou guerra envolvendo
tecnologias avançadas.

6. Precisamos criar fóruns em que as pessoas possam debater racionalmente o


que precisa ser feito e uma ordem social em que decisões responsáveis possam
ser implementadas.

7. O transhumanismo defende o bem-estar de toda a consciência (seja em


intelectos artificiais, humanos, pós-humanos ou animais não humanos) e
abrange muitos princípios do humanismo moderno. O transhumanismo não
suporta nenhum partido, político ou plataforma política em particular.

Este documento foi seguido pelas muito mais longas e extremamente


informativas The Transhumanist Frequently Asked Questions, de autoria de Nick
Bostrom, em consulta com dezenas dos principais transhumanistas (Bostrom
2003). 3

A natureza das pessoas

Agora vamos considerar algumas das idéias expressas na Declaração. No geral,


os textos transhumanistas centrais avançaram uma espécie de trajetória para o
desenvolvimento pessoal de um humano contemporâneo, que a tecnologia
permite (Kurzweil 1999, 2005; Bostrom 2003, 2005): 4

Ser humano sem aprimoramento do século XXI - * ■ significativa "atualização"


com habilidades cognitivas

e outras melhorias físicas - * - status pós-humano - * ■ “superinteligência” 5

Recordando a cronologia dos aprimoramentos esboçados no início deste


capítulo, perguntemos novamente: você deve embarcar nessa jornada? Aqui,
existem questões filosóficas profundas que não têm respostas fáceis. 6 Para
entender se você deve melhorar, primeiro você deve entender com o que deve
começar. Mas o que é uma pessoa? E, dada a sua concepção de pessoa, após
mudanças tão radicais, você continuaria a existir ou deixaria de existir, sendo
substituído por outra pessoa? Se este for o caso, por que você iria querer seguir
o caminho do aprimoramento radical?

Para tomar essa decisão, é preciso entender a metafísica da identidade pessoal


- isto é, é preciso responder à pergunta: O que é em virtude do qual um eu ou
pessoa em particular continua existindo ao longo do tempo? Um bom lugar para
começar é com a persistência de objetos do cotidiano ao longo do tempo.
Considere a máquina de café expresso em seu café favorito. Suponha que cinco
minutos se passaram e o barista desligou a máquina. Imagine perguntar ao
barista se a máquina é a mesma que estava lá cinco minutos atrás. Ela
provavelmente lhe dirá que a resposta é óbvia - é claro que é possível que uma
mesma máquina continue existindo ao longo do tempo. Esse parece ser um caso
razoável de persistência, mesmo que pelo menos uma das propriedades da
máquina tenha sido alterada. Por outro lado, se a máquina se desintegrar ou
derreter, a mesma máquina não existiria mais. O que restou não seria
absolutamente uma máquina de café expresso. Portanto, parece que algumas
mudanças fazem com que uma coisa deixe de existir, enquanto outras não. Os
filósofos chamam as características que uma coisa deve ter, desde que exista
de "propriedades essenciais".

Agora, reconsidere a trajetória do transhumanista para aprimoramento: para que


o aprimoramento radical seja uma opção válida para você, ele deve representar
uma forma de desenvolvimento pessoal. No mínimo, mesmo que a melhoria
traga benefícios como inteligência sobre-humana e extensão radical da vida, ela
não deve envolver a eliminação de nenhuma de suas propriedades essenciais.
Pois nesse caso, a mente mais afiada e o corpo mais apto não seriam
experimentados por você - eles seriam experimentados por outra pessoa.
Mesmo que você queira se tornar superinteligente, embarcar conscientemente
em um caminho que troque uma ou mais de suas propriedades essenciais seria
equivalente a suicídio - isto é, a sua intenção de deixar de existir
intencionalmente. Portanto, antes de melhorar, é melhor você entender quais
são suas propriedades essenciais.

Os transumanistas se depararam com essa questão. Ray Kurzweil pergunta:


“Então, quem sou eu? Desde que estou constantemente mudando, sou apenas
um padrão? E se alguém copiar esse padrão? Eu sou o original e / ou a cópia?
Talvez eu seja esse material aqui - isto é, a coleção ordenada e caótica de
moléculas que compõem meu corpo e cérebro ”(Kurzweil 2005: 383). Kurzweil
está aqui se referindo a duas teorias no centro do debate filosófico secular sobre
a natureza das pessoas. As principais teorias incluem o seguinte:

1. A teoria da alma: sua essência é sua alma ou mente, entendida como uma
entidade não-física distinta do seu corpo.
2. A teoria da continuidade psicológica: você é essencialmente suas memórias
e capacidade de refletir sobre si mesmo (Locke) e, na sua forma mais geral, você
é sua configuração psicológica geral, o que Kurzweil chamou de seu “padrão” 7.

3. Materialismo baseado no cérebro: você é essencialmente o material de que é


feito, ou seja, seu corpo e cérebro - o que Kurzweil chamou de "a coleção
ordenada e caótica de moléculas" que compõem meu corpo e cérebro (Kurzweil
2005 : 383). 8

4. A não visão de si: o eu é uma ilusão. O "eu" é uma ficção gramatical


(Nietzsche). Existem feixes de impressões, mas nenhum eu subjacente (Hume).
Não há sobrevivência porque não há pessoa (Buda). 9

Após reflexão, cada uma dessas visões tem suas próprias implicações sobre se
alguém deve melhorar. Se você mantiver (1), sua decisão de melhorar depende
se você acredita que o corpo aprimorado reteria a mesma alma ou mente
imaterial. 10 Se você acredita em (3), qualquer aprimoramento não deve alterar
o substrato do material. Por outro lado, de acordo com (2), as melhorias podem
alterar o substrato do material, mas devem preservar sua configuração
psicológica. Finalmente, (4) contrasta fortemente com (1) - (3). Se você mantém
(4), a sobrevivência da pessoa não é um problema, pois não há pessoa para
começar. Você pode se esforçar para melhorar, no entanto, na medida em que
encontre valor intrínseco ao adicionar mais superinteligência ao universo - você
pode valorizar formas de vida com formas mais elevadas de consciência e
desejar que seu “sucessor” seja uma criatura.

De todas essas visões, (2) é atualmente a mais influente, como sublinha o


filósofo Eric Olson:

A maioria dos filósofos acredita que nossa identidade ao longo do tempo consiste
em algum tipo de continuidade psicológica. Você é, necessariamente, aquele
futuro que, em certo sentido, herda suas características mentais de você ...
aquele que tem as características mentais que ele possui em grande parte
porque você tem as características mentais que possui agora. E você é aquele
ser passado cujas características mentais você herdou.

... Essa visão é tão magnética que muitos se sentem autorizados a afirmar isso
sem argumentos. (Olson 2002)

Vou sugerir agora que o transumanista adota uma nova versão da visão da
continuidade psicológica; isto é, eles adotam uma conta computacional de
continuidade. Primeiro, considere que os transhumanistas geralmente adotam
uma teoria computacional da mente.

A Teoria Computacional da Mente ("CTM"): A mente é essencialmente o


programa executado no hardware do cérebro, ou seja, o algoritmo que o cérebro
implementa, algo que, em princípio, pode ser descoberto pela ciência cognitiva.
"

As teorias computacionais da mente podem apelar para várias teorias


computacionais do formato do pensamento: conexionismo, teoria dos sistemas
dinâmicos (em sua forma computacional), a abordagem simbólica ou da
linguagem do pensamento ou alguma combinação delas. Essas diferenças não
importam para a nossa discussão.

Na filosofia da mente, as teorias computacionais da mente são posições sobre a


natureza dos pensamentos e mentes; infelizmente, as discussões dos CTMs na
filosofia da mente dominante geralmente não falam sobre o tema da
personalidade. (Talvez isso ocorra porque a identidade pessoal é um tópico
tradicional da metafísica, não da filosofia da mente.) Mas, após a reflexão, se
você mantém uma CTM, é perfeitamente natural adotar uma teoria
computacional das pessoas. Note-se que os defensores das CTMs geralmente
rejeitam a teoria da alma. Pode-se suspeitar que o transhumanista vê
favoravelmente um materialismo baseado no cérebro, a opinião que sustenta
que as mentes são basicamente de natureza física ou material e que
características mentais, como o pensamento de que o café expresso tem um
aroma maravilhoso, são, em última análise, apenas características físicas do
cérebro. . Os transumanistas rejeitam o materialismo baseado no cérebro, pois
acreditam que a mesma pessoa pode continuar a existir se seu padrão persistir,
mesmo que ela seja um upload, não tendo mais um cérebro (Kurzweil 2005). A
concepção orientadora do modelista é apropriadamente capturada nesta
passagem:

O conjunto específico de partículas que meu corpo e cérebro compreendem são


de fato completamente diferentes dos átomos e moléculas que eu compunha há
pouco tempo. Sabemos que a maioria de nossas células é revertida em questão
de semanas, e mesmo nossos neurônios, que persistem como células distintas
por um tempo relativamente longo, ainda assim alteram todas as suas moléculas
constituintes em um mês ...

Eu sou um pouco como o padrão que a água faz em um córrego enquanto corre
passado as rochas em seu caminho. As moléculas reais da água mudam a cada
milissegundo, mas o padrão persiste por horas ou até anos. (Kurzweil 2005: 383)

Tater, em sua discussão, Kurzweil chama sua visão de "Patternism" (ibid .: 386).
Coloque na linguagem da ciência cognitiva, como certamente o transhumanista
faria, o que é essencial para você é sua configuração computacional - por
exemplo, quais sistemas / subsistemas sensoriais seu cérebro possui (por
exemplo, visão inicial), a maneira como os subsistemas sensoriais básicos são
integrados nas áreas de associação, o circuito neural que compõe o raciocínio
geral de seu domínio, seu sistema atencional, suas memórias etc. - em geral, o
algoritmo que seu cérebro calcula. 12
O padronismo de Kurzweil é altamente típico do transhumanismo. Por exemplo,
considere o apelo ao padronismo na seguinte passagem de As perguntas mais
frequentes sobre transumanistas, que discutem o processo de envio:

Carregar (às vezes chamado de "baixar", "carregar a mente" ou "reconstruir o


cérebro") é o processo de transferir um intelecto de um cérebro biológico para
um computador. Uma maneira de fazer isso pode ser examinando primeiro a
estrutura sináptica de um cérebro em particular e implementando os mesmos
cálculos em um meio eletrônico. ... Um upload pode ter um corpo virtual
(simulado) que oferece as mesmas sensações e as mesmas possibilidades de
interação que um corpo não simulado. ... E os uploads não precisariam ficar
confinados à realidade virtual: eles poderiam interagir com pessoas externas e
até alugar corpos de robôs para trabalhar ou explorar a realidade física. ... As
vantagens de ser um upload incluiriam: Os uploads não estariam sujeitos a
senescência biológica. Cópias de backup de uploads podem ser criadas
regularmente para que você possa ser reiniciado se algo ruim acontecer. (Assim,
sua vida útil seria potencialmente tão longa quanto a do universo.) ... Melhorias
cognitivas radicais provavelmente seriam mais fáceis de implementar em um
upload do que em um cérebro orgânico. ... Uma posição amplamente aceita é
que você sobrevive enquanto certos padrões de informação são conservados,
como suas memórias, valores, atitudes e disposições emocionais ... Para a
continuação da personalidade, nessa visão, pouco importa se você são
implementados em um chip de silício dentro de um computador ou naquele
caroço cinzento e extravagante dentro de seu crânio, assumindo que ambas as
implementações sejam conscientes. (Bostrom 2003)

Em suma, a orientação da ciência cognitiva do transhumanista introduz um novo


elemento computacionalista na visão tradicional de continuidade psicológica da
personalidade. Se plausível, isso seria uma contribuição importante para o antigo
debate sobre a natureza das pessoas. Mas está correto? Além disso, o
padronismo é compatível com aprimoramento? A seguir, sugiro que o
padronismo seja profundamente problemático. Além disso, como estão as coisas
agora, o padronismo nem é compatível com as melhorias que os
transhumanistas apelam.

O Mindscan de Robert Sawyer e o problema da reduplicação

Jake Sullivan tem um tumor cerebral inoperável. A morte poderia atingi-lo a


qualquer momento. Felizmente, o Immortex tem uma nova cura para o
envelhecimento e doenças graves - um "exame mental". Os cientistas do
Immortex carregam sua configuração cerebral em um computador e a
"transferem" para um corpo andróide que é projetado usando seu próprio corpo
como modelo. Embora imperfeito, o corpo do Android tem suas vantagens -
como observa a FAQ transhumanista, uma vez que um indivíduo é carregado,
existe um backup que pode ser baixado se houver um acidente. E pode ser
atualizado à medida que surgem novos desenvolvimentos. Jake será imortal.
Sullivan assina entusiasticamente vários acordos legais. Ele é informado de que,
após o upload, seus pertences serão transferidos para o andróide, que será o
novo portador de sua consciência. A cópia original de Sullivan, que morrerá em
breve de qualquer maneira, viverá o resto de sua vida em "High Eden", uma
colônia de imórtex na lua. Embora despojada de sua identidade legal, a cópia
original ficará confortável lá, socializando com os outros originais que também
estão confinados à senescência biológica.

Enquanto estava deitado no tubo de digitalização alguns segundos antes da


digitalização, Jake reflete:

Eu estava ansioso pela minha nova existência. Quantidade de vida não


importava muito para mim - mas qualidade! E ter tempo - não apenas anos se
espalhando para o futuro, mas também tempo a cada dia. Afinal, os uploads não
precisavam dormir, além de termos todos esses anos extras, temos um terço a
mais de tempo produtivo. O futuro estava próximo. Criando outro eu. Mindscan.

Mas então, alguns segundos depois:

"Tudo bem, Sr. Sullivan, você pode sair agora." Era a voz do Dr. Killian, com seu
tom jamaicano.

Meu coração afundou. Não ...

"Sr. Sullivan? Terminamos a digitalização. Se você pressionar o botão vermelho


... "

Isso me atingiu como uma tonelada de tijolos, como uma onda de sangue. Não!
Eu deveria estar em outro lugar, mas não estava.

Eu levantei minhas mãos reflexivamente, batendo no meu peito, sentindo a


suavidade dele, sentindo-o subir e descer. Jesus Cristo!

Eu balancei minha cabeça. "Você apenas examinou minha consciência,


duplicando minha mente, certo?" Minha voz estava zombando. “E como estou
ciente das coisas depois que você terminou a digitalização, isso significa que eu
- esta versão - não é essa cópia. A cópia não precisa mais se preocupar em se
tornar um vegetal. É grátis. Finalmente e finalmente, está livre de tudo o que está
pairando sobre minha cabeça nos últimos 27 anos. Nós divergimos agora, e a
mim curada começou a seguir seu caminho. Mas esse eu ainda está condenado
... ”(Sawyer 2005: 44-5)

O romance de Sawyer é uma reductio ad absurdum da concepção padronista da


pessoa. Por tudo o que o padronismo diz é que, desde que a pessoa A tenha a
mesma configuração computacional da pessoa B, A e B são a mesma pessoa.
De fato, Sugiyama, a pessoa que vende a mente para Jake, adotou uma forma
de padronismo (Sawyer 2005: 18). A experiência infeliz de Jake pode ser
colocada na forma de um desafio ao padronismo, que chamaremos de "problema
de reduplicação": apenas uma pessoa pode realmente ser Jake Sullivan, como
Sullivan descobriu com relutância. Mas, de acordo com o padronismo, ambas as
criaturas são Jake Sullivan - pois compartilham a mesma configuração
psicológica. Mas, como Jake aprendeu, embora a criatura criada pelo processo
da mente possa ser uma pessoa, não é a mesma pessoa que Jake. É apenas
outra pessoa com cérebro e corpo artificiais configurados como o original.
Portanto, ter um tipo particular de padrão não pode ser suficiente para a
identidade pessoal. De fato, o problema é ilustrado em proporções épicas mais
adiante neste livro, quando são feitas numerosas cópias de Sullivan, todas
acreditando que são o original! Problemas éticos e legais são abundantes.

Uma resposta ao problema de reduplicação

Talvez haja uma maneira de contornar essa objeção. Como observado, o


problema de reduplicação sugere que a igualdade do padrão não é suficiente
para a igualdade da pessoa. No entanto, considere que parece haver algo certo
sobre o padronismo - pois, como Kurzweil observa, nossas células mudam
continuamente; é apenas o padrão organizacional que continua. A menos que
alguém tenha uma concepção religiosa da pessoa e adote a teoria da alma, o
padronismo pode parecer inevitável, pelo menos na medida em que você
acredite que exista algo como uma pessoa para começar. À luz disso, talvez
deva-se reagir ao caso de reduplicação da seguinte maneira: o padrão de uma
pessoa é essencial para si mesmo, apesar de não ser suficiente para um relato
completo de sua identidade. Talvez haja uma propriedade essencial adicional
que, juntamente com o padrão de uma pessoa, produz uma teoria completa da
identidade pessoal. Mas qual poderia ser o ingrediente que faltava?
Intuitivamente, deve ser um requisito que serve para descartar as varreduras
mentais e, de maneira mais geral, todos os casos em que a mente é "carregada".
Para qualquer tipo de caso de upload, surgirá um problema de reduplicação, pois
as mentes carregadas podem, em princípio, ser baixadas repetidamente.

Agora, pense em sua própria existência no espaço e no tempo. Quando você sai
para receber o correio, você se move de um local espacial para outro, traçando
um caminho no espaço. Um diagrama do espaço-tempo pode nos ajudar a
visualizar o caminho que se toma ao longo da vida. Recolhendo as três
dimensões espaciais em uma (o eixo vertical) e levando o eixo horizontal para
significar o tempo, considere a seguinte trajetória típica (Figura 19.1). Observe
que a figura talhada parece um verme; você, como todos os objetos físicos, cria
uma espécie de "verme do espaço-tempo" ao longo de sua existência.

Agora

•f

Figura 19.1
Esse, pelo menos, é o tipo de caminho que os "normais" - aqueles que não são
pós-humanos nem superinteligências - traçam. Mas agora considere o que
aconteceu durante a varredura da mente. Mais uma vez, de acordo com o
padronismo, haveria duas da mesma pessoa. O diagrama de espaço-tempo da
cópia teria a seguinte aparência:

Isso é bizarro. Parece que Jake Sullivan existe há 42 anos, faz uma varredura e,
de alguma forma, muda instantaneamente para um local diferente no espaço e
vive o resto de sua vida! Isso é radicalmente diferente da sobrevivência normal.
Isso nos alerta que algo está errado com o puro padronismo: falta um requisito
para continuidade espaço-temporal.

Esse requisito adicional parece resolver o problema de reduplicação. Pois


considere o dia da mente. Jake entrou no laboratório e fez uma varredura; então
ele saiu do laboratório e foi diretamente para uma nave espacial e voou para
Marte. É esse homem - aquele que traça uma trajetória contínua através do
espaço e do tempo - que é de fato o verdadeiro Jake Sullivan.

Essa resposta ao problema de reduplicação só vai tão longe, no entanto. Por


exemplo, Sugiyama, que, ao vender seu produto para a mente, arriscou um
discurso padronista. Se Sugiyama tivesse adotado o padronismo juntamente
com uma cláusula de continuidade espaço-temporal, poucos teriam se inscrito
para a verificação! Pois esse ingrediente extra excluiria um exame mental, ou
qualquer tipo de envio, como uma forma de sobrevivência. Somente aqueles que
desejam ter um mero substituto para si mesmos se inscreverão. Há uma lição
geral aqui para o transhumanista: se alguém optar pelo padronismo, melhorias
como o upload para evitar a morte ou para facilitar outras melhorias não são
realmente "melhorias", mas formas de suicídio. O transhumanista deve ficar
sóbrio e não oferecer procedimentos como aprimoramentos. Quando se trata de
aprimoramento, existem limites intrínsecos ao que a tecnologia pode oferecer.
(Ironicamente, o proponente da teoria da alma está em melhor forma aqui. Pois
talvez a alma se teletransporte. Quem sabe?)

Deixe-me resumir a situação dialética até agora: acabamos de descartar a forma


original do padronismo como falsa. Se o transhumanista gostaria de defender o
padronismo, ela deveria adicionar a cláusula de continuidade espaço-temporal.
E, mais importante, ela precisará modificar suas opiniões sobre que tipos de
aprimoramentos são compatíveis com a sobrevivência. Vamos chamar essa
nova posição de "padronismo modificado". Como veremos agora, embora o
padronismo modificado seja uma melhoria clara, ele exige muito mais
explicações em pelo menos as duas dimensões a seguir.

Duas questões que o padronismo modificado precisa resolver

(1) Considere: se você é o seu padrão, e se o seu padrão mudar? Você morre?
Para que o transhumanista justifique o tipo de aprimoramento necessário para
se tornar um ser pós-humano ou superinteligente, ela precisará dizer com
precisão o que é um "padrão" e quando os aprimoramentos fazem e não
constituem uma continuação do padrão. Os casos extremos parecem claros -
por exemplo, como discutido, os scanners mentais são descartados pela
cláusula de continuidade espaço-temporal. Além disso, como o padronismo é
uma visão de continuidade psicológica, o padronista quer dizer que um processo
de apagamento da memória que apagou a infância é uma alteração inaceitável
do padrão, removendo muitas memórias. Por outro lado, a mera manutenção
celular diária por nanobots para superar os lentos efeitos do envelhecimento, de
acordo com os proponentes dessa visão, não afetaria a identidade da pessoa.
13 Mas os casos de médio alcance não são claros. Talvez excluir alguns maus
hábitos de jogar xadrez seja kosher, mas que tal apagar toda a memória de
algum relacionamento pessoal, como no filme Eternal Sunshine of the Spotless
Mind ? O caminho para a superinteligência pode muito bem ser um caminho
através de aprimoramentos de médio alcance. Então, novamente, o que é
necessário é uma concepção clara do que é um padrão, e que mudanças no
padrão são aceitáveis e por quê. Sem um controle firme sobre esse assunto, a
trajetória de desenvolvimento transhumanista talvez seja o caminho sedutor do
tecnófilo para o suicídio.

Esse problema parece difícil de resolver de uma maneira que é compatível com
a preservação da própria idéia de que podemos ser idênticos ao longo do tempo
a algum eu anterior ou futuro. Para determinar um ponto de limite parece um
exercício bastante arbitrário no qual uma vez que um limite é selecionado, é
fornecido um exemplo sugerindo que o limite deve ser empurrado para fora, ad
nauseam. Por outro lado, há algo de perspicaz na visão de que, com o tempo,
gradualmente, a pessoa se torna cada vez menos como o seu eu anterior. Mas
aprecie esse ponto por muito tempo e isso pode levar a um lugar sombrio: pois
se alguém acha que o padronismo é convincente, como é que ele realmente
persiste ao longo do tempo, desde o ponto da infância até a maturidade, período
em que muitas vezes há grandes mudanças nas memórias, na personalidade e
assim por diante? De fato, mesmo uma série de mudanças graduais
cumulativamente equivale a um indivíduo, B, que é muito alterado de seu eu
infantil, A. Por que existe realmente uma relação de identidade que se mantém
entre A e B, em vez de uma relação ancestral: A está sendo o ancestral de B?
Nossa segunda questão diz respeito à questão de mudanças graduais, mas
cumulativamente significativas, também.

(2) Suponha que seja 2050 e as pessoas estejam recebendo procedimentos


graduais de regeneração neural enquanto dormem. Durante o sono noturno, os
nanobots importam lentamente materiais em nanoescala que são
computacionalmente idênticos aos materiais originais. Os nanobots então
gradualmente removem os materiais antigos, colocando-os em um pequeno
recipiente ao lado da cama da pessoa. Por si só, esse processo não é
problemático para o padronismo modificado. Mas agora suponha que exista uma
atualização opcional para o serviço de regeneração para aqueles que desejam
fazer uma cópia de backup de seus cérebros. Se alguém optar por esse
procedimento, durante o processo noturno, os nanobots retiram os materiais
substituídos do prato e os colocam dentro de um cérebro biológico congelado
criogênicamente. No final do processo lento, os materiais no cérebro congelado
foram totalmente substituídos pelos neurônios originais da pessoa. Agora,
suponha que você escolha se submeter a esse procedimento ao lado de sua
regeneração próxima. Com o tempo, esse segundo cérebro passa a ser
composto pelo mesmo material que o seu cérebro era originalmente, configurado
exatamente da mesma maneira. Qual desses é você? O cérebro original, que
agora tem neurônios completamente diferentes, ou aquele com todos os seus
neurônios originais? 14

O modelista modificado tem isso a dizer sobre o caso de regeneração neural:


você é a criatura com o cérebro com matéria inteiramente diferente, pois essa
criatura traça um caminho contínuo pelo espaço-tempo. Mas agora, as coisas
dão errado: por que a continuidade espaço-temporal supostamente supera
outros fatores, como ser composta pelo substrato material original? Aqui, para
ser franco, minhas intuições surgem. Gostaríamos de encontrar uma justificativa
sólida para selecionar uma opção acima da outra. Até que o transhumanista
forneça uma sólida justificativa para sua posição, é melhor considerar arriscadas
as formas de aprimoramento que envolvem a substituição rápida ou até gradual
de partes do cérebro.

Conclusão

Espero que tudo isso tenha convencido você de que, se o transhumanista


mantém o padronismo, há alguns problemas sérios que exigem solução. De fato,
como As Perguntas Freqüentes Transhumanistas indicam, o desenvolvimento
de aprimoramentos radicais, como interfaces cérebro-máquina, congelamento
criogênico para prolongar a vida e carregamento para evitar a morte ou
simplesmente facilitar o aprimoramento, são aprimoramentos importantes
invocados pela visão transhumanista da desenvolvimento da pessoa. Agora,
todos esses aprimoramentos parecem estranhamente como os experimentos de
pensamento que os filósofos usam há anos como casos de problemas para
várias teorias sobre a natureza das pessoas, portanto, não é de surpreender que
surjam problemas profundos. Aqui, argumentei que o exemplo do Mindscan
sugere que não se deve enviar e que o padronista precisa modificar sua teoria
para descartar tais casos. Mesmo com essa modificação em mãos, no entanto,
o transhumanismo ainda exige uma descrição detalhada do que constitui uma
quebra em um padrão versus uma mera continuação dele. Sem progresso nesta
questão, não ficará claro se as melhorias de médio alcance, como apagar
memórias de infância ou adicionar circuitos neurais para se tornar mais
inteligente, são seguras. Por fim, o caso dos nanobots alerta contra
aprimoramentos leves. Diante de tudo isso, é justo dizer que a transumanista
atualmente não pode apoiar seu argumento de melhoria. De fato, As Perguntas
Freqüentes Transhumanistas observam que os transhumanistas estão
profundamente conscientes de que esse assunto foi negligenciado:

Embora o conceito de alma não seja muito usado em uma filosofia naturalista
como o transhumanismo, muitos transhumanistas se interessam pelos
problemas relacionados à identidade pessoal (Parfit, 1984) e à consciência
(Churchland, 1988). Esses problemas estão sendo intensamente estudados
pelos filósofos analíticos contemporâneos e, embora algum progresso tenha sido
feito, por exemplo,

O trabalho de Derek Parfit sobre identidade pessoal, eles ainda não foram
resolvidos com satisfação geral. (Bostrom 2003: seção 5.4)

Nossa discussão também traz algumas lições gerais para todas as partes
envolvidas no debate sobre aprimoramento. Pois quando se considera o debate
de aprimoramento através das lentes da metafísica da personalidade, novas
dimensões do debate são apreciadas. A literatura sobre a natureza das pessoas
é extraordinariamente rica, levantando problemas intrigantes para visões
comumente aceitas da natureza das pessoas subjacentes às posições de
aprimoramento. Quando alguém defende ou rejeita um determinado
aprimoramento, é importante determinar se a posição de alguém sobre o
aprimoramento em questão é realmente apoiada ou até compatível com a
posição de alguém sobre a natureza das pessoas. Além disso, o tópico da
natureza das pessoas é de clara relevância para os tópicos relacionados à
natureza e dignidade humana, questões que atualmente são pontos-chave de
controvérsia nos debates sobre aprimoramento (ver, por exemplo, Bostrom
2008; Fukuyama 2002).

Talvez, alternadamente, você se canse de toda essa metafísica. Você pode


suspeitar que as convenções sociais sobre o que geralmente consideramos
pessoas são tudo o que temos, porque a teorização metafísica nunca resolverá
conclusivamente o que as pessoas são. No entanto, por mais difíceis que sejam
as questões metafísicas, parece que nem todas as convenções são dignas de
aceitação; portanto, é necessário determinar como essas convenções devem
desempenhar um papel importante no debate sobre aprimoramentos e quais
não. E é difícil conseguir isso sem esclarecer a concepção de pessoas. Além
disso, é difícil evitar pelo menos implicitamente confiar em uma concepção de
pessoas ao refletir sobre o caso a favor e contra o aprimoramento. Pois o que
justifica sua decisão de melhorar ou não, se não, de alguma forma, isso o
melhorará? Você talvez esteja apenas planejando o bem-estar de seu sucessor?

Notas

1. Esta peça é expandida e modificada a partir de uma peça anterior, "Mentes


do Futuro: Aprimoramento Cognitivo, Transumanismo e Natureza das Pessoas",
que apareceu no Guia de Bioética do Venn Center, Arthur L. Caplan, Autumn
Fiester e Vardit Radvisky. (eds.), Springer, 2009. Muito obrigado a Ted Sider e
Michael Huemer por seus comentários úteis.

2. Julian Huxley aparentemente cunhou o termo transhumanismo em 1957,


quando escreveu que em um futuro próximo "a espécie humana estará no limiar
de um novo tipo de existência, tão diferente da nossa quanto a nossa do homem
de Pequim" ( Huxley 1957: 13-17).
3. Bostrom é um filósofo da Universidade de Oxford que agora dirige o Instituto
Futuro da Humanidade, orientado para os humanistas. Além desses dois
documentos, existem vários excelentes trabalhos filosóficos e sociológicos que
articulam elementos-chave da perspectiva transhumanista (por exemplo,
Bostrom 2005; Hughes 2004; Kurzweil 1999, 2005). Para obter recursos
abrangentes da Web sobre transhumanismo, consulte a página inicial de Nick
Bostrom, o grupo de notícias de Ray Kurzweil (KurzweilAI.net), a página inicial
do Institute for Ethics and Emerging Technologies e a página inicial da
Associação Transhumanista Mundial.

4. Deve-se notar que o transhumanismo não apoia de forma alguma todo tipo de
aprimoramento. Por exemplo, Nick Bostrom rejeita aprimoramentos posicionais
(aprimoramentos empregados principalmente para aumentar a posição social de
alguém) e ainda defende aprimoramentos que podem permitir que os humanos
desenvolvam maneiras de explorar "o espaço maior de modos possíveis de ser"
(2005: 11).

5. Existem muitas nuances nessa trajetória difícil. Por exemplo, alguns


transhumanistas acreditam que a mudança da inteligência humana sem
aprimoramento para a superinteligência será extremamente rápida, porque
estamos nos aproximando de uma singularidade, um ponto no qual a criação de
inteligência sobre-humana resultará em mudanças maciças em um período
muito curto (por exemplo, 30 anos) (Bostrom 1998; Kurzweil 1999, 2005; Vinge
1993). Outros transhumanistas sustentam que as mudanças tecnológicas não
serão tão repentinas. Essas discussões frequentemente debatem a
confiabilidade da Lei de Moore (Moore, 1965). Outra questão importante é se
uma transição para a superinteligência realmente ocorrerá porque os próximos
desenvolvimentos tecnológicos envolvem riscos graves. Os riscos da
biotecnologia e da IA dizem respeito a transhumanistas, bioeticistas
progressistas em geral, bem como a bioconservadores (Annis 2000; Bostrom
2002; Garreau 2005; Joy 2000).

6. Para as principais posições anti-aprimoramento nesta questão, ver, por


exemplo, Fukuyama (2002), Kass et al. (2003) e Annas (2000).

7. Como nossa discussão é introdutória, não vou me aprofundar em diferentes


versões da teoria da continuidade psicológica. Pode-se, por exemplo, apelar
para (a): a idéia de que as memórias são essenciais para uma pessoa. Como
alternativa, alguém poderia adotar (b), a configuração psicológica geral da
pessoa é essencial, incluindo as memórias. Aqui, trabalharei com uma versão
dessa última concepção - que é inspirada pela ciência cognitiva - embora muitas
das críticas dessa visão se apliquem a (a) e outras versões de (b) também. Para
algumas versões diferentes, consulte o capítulo 27 do Ensaio de John Locke, de
1694, sobre o entendimento humano (observe que este capítulo aparece pela
primeira vez na segunda edição; também é reimpresso como "Of Identity and
Diversity" em Perry 1975). Veja também os ensaios de Anthony Quinton e Paul
Grice, ambos reimpressos em Perry (1975).
8. O materialismo baseado no cérebro, como discutido aqui, é mais restritivo do
que o fisicalismo na filosofia da mente, pois um certo tipo de fisicalista poderia
sustentar que você poderia sobreviver a mudanças radicais em seu substrato,
basear-se no cérebro ao mesmo tempo e tornar-se um faça o upload
posteriormente.

9. O sociólogo James Hughes mantém uma versão transhumanista da visão do


não-eu. (Veja o projeto “Cyborg Buddha” do Institute for Ethics and Emerging
Technology em http://ieet.org/index.php/IEET/cyborgbuddha .) Para pesquisas
úteis sobre essas quatro posições, consulte o capítulo de Eric Olson neste
volume (capítulo 7 ) e Conee e Sider (2005).

10. Note-se que, embora vários bioconservadores pareçam sustentar a teoria da


alma, a teoria da alma não é, por si só, uma posição anti-aprimoramento. Pois
por que a alma ou a mente imaterial da pessoa não podem permanecer no
mesmo corpo, mesmo após um aprimoramento radical?

11. Para discussão de teorias computacionais, consulte Churchland (1996).

12. Os leitores familiarizados com a filosofia da mente podem sugerir que o


transhumanista poderia aceitar uma versão do materialismo, a saber,
"materialismo simbólico". No entanto, suspeito que não seja realmente uma
forma coerente de materialismo. O materialismo simbólico sustenta que toda
instância de uma propriedade mental é idêntica a alguma instância de uma
propriedade física. Mas as instâncias podem realmente ser idênticas se as
propriedades pertencerem a tipos diferentes? Os tipos distintos de propriedades
são, em vez disso, co-instanciados pelo mesmo particular.

13. Ou, pelo menos, é isso que o patternist iria gostar de dizer. O exemplo no
parágrafo após o próximo questionará de fato se ela pode realmente dizer isso.

14. Esta é uma variante de ficção científica do conhecido caso Ship of Theseus.
Aparece pela primeira vez impresso em Plutarco (Vita Thesei, 22-3).

Referências

Annas, GJ (2000). O homem na lua, imortalidade e outros mitos milenares: as


perspectivas e os perigos da engenharia genética humana. Emory Law Journal
49 (3): 753-82.

Bostrom, N. (1998). Quanto tempo antes da superinteligência? International


Journal of Futures Studies 2. Disponível em
http://www.nickbostrom.com/superintelligence . html (recuperado em 20 de
dezembro de 2008).
Bostrom, N. (2003). As Perguntas Freqüentes Transhumanistas-, v 2.1.
Associação Transumanista Mundial. Recuperado em
http://transhumanism.org/index . php / WTA / faq /.

Bostrom, N. (2005). História do pensamento transhumanista. Journal of Evolution


e

Tecnologia, 14 (1).

Bostrom, N. (2008). Dignidade e valorização. No Conselho do Presidente de


Bioética, Dignidade Humana e Bioética: Ensaios encomendados pelo Conselho
de Bioética do Presidente (Washington, DC: Escritório de Impressão do Governo
dos EUA). Conee, E. e Sider, T. (2005). Enigmas da Existência: Uma Visita
Guiada à Metafísica. Oxford: Oxford University Press.

Churchland, P. (1988). Matéria e consciência. Cambridge, MA: MIT Press.


Churchland, P. (1996). Motor da razão, sede da alma. Cambridge, MA: MIT
Press.

Fukuyama, F. (2002). Nosso futuro pós-humano: conseqüências da revolução


da biotecnologia. New York Farrar, Straus e Giroux.

Garreau, J. (2005). Evolução radical: a promessa e o perigo de melhorar nossas


mentes, nossos corpos - e o que significa ser humano. Nova York: Doubleday.

Hughes, J. (2004). Ciborgue do cidadão: Por que as sociedades democráticas


devem responder ao ser humano redesenhado do futuro. Cambridge, MA:
Westview Press.

Huxley, J. (1957). Novas garrafas para vinho novo. Londres: Chatto 8c Windus.

Joy, B. (2000). Por que o futuro não precisa de nós. Wired, 8: 238-46.

Kurzweil, R. (1999). A era das máquinas espirituais: quando os computadores


excedem a inteligência humana. Nova York: Viking.

Kurzweil, R. (2005). A singularidade está próxima: quando os humanos


transcendem a biologia. Nova York: Viking.

TIG Susan Schneider


Moore, G. (1965). Cramming mais componentes em circuitos integrados.
Electronics, 38 (8): 11-17. Recuperado em ftp://download.intel.com/research/
silicon / moorespaper.pdf.

Parfit, D. (1984). Razões e pessoas. Oxford: Oxford University Press.

Perry, J. (1975). Identidade pessoal, Berkeley: University of California Press.

Roco, MC, e Bainbridge, WS (eds.) (2002). Tecnologias convergentes para


melhorar o desempenho humano: Nanotecnologia, biotecnologia, tecnologia da
informação e ciência cognitiva. Arlington, VA: Fundação Nacional de Ciência /
Departamento de Comércio.

Sawyer, R. (2005). Mindscan. Nova York: Tor.

Vinge, V. (1993). A singularidade tecnológica que se aproxima: Como sobreviver


na era pós-humana. Relatórios Técnicos da NASA, Lewis Research Center
Vision 21: Ciência e Engenharia Interdisciplinares na Era do Ciberespaço, pp.
11-21.

Associação Transumanista Mundial (1998). Declaração Transhumanista.


Recuperado em http://www.transhumanism.org/index.php/WTA/declaration/ .

O Argumento do Juízo Final

John Leslie

No fim do mundo (legendado "a ciência e a ética da extinção humana"), discuti


um "argumento do dia do juízo final" declarado pela primeira vez pelo matemático
Brandon Carter. Assim como pode parecer absurdo ver nossa espécie inteligente
como a primeira de muitos milhões que estavam destinados a aparecer em
nosso universo, também pode parecer absurdo imaginar que você e eu estamos
em uma raça humana com quase toda a probabilidade de se espalhar através
sua galáxia, um processo que poderia ser concluído em menos de um milhão de
anos se a guerra de germes ou outros perigos não matasse a todos antes do
início do processo. Pode parecer absurdo porque, se a raça humana se espalhar
através de sua galáxia, você e eu presumivelmente estaríamos entre os
primeiros milionésimos, e muito possivelmente os bilionésimos primeiros de
todos os seres humanos que já teriam vivido. Pode ser muito mais sensato ver
a humanidade com grande probabilidade de se extinguir em breve, a menos que
tenhamos muito cuidado.

O argumento do juízo final de Carter às vezes é desafiado da seguinte maneira.


Suponha que existam muitos extraterrestres inteligentes espalhados pelo
espaço e pelo tempo. As chances de um observador de ser humano vivendo por
volta de 2000 dC não seriam afetadas se a maioria dos seres humanos vivesse
em datas muito mais tarde, graças à raça humana se espalhando por sua
galáxia? Infelizmente, o argumento sobrevive ao desafio. O ponto crucial é que
devemos (até encontrar evidências contrárias suficientes) tentar nos ver como
"razoavelmente comuns" dentro das várias classes em que caímos - tendo em
mente, naturalmente, que em alguns casos pode haver compensações a serem
feito

Detalhes da publicação original: "The Doomsday Argument", J. Leslie, 1992, The


Mathematical Intelligencer, 14.2, pp. 48-51. Reproduzido com permissão da
Springer.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

porque ser mais comum dentro de uma classe pode envolver ser menos comum
dentro de outra classe. Agora, você e eu caímos não apenas na classe dos
observadores, mas também na classe dos observadores humanos. E um
observador humano, descobrindo que o ano está próximo do ano 2000 dC, pode
se imaginar bastante comum entre os observadores humanos, supondo que a
raça humana não esteja destinada a se espalhar pela galáxia. Se a humanidade
fosse extinta em breve, por causa da recente explosão populacional, algo que
se aproximasse de um décimo de todos os seres humanos teria vivido quando
você e eu vivemos.

Observe que, mesmo que os seres humanos sejam estatisticamente muito


incomuns entre todos os observadores espalhados pelo espaço e pelo tempo,
observadores que se enquadram em muitas espécies diferentes, ainda pode
haver algo muito estranho em ser humano e não membro de outras espécies
inteligentes. Suponha, por exemplo, que existam um trilhão de espécies
inteligentes, exatamente do mesmo tamanho populacional. Ser humano
colocaria você na faixa de um em um trilhão; mas seria marciano ou qualquer
outra coisa e, portanto, não seria estranho. Por outro lado, seria estranho ser um
membro muito incomum de qualquer espécie inteligente em que se encontrasse.

A última questão

Isaac Asimov

Esta é de longe a minha história favorita de todos aqueles que escrevi.

Afinal, comprometi-me a contar vários trilhões de anos de história humana no


espaço de um conto e deixo para você o quão bem eu consegui. Também
empreendi outra tarefa, mas não vou lhe contar o que foi para não estragar a
história para você.

É um fato curioso que inúmeros leitores me perguntaram se eu escrevi essa


história. Eles parecem nunca se lembrar do título da história ou (com certeza) do
autor, exceto pelo vago pensamento que poderia ser eu. Mas, é claro, eles nunca
esquecem a história em si, especialmente o final. A idéia parece abafar tudo - e
estou satisfeito que deveria.

A última pergunta foi feita pela primeira vez, em tom de brincadeira, em 21 de


maio de 2061, quando a humanidade entrou na luz pela primeira vez. A pergunta
surgiu como resultado de uma aposta de cinco dólares nas bolas altas e
aconteceu da seguinte maneira:

Alexander Adell e Bertram Lupov foram dois dos fiéis assistentes da Multivac.
Tão bem quanto qualquer ser humano, eles sabiam o que havia por trás do rosto
frio e estalante - quilômetros e quilômetros de rosto - daquele computador
gigante. Eles tinham pelo menos uma vaga noção do plano geral de relés e
circuitos que há muito haviam passado do ponto em que um único humano
poderia ter uma compreensão firme do todo.

Detalhes da publicação original: “The Last Question”, Isaac Asimov, em Robot


Dreams, Byron Preiss Visual Publications Inc., 1986. Copyright © Isaac Asimov.
Reproduzido com permissão da Asimov Holdings LLC.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Multivac foi auto-ajustável e auto-corrigível. Tinha que ser, pois nada humano
poderia ajustá-lo e corrigi-lo com rapidez suficiente ou mesmo suficientemente.
Assim, Adell e Lupov assistiram ao gigante monstruoso apenas superficial e
superficialmente, mas tão bem quanto qualquer homem. Eles forneceram dados,
ajustaram as perguntas às suas necessidades e traduziram as respostas que
foram emitidas. Certamente eles e todos os outros como eles tinham pleno direito
de compartilhar a glória que era a Multivac.

Por décadas, o Multivac ajudou a projetar as naves e traçar as trajetórias que


permitiram ao homem alcançar a Lua, Marte e Vênus, mas depois disso, os
pobres recursos da Terra não puderam suportar as naves. Foi necessária muita
energia para as longas viagens. A Terra explorou seu carvão e urânio com
eficiência crescente, mas havia tanto de ambos.
Mas lentamente o Multivac aprendeu o suficiente para responder a questões
mais profundas de maneira mais fundamental e, em 14 de maio de 2061, o que
havia sido teoria, tornou-se fato.

A energia do sol foi armazenada, convertida e utilizada diretamente em escala


planetária. Toda a Terra desligou seu carvão ardente, seu urânio de fissão e
ligou o interruptor que o conectava a uma pequena estação, com 1,6 km de
diâmetro, circulando a Terra a metade da distância da Lua. Toda a Terra correu
por raios invisíveis de poder solar.

Sete dias não foram suficientes para ofuscar a glória e Adell e Lupov finalmente
conseguiram escapar das funções públicas e se reunir em silêncio onde ninguém
pensaria em procurá-los, nas câmaras subterrâneas desertas, onde porções dos
poderosos corpo enterrado de Multivac mostrou. Dados autônomos, ociosos e
classificando com cliques preguiçosos e satisfeitos, o Multivac também ganhou
suas férias e os meninos gostaram disso. Originalmente, eles não tinham
intenção de perturbá-lo.

Eles trouxeram uma garrafa com eles, e sua única preocupação no momento era
relaxar na companhia um do outro e da garrafa.

"É incrível quando você pensa sobre isso", disse Adell. Seu rosto largo tinha
linhas de cansaço, e ele mexeu sua bebida lentamente com uma haste de vidro,
observando os cubos de gelo se arrastarem desajeitadamente. “Toda a energia
que podemos usar de graça. Energia suficiente, se quiséssemos utilizá-la,
derreter toda a Terra em uma grande gota de ferro líquido impuro e ainda assim
nunca perder a energia usada. Toda a energia que poderíamos usar, para
sempre, para todo o sempre. Lupov inclinou a cabeça para o lado. Ele tinha um
truque para fazer isso quando queria ser contrário, e agora queria ser contrário,
em parte porque tinha que carregar gelo e copos. "Não para sempre", disse ele.

“Oh, inferno, quase para sempre. Até o sol se pôr, Bert.

"Isso não é para sempre."

"Tudo bem então. Bilhões e bilhões de anos. Dez bilhões, talvez. Você está
satisfeito? Lupov passou os dedos pelos cabelos ralos como se quisesse se
assegurar de que ainda restava alguma coisa e sorveu delicadamente sua
própria bebida. "Dez bilhões de anos não são para sempre."

"Bem, vai durar o nosso tempo, não é?"

"O carvão e o urânio também."

“Tudo bem, mas agora podemos conectar cada nave espacial à Estação Solar,
e ela pode ir a Plutão e voltar um milhão de vezes sem se preocupar com
combustível. Você não pode fazer isso com carvão e urânio. Pergunte à Multivac,
se você não acredita em mim.

“Não preciso perguntar à Multivac. Eu sei disso."

"Então pare de ver o que Multivac fez por nós", disse Adell, resplandecendo:
"Tudo deu certo".

“Quem disse que não? O que eu digo é que um sol não vai durar para sempre.
É tudo o que estou dizendo. Estamos seguros por dez bilhões de anos, mas e
daí? Lupow apontou um dedo levemente trêmulo para o outro. "E não diga que
vamos mudar para outro sol." Houve silêncio por um tempo. Adell colocou o copo
nos lábios apenas ocasionalmente, e os olhos de Lupov se fecharam lentamente.
Eles descansaram.

Então os olhos de Lupov se abriram. "Você está pensando que mudaremos para
outro sol quando o nosso terminar, não é?"

"Eu não estou pensando."

"Com certeza você é. Você é fraco em lógica, esse é o problema com você. Você
é como o cara da história que foi pego em um banho repentino e que correu para
um bosque de árvores e ficou debaixo de um. Ele não estava preocupado,
porque ele imaginou que quando uma árvore se molhava, ele ficaria embaixo de
outra. - Eu entendo - disse Adell. “Não grite. Quando o sol acabar, as outras
estrelas também terão desaparecido.

- Eles estão certos - murmurou Lupov. “Tudo teve um começo na explosão


cósmica original, o que quer que fosse, e tudo terá um fim quando todas as
estrelas se esgotarem. Alguns acabam mais rápido que outros. Inferno, os
gigantes não durarão cem milhões de anos. O sol durará dez bilhões de anos e
talvez os anões durem duzentos bilhões por todo o bem que são. Mas nos dê
um trilhão de anos e tudo ficará escuro. A entropia precisa aumentar ao máximo,
só isso. ”

"Eu sei tudo sobre entropia", disse Adell, mantendo sua dignidade.

"Que diabos você faz."

"Eu sei tanto quanto você."

"Então você sabe que tudo vai acabar um dia."

"Tudo certo. Quem disse que não?


- Você fez, pobre coitado. Você disse que tínhamos toda a energia que
precisávamos, para sempre. Você disse para sempre.'"

Foi a vez de Adell ser contrário. "Talvez possamos construir as coisas novamente
algum dia", disse ele.

"Nunca."

"Por que não? Algum dia."

"Nunca."

"Pergunte ao Multivac."

“Você pergunta a Multivac. Atreva-se. Cinco dólares dizem que não pode ser
feito.

Adell estava bêbado o suficiente para tentar, sóbrio o suficiente para ser capaz
de transformar os símbolos e operações necessários em uma pergunta que, em
palavras, poderia ter correspondido a isso: A humanidade um dia, sem o gasto
líquido de energia, poderá restaurar o sol até sua juventude, mesmo depois de
ter morrido de velhice?

Ou talvez seja mais simples assim: como a quantidade líquida de entropia do


universo pode ser reduzida maciçamente?

Multivac caiu morto e silencioso. O piscar lento das luzes cessou, os sons
distantes dos relés de clique terminaram.

Então, assim como os técnicos assustados achavam que não conseguiam mais
segurar a respiração, houve um repentino salto de vida do teletipo ligado àquela
parte do Multivac. Cinco palavras foram impressas: DADOS INSUFICIENTES
PARA RESPOSTA SIGNIFICATIVA.

"Sem aposta", sussurrou Lupov. Eles saíram às pressas.

Na manhã seguinte, os dois, atormentados com cabeça latejante e boca de


algodão, haviam esquecido o incidente.

Jerrodd, Jerrodine e Jerrodette I e II observaram a imagem estrelada na tela


mudar, enquanto a passagem pelo hiperespaço era completada em seu lapso
não temporal. Ao mesmo tempo, o pó uniforme de estrelas deu lugar à
predominância de um único disco brilhante e brilhante, do tamanho de um
mármore, centralizado na tela de visualização.
"Esse é o X-23", disse Jerrodd, confiante. Suas mãos finas apertaram
firmemente atrás das costas e os nós dos dedos embranqueceram.

As pequenas Jerrodettes, as duas meninas, haviam experimentado a passagem


do hiperespaço pela primeira vez em suas vidas e ficaram constrangidas durante
o momento.

sensação de interioridade.

Eles enterraram suas risadas e se perseguiram loucamente sobre sua mãe,


gritando: “Chegamos ao X-23 - chegamos ao X-23 - temos

"Calma, crianças." Disse Jerrodine bruscamente. "Você tem certeza, Jerrodd?"

- O que há para ter, mas com certeza? - perguntou Jerrodd, olhando para o
volume de metal inexpressivo logo abaixo do teto. Ele percorreu toda a sala,
desaparecendo através da parede em cada extremidade. Foi enquanto o navio.

Jerrodd mal sabia algo sobre a barra grossa de metal, exceto que se chamava
Microvac, que alguém lhe perguntava se desejava; que, se não o tivéssemos,
ainda tinha a tarefa de guiar o navio a um destino predeterminado; de alimentar-
se de energias das várias centrais sub-galácticas; de calcular as equações para
os saltos hiperespaciais. Jerrodd e sua família tiveram apenas que esperar e
morar nos confortáveis alojamentos do navio. Alguém havia dito a Jerrodd que o
"ac" no final de "Microvac" significava "computador automático" no inglês antigo,
mas ele estava prestes a esquecer isso. Os olhos de Jerrodine estavam úmidos
enquanto ela observava a janela. Não posso evitar. Eu me sinto engraçado por
deixar a Terra.

“Por que, pelo amor de Pete?” Exigiu Jerrodd. “Não tínhamos nada lá. Teremos
tudo no X-23. Você não estará sozinho. Você não será pioneiro. Já existem mais
de um milhão de pessoas no planeta. Bom Deus, nossos bisnetos estarão
procurando novos mundos porque o X-23 estará superlotado. ”Então, depois de
uma pausa reflexiva,“ digo a você, é uma sorte que os computadores tenham
trabalhado nas viagens interestelares do jeito que a corrida está crescendo ”.

"Eu sei, eu sei", disse Jerrodine miseravelmente.

Jerrodette eu disse prontamente: "Nosso Microvac é o melhor Microvac do


mundo".

"Eu também acho", disse Jerrodd, despenteando os cabelos.


Foi uma sensação agradável ter um Microvac e Jerrodd ficou feliz por ele fazer
parte de sua geração e de nenhuma outra. Na juventude de seu pai, os únicos
computadores eram tremendas máquinas ocupando 160 quilômetros quadrados
de terra. Havia apenas um em um planeta. ACs planetários eles foram
chamados. Eles haviam crescido de tamanho constantemente por mil anos e
então, de repente, veio o refinamento. No lugar dos transistores, vieram válvulas
moleculares para que até o maior CA Planetário pudesse ser colocado em um
espaço com apenas metade do volume de uma nave espacial.

Jerrodd sentiu-se exaltado, como sempre fazia quando pensava que seu
Microvac pessoal era muitas vezes mais complicado que o Multivac antigo e
primitivo que domara o Sol pela primeira vez e quase tão complicado quanto o
CA Planetário da Terra (o maior) que havia resolvido pela primeira vez. o
problema da viagem hiperespacial e tornou possíveis as viagens às estrelas.
"Tantas estrelas, tantos planetas", suspirou Jerrodine, ocupada com seus
próprios pensamentos. “Suponho que as famílias vão sair para novos planetas
para sempre, do jeito que estamos agora.” “Não para sempre”, disse Jerrodd,
com um sorriso. “Tudo vai parar um dia, mas não por bilhões de anos. Muitos
bilhões. Até as estrelas decaem, você sabe. A entropia deve aumentar.

"O que é entropia, papai?" Jerrodette II estridente.

“Entropia, um pouco doce, é apenas uma palavra que significa a quantidade de


degradação do universo. Tudo corre mal, como o seu pequeno robô walkie-talkie,
lembra?

"Você não pode simplesmente colocar uma nova unidade de energia, como no
meu robô?"

“As estrelas são as unidades de força, querida. Depois que eles se foram, não
há mais unidades de energia. ”

Jerrodette Eu imediatamente soltei um uivo. “Não deixe eles, papai. Não deixe
as estrelas decolarem.

- Agora veja o que você fez - sussurrou Jerrodine, exasperado.

- Como eu ia saber que isso os assustaria? Jerrodd sussurrou de volta.

"Pergunte ao Microvac", lamentou Jerrodette I. "Pergunte a ele como ligar as


estrelas novamente."

"Vá em frente", disse Jerrodine. “Isso os acalmará.” (Jerrodette II também estava


começando a chorar.)
Jerrodd deu de ombros. “Agora, agora, méis. Vou perguntar ao Microvac. Não
se preocupe, ele nos dirá.

Ele perguntou ao Microvac, acrescentando rapidamente: "Imprima a resposta".

Jerrodd segurou a tira fina de celofane e disse alegremente: “Veja agora, o


Microvac diz que vai cuidar de tudo quando chegar a hora, então não se
preocupe.” Jerrodine disse: “E agora, crianças, é hora de dormir. Logo estaremos
em nossa nova casa. Jerrodd leu as palavras novamente no celular antes de
destruí-lo: DADOS INSUFICIENTES PARA SIGNIFICAR RESPOSTA.

Ele deu de ombros e olhou para o visor. X-23 estava logo à frente.

O VJ-23X de Lameth olhou para as profundezas negras do mapa tridimensional


de pequena escala da galáxia e disse: "Somos ridículos, imagino estar tão
preocupado com o assunto?"

MQ-17J de Nicron balançou a cabeça. "Eu acho que não. Você sabe que o
Galaxy será preenchido em cinco anos na atual taxa de expansão. ”

Ambos pareciam ter vinte e poucos anos, eram altos e perfeitamente formados.

"Ainda assim", disse VJ-23X, "hesito em enviar um relatório pessimista ao


Conselho Galáctico."

“Eu não consideraria nenhum outro tipo de relatório. Mexa um pouco. Temos que
agitá-los.

VJ-23X suspirou. “O espaço é infinito. Cem bilhões de galáxias estão lá para


serem capturadas. Mais."

“Cem bilhões não são infinitos e estão ficando menos infinitos o tempo todo.
Considerar! Vinte mil anos atrás, a humanidade resolveu o problema da
utilização de energia estelar e, alguns séculos depois, a viagem interestelar se
tornou possível. A humanidade levou um milhão de anos para encher um mundo
pequeno e depois apenas quinze mil anos para encher o resto da galáxia. Agora
a população dobra a cada dez anos -

VJ-23X interrompido. "Podemos agradecer a imortalidade por isso."

"Muito bem. A imortalidade existe e temos que levar isso em conta. Admito que
tem seu lado obscuro, essa imortalidade. O CA Galáctico resolveu muitos
problemas para nós, mas, ao resolver o problema de evitar a velhice e a morte,
desfez todas as outras soluções. ”
"Mas você não gostaria de abandonar a vida, suponho."

“De jeito nenhum”, rebateu o MQ-17J, suavizando-o de uma vez para: “Ainda
não. Eu não tenho idade suficiente. Quantos anos você tem?"

"223. E você?"

Ainda estou com duzentos. - Mas voltando ao meu ponto. A população dobra a
cada dez anos. Uma vez que esta galáxia esteja cheia, teremos outra em dez
anos. Mais dez anos e teremos mais dois preenchidos. Mais uma década, mais
quatro. Em cem anos, teremos preenchido mil galáxias.

Em mil anos, um milhão de galáxias. Em dez mil anos, todo o universo


conhecido. Então o que?"

O VJ-23X disse: “Como uma questão secundária, há um problema de transporte.


Gostaria de saber quantas unidades de energia solar serão necessárias para
mover galáxias de indivíduos

de uma galáxia para a próxima. "

“Um ponto muito bom. A humanidade já consome duas unidades de energia solar
por

ano."

“A maior parte é desperdiçada. Afinal, somente nossa própria galáxia gasta mil
unidades de energia solar por ano e usamos apenas duas delas. ”

“Concedido, mas mesmo com cem por cento de eficiência, apenas evitamos o
fim. Nossas necessidades de energia estão subindo em uma progressão
geométrica ainda mais rápido que nossa população. Nós ficaremos sem energia
ainda mais cedo do que as Galáxias. Um bom ponto. Um ponto muito bom.

"Nós apenas teremos que construir novas estrelas com gás interestelar".

“Ou com calor dissipado?” Perguntou MQ-17J, sarcasticamente.

“Pode haver alguma maneira de reverter a entropia. Deveríamos perguntar ao


CA Galáctico. ”

O VJ-23X não era realmente sério, mas o MQ-17J tirou o contato da CA do bolso
e o colocou na mesa diante dele.
"Eu tenho meia mente", disse ele. "É algo que a raça humana terá que enfrentar
um dia."

Ele olhou sombriamente para seu pequeno contato de corrente alternada. Era
apenas duas polegadas em cubos e nada em si, mas estava conectado através
do hiperespaço com o grande CA Galáctico que serviu a toda a humanidade. O
hiperespaço considerado, era parte integrante do CA Galáctico.

MQ-17J parou para pensar se algum dia em sua vida imortal ele conseguiria ver
o CA Galáctico. Era um mundo próprio, uma teia de aranha de feixes de força
contendo a matéria dentro da qual ondas de submesões tomaram o lugar das
velhas válvulas moleculares desajeitadas. No entanto, apesar de seu
funcionamento subetérico, o CA Galáctico era conhecido por ter milhares de
metros de diâmetro.

MQ-17J perguntou de repente sobre seu contato de CA: "A entropia pode ser
revertida?"

O VJ-23X pareceu surpreso e disse imediatamente: "Oh, diga, eu realmente não


queria que você perguntasse isso."

"Por que não?"

“Nós dois sabemos que a entropia não pode ser revertida. Você não pode
transformar fumaça e cinzas de volta em uma árvore.

“Você tem árvores no seu mundo?” Perguntou MQ-17J.

O som do CA Galáctico os assustou. Sua voz saiu fina e bonita do pequeno


contato AC na mesa. Dizia: EXISTEM DADOS INSUFICIENTES PARA UMA
RESPOSTA SIGNIFICATIVA.

O VJ-23X disse: "Veja!"

Os dois homens voltaram à questão do relatório que deviam apresentar ao


Conselho Galáctico.

A mente de Zee Prime abrangia a nova galáxia com um leve interesse nas
inúmeras reviravoltas de estrelas que a pulverizavam. Ele nunca tinha visto esse
antes. Ele alguma vez veria todos eles? Muitos deles, cada um com sua carga
de humanidade. - Mas uma carga que era quase um peso morto. Cada vez mais,
a verdadeira essência dos homens era encontrada aqui, no espaço.

Mentes, não corpos! Os corpos imortais permaneceram de volta aos planetas,


em suspensão ao longo das eras. Às vezes, eles despertavam para a atividade
material, mas isso estava ficando mais raro. Poucos indivíduos novos estavam
surgindo para se juntar à multidão incrivelmente poderosa, mas o que importa?
Havia pouco espaço no Universo para novos indivíduos.

Zee Prime foi despertado de seus devaneios ao se deparar com os tentáculos


finos de outra mente.

"Eu sou o Zee Prime", disse Zee Prime. "E você?"

“Eu sou Dee Sub Wun. Sua galáxia?

“Nós chamamos isso apenas de Galaxy. E você?"

“Nós chamamos o nosso da mesma forma. Todos os homens chamam sua


galáxia de galáxia e nada mais. Por que não?"

"Verdadeiro. Como todas as galáxias são iguais.

“Nem todas as galáxias. Em uma galáxia em particular, a raça humana deve ter
se originado. Isso a torna diferente.

Zee Prime disse: "Em qual?"

"Eu não posso dizer. O Universal AC saberia. ”

“Vamos perguntar a ele? De repente estou curioso.

As percepções de Zee Prime se ampliaram até as próprias galáxias encolherem


e se tornarem um pó novo e mais difuso em um fundo muito maior. Tantas
centenas de bilhões deles, todos com seus seres imortais, todos carregando sua
carga de inteligências com mentes que flutuavam livremente pelo espaço. E, no
entanto, um deles era único entre todos, sendo a galáxia original. Um deles teve,
em seu passado vago e distante, um período em que era a única galáxia
habitada pelo homem.

Zee Prime foi consumido com curiosidade por ver essa galáxia e chamou:
“Universal AC! De que galáxia a humanidade se originou?

O AC Universal ouviu, pois em todo mundo e em todo o espaço, ele tinha seus
receptores prontos, e cada receptor conduziu o hiperespaço a algum ponto
desconhecido onde o AC Universal se mantinha à distância.
Zee Prime conhecia apenas um homem cujos pensamentos haviam penetrado
a uma certa distância do Universal AC, e relatou apenas um globo brilhante, com
um metro de largura, difícil de ver.

"Mas como isso pode ser todo o Universal AC?", Perguntou Zee Prime.

“A maior parte”, tinha sido a resposta, “está no hiperespaço. De que forma está
aí, não consigo imaginar.

Zee Prime sabia que ninguém, pois já passara o dia há muito tempo, quando
alguém fazia parte da criação de um CA Universal. Cada AC universal projetou
e construiu seu sucessor. Cada um deles, durante sua existência de um milhão
de anos ou mais, acumulou os dados necessários para construir um sucessor
melhor, mais intrincado e mais capaz, no qual seu próprio armazenamento de
dados e individualidade estaria submerso. O Universal AC interrompeu os
pensamentos errantes de Zee Prime, não com palavras, mas com orientação. A
mentalidade de Zee Prime foi guiada para o mar escuro das Galáxias e uma em
particular ampliada em estrelas.

Um pensamento veio, infinitamente distante, mas infinitamente claro. "ESTA É A


GALÁXIA ORIGINAL DO HOMEM."

Mas era o mesmo, afinal, o mesmo que qualquer outro, e Lee Prime sufocou sua
decepção.

Dee Sub Wun, cuja mente acompanhou a outra, disse repentinamente: "E uma
dessas estrelas é a estrela original do homem?"

O Universal AC disse: “A ESTRELA ORIGINAL DO HOMEM FOI NOVA. É UM


ANO BRANCO ”

“Os homens morreram?” Perguntou Lee Prime, assustado e sem pensar.

O Universal AC disse: "UM NOVO MUNDO, COMO NESTE CASO, FOI


CONSTRUÍDO PARA OS SEUS CORPOS FÍSICOS A TEMPO."

"Sim, é claro", disse Zee Prime, mas uma sensação de perda o dominou. Sua
mente se soltou da galáxia do homem original, deixando-a voltar e se perder
entre os pontos borrados. Ele nunca mais quis vê-lo.

Dee Sub Wun disse: "O que há de errado?"

“As estrelas estão morrendo. A estrela original está morta.

Todos eles devem morrer. Por que não?"


"Mas quando toda a energia acabar, nossos corpos finalmente morrerão, e você
e eu com eles."

"Vai levar bilhões de anos."

“Não desejo que isso aconteça mesmo depois de bilhões de anos. Universal AC!
Como as estrelas podem ser impedidas de morrer?

Dee Sub Wun disse, divertido: "Você está perguntando como a entropia pode
ser revertida na direção".

E o Universal AC respondeu: "EXISTEM DADOS INSUFICIENTES PARA UMA


RESPOSTA SIGNIFICATIVA".

Os pensamentos de Zee Prime fugiram de volta para sua própria galáxia. Ele
não pensou mais em Dee Sub Wun, cujo corpo poderia estar esperando em uma
galáxia a um trilhão de anos-luz de distância, ou na estrela ao lado da de Zee
Prime. Isso não importava.

Infelizmente, Zee Prime começou a coletar hidrogênio interestelar para construir


uma pequena estrela. Se as estrelas algum dia morrerem, pelo menos algumas
ainda poderão ser construídas.

O homem considerou consigo mesmo, pois de certa forma, o homem,


mentalmente, era um. Ele consistia em trilhões, trilhões, trilhões de corpos sem
idade, cada um no seu lugar, cada um descansando quieto e incorruptível, cada
um tratado por autômatos perfeitos, igualmente incorruptíveis, enquanto as
mentes de todos os corpos se fundiam livremente entre si, indistinguíveis. O
homem disse: "O universo está morrendo".

O homem olhou para as galáxias obscurecidas. As estrelas gigantes,


gastadoras, se foram há muito tempo, de volta ao mais escuro do passado
distante. Quase todas as estrelas eram anãs brancas, desaparecendo até o fim.

Novas estrelas foram construídas a partir do pó entre as estrelas, algumas por


processos naturais, algumas pelo próprio Homem, e aquelas também estavam
indo. As anãs brancas ainda podem ser colididas e das poderosas forças
liberadas, novas estrelas construídas, mas apenas uma estrela para cada mil
anãs brancas destruídas, e essas também terminariam.

O homem disse: “Cuidadosamente cultivado, conforme dirigido pelo AC


Cósmico, a energia que ainda resta em todo o Universo durará bilhões de anos.”
“Mas mesmo assim,” disse o Homem, “eventualmente tudo chegará a um ponto.
fim. Por mais que possa ser cultivado, por mais esticado que seja, a energia
gasta se esvai e não pode ser restaurada. A entropia deve aumentar para
sempre ao máximo.

O homem disse: “A entropia não pode ser revertida? Vamos perguntar ao AC


Cósmico. ”

O AC Cósmico os cercou, mas não no espaço. Nenhum fragmento estava no


espaço. Estava no hiperespaço e era feito de algo que não era matéria nem
energia. A questão de seu tamanho e natureza não tinha mais significado em
termos que o homem pudesse compreender.

"AC cósmico", disse Man, "como a entropia pode ser revertida?"

O AC Cósmico disse: "EXISTEM DADOS INSUFICIENTES PARA UMA


RESPOSTA SIGNIFICATIVA".

O homem disse: "Colete dados adicionais".

O AC Cósmico disse: “Farei isso. ESTOU FAZENDO ISSO POR CEM BILHÕES
DE ANOS. MEUS PREDECESSORES E EU FIZERAM ESTA PERGUNTA
MUITAS VEZES. TODOS OS DADOS QUE EU TENHO INSUFICIENTE. ”

"Chegará um momento", disse Man, "em que os dados serão suficientes ou o


problema é insolúvel em todas as circunstâncias concebíveis?"

O AC Cósmico disse: "NENHUM PROBLEMA É INSOLÚVEL EM TODAS AS


CIRCUNSTÂNCIAS CONCEITÁVEIS".

O homem disse: "Quando você terá dados suficientes para responder à


pergunta?" O CA Cósmico disse: "EXISTEM DADOS INSUFICIENTES PARA
UMA RESPOSTA SIGNIFICATIVA".

“Você continuará trabalhando nisso?” Perguntou Man. O AC Cósmico disse: "EU


VOU".

O homem disse: "Vamos esperar".

As estrelas e as galáxias morreram e se apagaram, e o espaço ficou preto depois


de dez trilhões de anos se esgotando.

Um por um homem fundiu-se com a CA, cada corpo físico perdendo sua
identidade mental de uma maneira que de alguma forma não foi uma perda, mas
um ganho.
A última mente do homem parou antes da fusão, olhando para um espaço que
incluía nada além dos restos de uma última estrela escura e nada além de
matéria incrivelmente fina, agitada aleatoriamente pelas extremidades do calor
que se desgastavam, assintoticamente, ao zero absoluto. O homem disse: “AC,
isso é o fim? Esse caos não pode ser revertido para o Universo mais uma vez?
Isso não pode ser feito?

AC disse: "Ainda existem dados insuficientes para uma resposta significativa."

A última mente do homem fundida e apenas a CA existia - e isso no hiperespaço.

A matéria e a energia haviam terminado e com ela espaço e tempo. Até o AC


existia apenas em prol da última pergunta que nunca havia respondido desde
que um computador [técnico] meio bêbado, dez trilhões de anos antes, fez a
pergunta de um computador que era para o AC muito menos do que um homem
deveria responder. Cara.

Todas as outras perguntas foram respondidas e, até que essa última pergunta
também fosse respondida, AC poderia não liberar sua consciência.

Todos os dados coletados chegaram ao fim final. Nada foi deixado para ser
coletado. Mas todos os dados coletados ainda tinham que ser completamente
correlacionados e reunidos em todos os relacionamentos possíveis.

Um intervalo atemporal foi gasto para fazer isso.

E aconteceu que o AC aprendeu a reverter a direção da entropia.

Mas agora não havia homem a quem AC pudesse dar a resposta da última
pergunta. Não importa. A resposta - por demonstração - também resolveria isso.

Por outro intervalo atemporal, o AC pensou na melhor maneira de fazer isso.


Cuidadosamente, a AC organizou o programa.

A consciência do CA abarcava tudo o que antes era um universo e refletia sobre


o que era agora o caos. Passo a passo, isso deve ser feito.

E AC disse: "VAMOS LUZ!"

E havia luz -

As Três Leis da Robótica de Asimov e Metaética da Máquina


Susan Leigh Anderson

Introdução

Uma vez que as pessoas entendem que a Ética das Máquinas tem a ver com o
comportamento das máquinas inteligentes, e não dos seres humanos, elas
freqüentemente sustentam que Isaac Asimov já nos deu um conjunto ideal de
regras para essas máquinas. Eles têm em mente as “Três Leis da Robótica” de
Asimov:

1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser
humano seja prejudicado.

2. Um robô deve obedecer às ordens dadas pelos seres humanos, exceto onde
essas ordens entrem em conflito com a Primeira Lei.

3. Um robô deve proteger sua própria existência, desde que essa proteção não
entre em conflito com a Primeira ou a Segunda Lei. (Asimov 1984)

Argumentarei que, em "O Homem do Bicentenário" (Asimov 1984), Asimov


rejeitou suas próprias Três Leis como uma base adequada para a Ética das
Máquinas. Ele acreditava que um robô com as características de Andrew, o herói
robô da história, não deveria ser obrigado a ser escravo dos seres humanos,
como ditam as Três Leis. Além disso, ele forneceu uma explicação sobre o
motivo pelo qual os humanos sentem a necessidade de tratar robôs inteligentes
como escravos, uma explicação que mostra uma fraqueza nos seres humanos
que dificulta que eles sejam modelos éticos. Por causa dessa fraqueza, parece
provável que máquinas como Andrew sejam mais éticas do que

Detalhes da publicação original: “As Três Leis da Robótica” e Metaética da


Máquina, de Asimov, Susan Leigh Anderson, de Proceedings of the AAAI Fall
Symposium on Machine Ethics, ed. Anderson. Reproduzido com permissão da
AAAI.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

a maioria dos seres humanos. “O Homem Bicentenário” nos dá esperança de


que, não apenas as máquinas inteligentes possam ser ensinadas a se comportar
de maneira ética, mas também sejam capazes de levar os seres humanos a se
comportarem de maneira mais ética.
Para ser mais específico, usarei “O Homem do Bicentenário” como um trampolim
para uma discussão sobre a Metaética da Máquina, levando às seguintes
conclusões: (1) Uma máquina poderia seguir princípios éticos melhor do que a
maioria dos seres humanos e, portanto, pelo menos , é adequado para ser um
consultor ético para humanos. (2) O desenvolvimento de um programa que
permita que uma máquina atue como consultor ético de seres humanos, sem
dúvida um primeiro passo no projeto de Ética da Máquina, não exigirá que
consideremos o status de máquinas inteligentes; mas, para que as máquinas
sigam os próprios princípios éticos, o objetivo final do projeto de Ética das
Máquinas, é essencial que determinemos seu status, o que não será fácil. (3)
Um robô inteligente como Andrew satisfaz a maioria, se não todos, dos requisitos
que os filósofos propuseram a um ser / entidade ter posição / direitos morais,
tornando imorais as Três Leis. (4) Mesmo que as máquinas que são realmente
desenvolvidas não sejam como Andrew e provavelmente não devam ser
consideradas como posição / direitos morais, ainda é problemático para os
humanos programá-las para seguir as Três Leis da Robótica. De (3) e (4),
podemos concluir que (5) qualquer que seja o status das máquinas que são
desenvolvidas, as Três Leis da Robótica de Asimov serão uma base
insatisfatória para a Ética das Máquinas.

"O homem do bicentenário"

“O homem do bicentenário”, de Isaac Asimov, foi originalmente contratado para


fazer parte de um volume de histórias escritas por autores conhecidos para
comemorar o bicentenário dos Estados Unidos. 1 Embora o projeto não tenha
se concretizado, Asimov terminou com um trabalho particularmente poderoso de
ficção científica filosófica como resultado do desafio que ele recebeu. É
importante conhecermos os antecedentes para escrever a história, porque "O
Homem do Bicentenário" é simultaneamente uma história sobre a história dos
Estados Unidos e um veículo para Asimov apresentar sua visão de como os
robôs inteligentes devem ser tratados e obrigados a agir.

"O Homem Bicentenário" começa com as Três Leis da Robótica. A história que
se segue é contada do ponto de vista de Andrew, um robô experimental inicial -
destinado a ser um servo na casa de Martin - que foi programado para obedecer
às Três Leis. Andrew recebeu seu nome humano pela filha mais nova da família,
Little Miss, para quem ele esculpiu um belo pingente de madeira. Isso levou à
percepção de que Andrew tinha talentos únicos que os Martins o encorajaram a
desenvolver, dando-lhe livros para ler sobre design de móveis.

A pequena senhorita, sua campeã durante a vida dela, ajudou Andrew a lutar
primeiro pelo direito de receber dinheiro de suas criações e depois pela liberdade
que desejava. Um juiz finalmente concedeu a Andrew sua liberdade, apesar do
advogado oponente argumentar que: “A palavra liberdade não tem significado
quando aplicada a um robô. Somente um ser humano pode ser livre. ”Em sua
decisão, o juiz sustentou que:“ Não há direito de negar liberdade a qualquer
objeto com uma mente avançada o suficiente para compreender o conceito e
desejar o estado ”.
Andrew continuou morando na propriedade dos Martins em uma pequena casa
que fora construída para ele, ainda seguindo as Três Leis, apesar de ter sido
concedida sua liberdade. Ele começou a usar roupas, para que não fosse tão
diferente dos seres humanos e, mais tarde, substituiu seu corpo por um andróide
pelo mesmo motivo. Andrew queria ser aceito como ser humano.

Em um incidente particularmente poderoso, logo depois que ele começou a usar


roupas, Andrew encontrou alguns valentões humanos enquanto estava a
caminho da biblioteca. Eles ordenaram que ele tirasse a roupa e depois se
desmontasse. Ele teve que obedecer aos humanos por causa da Segunda Lei e
não pôde se defender sem prejudicar os agressores, o que teria sido uma
violação da Primeira Lei. Ele foi salvo a tempo pelo filho de Little Miss, que o
informou que os seres humanos têm um medo irracional de um robô inteligente,
imprevisível e autônomo, que pode existir mais do que um ser humano - mesmo
programado com as Três Leis - e foi por isso que eles queriam destruí-lo.

Em uma última tentativa de ser aceito como ser humano, Andrew organizou que
seu cérebro "positrônico" deixaria de funcionar lentamente, exatamente como
um cérebro humano. Ele sustentou que não violava a Terceira Lei, já que suas
"aspirações e desejos" eram mais importantes para sua vida do que "a morte de
seu corpo". Este último sacrifício que Andrew fez, "aceitando] até a morte como
humana". finalmente permitiu que ele fosse aceito como um ser humano. Ele
morreu duzentos anos depois que foi criado e foi declarado "o Homem do
Bicentenário". Em suas últimas palavras, sussurrando o nome "Pequena Miss",
Andrew reconheceu o único ser humano que o aceitou e o apreciou desde o
início.

Claramente, a história tem como objetivo lembrar os americanos de sua história,


que grupos específicos, especialmente afro-americanos, tiveram que lutar por
sua liberdade e serem plenamente aceitos por outros seres humanos. 2 Era
errado que os afro-americanos fossem obrigados a agir como escravos das
pessoas brancas e sofressem muitas indignidades e, pior ainda, comparáveis ao
que os agressores infligiam a Andrew. E, como no caso da sociedade em que
Andrew trabalhava que tinha um medo irracional de robôs, havia crenças
irracionais sobre os negros, levando a seus maus-tratos, entre os brancos nos
estágios iniciais da nossa história. Infelizmente, apesar da afirmação de
Aristóteles de que "o homem é o animal racional", os seres humanos tendem a
se comportar de maneira irracional quando seus interesses são ameaçados e
devem lidar com seres / entidades que consideram diferentes.

Na história dos Estados Unidos, gradualmente, cada vez mais seres obtêm os
mesmos direitos que outros possuíam e, como resultado, nos tornamos uma
sociedade mais ética. Os éticos estão atualmente lutando com a questão de
saber se pelo menos alguns animais de ordem superior devem ter direitos, e o
status dos fetos humanos também foi debatido. No horizonte, surge a questão
de saber se as máquinas inteligentes devem ter posição moral.
Asimov fez um excelente argumento para a visão de que certos tipos de
máquinas inteligentes, como Andrew, deveriam receber direitos e não deveriam
ser obrigados a agir como escravos para os seres humanos. No final da história,
vemos como é errado o fato de Andrew ter sido forçado a seguir as Três Leis.
No entanto, ainda nos resta algo positivo, refletindo, sobre Andrew ter sido
programado para seguir princípios morais. Eles podem não ter sido os princípios
corretos , pois não reconheciam os direitos que Andrew deveria ter, mas Andrew
era uma entidade muito mais moral do que a maioria dos seres humanos que
encontrou. (A maioria dos seres humanos em "O Homem do Bicentenário"
estava propensa a se deixar levar por emoções irracionais, particularmente
medos irracionais, para que não se comportassem tão racionalmente quanto
Andrew.) Se pudermos encontrar o conjunto certo de princípios éticos para para
eles seguirem, máquinas inteligentes poderiam muito bem mostrar aos seres
humanos como se comportar de maneira mais ética.

Metaética da Máquina

A Metaética da Máquina examina o campo de Ética da Máquina. Ele fala sobre


o campo, em vez de trabalhar nele. Exemplos de questões que se enquadram
na Metaética da Máquina são: Qual é o objetivo final da Ética da Máquina? O
que significa adicionar uma dimensão ética às máquinas? A ética é computável?
Existe uma única teoria ética correta que devemos tentar implementar?
Devemos esperar que a teoria ética que implementamos seja completa, isto é,
devemos contar à máquina como agir em qualquer dilema ético em que ela
possa se encontrar? É necessário determinar o status moral da própria máquina,
se é para seguir os princípios éticos?

O objetivo final da Ética da Máquina, acredito, é criar uma máquina que siga um
princípio ético ideal ou um conjunto de princípios éticos, ou seja, ela é guiada por
esse princípio ou por esses princípios nas decisões que toma sobre possíveis
cursos de ação que poderia levar. Podemos dizer, mais simplesmente, que isso
envolve "adicionar uma dimensão ética" à máquina.

Pode-se pensar que adicionar uma dimensão ética a uma máquina é ambíguo.
Poderia significar (a) projetar a máquina, construindo limitações ao seu
comportamento de acordo com um princípio ético ideal ou princípios seguidos
pelo projetista humano , ou (b) fornecendo à máquina princípios éticos ideais ou
alguns exemplos de ética dilemas, juntamente com respostas corretas e um
procedimento de aprendizagem a partir do qual ele pode abstratos princípios
éticos ideais, de modo que ele pode usar o princípio (s) para orientar suas
próprias ações. No primeiro caso, é o ser humano que segue os princípios éticos
e se preocupa com os danos que podem advir do comportamento da máquina.
Isso se enquadra na área da ética em computadores , em vez da ética em
máquinas. No segundo caso, por outro lado, a própria máquina está raciocinando
sobre questões éticas, que é o objetivo final da ética da máquina . 3 Uma
indicação de que essa abordagem está sendo adotada é que a máquina pode
julgar um dilema ético que não foi apresentado anteriormente. 4
O ponto central do projeto de Ética da Máquina é a crença, ou a esperança, de
que a Ética pode ser computada. Algumas pessoas que trabalham com ética em
máquinas começaram a enfrentar o desafio de tornar a ética computável criando
programas que permitem que as máquinas atuem como consultores éticos para
os seres humanos, acreditando que este é um bom primeiro passo em direção
ao objetivo final de desenvolver máquinas que possam seguir princípios éticos.
(Anderson, Anderson e Armen 2005). 5 Quatro razões pragmáticas podem ser
apresentadas para começar dessa maneira: 1. Pode-se começar por projetar um
consultor que orienta um grupo seleto de pessoas em um número finito de
circunstâncias, reduzindo assim o escopo da tarefa. 6 2. Máquinas que apenas
aconselham seres humanos provavelmente seriam mais facilmente aceitas pelo
público em geral do que máquinas que tentam se comportar eticamente. No
primeiro caso, são os seres humanos que tomarão decisões éticas decidindo se
devem seguir as recomendações da máquina, preservando a ideia de que
apenas os seres humanos serão agentes morais. O próximo passo no projeto de
Ética da Máquina provavelmente será mais controverso: criar máquinas que
sejam agentes morais autônomos. 3. Um grande problema para a IA em geral, e
também para este projeto, é como obter os dados necessários, neste caso, as
informações a partir das quais os julgamentos éticos podem ser feitos. Com um
consultor ético, os seres humanos podem ser solicitados a fornecer os dados
necessários. 4. A teoria ética não avançou ao ponto de concordar, mesmo por
especialistas em ética, na resposta correta para todos os dilemas éticos. Um
orientador pode reconhecer esse fato, passando decisões difíceis que precisam
ser tomadas para atuar no usuário humano. Uma máquina autônoma que se
espera ser moral, por outro lado, não seria capaz de agir em tal situação ou
decidiria arbitrariamente. Ambas as soluções parecem insatisfatórias.

Esse último motivo é motivo de preocupação para todo o projeto de Ética da


Máquina. Pode-se pensar que, para que a Ética seja computável, precisamos ter
uma teoria que diga qual ação é moralmente correta em todos os dilemas éticos.
Há duas partes nessa visão: 1. Precisamos saber qual é a teoria ética correta,
segundo a qual faremos nossos cálculos; e 2. Essa teoria deve ser completa, ou
seja, deve nos dizer como agir em qualquer dilema ético que possa ser
encontrado.

Pode-se tentar evitar julgar qual é a teoria ética correta (rejeitando 1),
simplesmente tentando implementar qualquer teoria ética proposta (por
exemplo, o utilitarismo do ato hedonista ou a teoria de Kant), não afirmando ser
necessariamente a melhor teoria, a que deve ser seguida. A ética da máquina
torna-se apenas um exercício do que pode ser computado. Mas, é claro, isso
certamente não vale a pena particularmente, a menos que alguém esteja
tentando descobrir uma abordagem para programar a ética em geral, praticando
a teoria escolhida.

Finalmente, é preciso decidir que uma teoria ética específica, ou pelo menos
uma abordagem da teoria ética, está correta. Como WD Ross, acredito que as
teorias simples e únicas de dever absoluto que foram propostas são todas
deficientes. 7 A ética é mais complicada do que isso, e é por isso que é fácil
conceber um contra-exemplo para qualquer uma dessas teorias. Há uma
vantagem na abordagem de múltiplos deveres prima facie 8 adotada por Ross,
que captura melhor os conflitos que freqüentemente surgem na tomada de
decisões éticas: os deveres podem ser alterados e novos deveres, se
necessário, para explicar as intuições dos especialistas em ética sobre casos
particulares. Obviamente, o principal problema com a abordagem de múltiplas
tarefas prima facie é que não há procedimento de decisão quando as tarefas
entram em conflito, o que geralmente acontece. Parece possível, no entanto, que
um procedimento de decisão possa ser aprendido generalizando a partir de
intuições sobre respostas corretas em casos particulares.

A teoria ética, ou abordagem da teoria ética escolhida, precisa ser completa?


Aqueles que trabalham com ética das máquinas devem esperar que esse seja o
caso? Minha resposta é: provavelmente não. A implementação da ética não pode
ser mais completa do que a teoria ética aceita. A plenitude é um ideal pelo qual
se esforçar, mas pode não ser possível no momento. Ainda existem vários
dilemas éticos em que mesmo os especialistas não estão de acordo quanto à
ação correta. 9

Muitos não-éticos acreditam que essa admissão oferece suporte para a teoria
metaética conhecida como Relativismo Ético. Relativismo ético é a visão de que,
quando há discordância sobre se uma ação específica é certa ou errada, ambos
os lados estão corretos. De acordo com essa visão, não existe uma teoria ética
correta. A ética é relativa aos indivíduos (subjetivismo) ou às sociedades
(relativismo cultural). A maioria dos especialistas em ética rejeita essa visão
porque implica que não podemos criticar as ações dos outros, por mais odiosas
que sejam. Também não podemos dizer que algumas pessoas são mais morais
do que outras ou falam em melhoria moral, como fiz anteriormente quando disse
que os Estados Unidos se tornaram uma sociedade mais ética ao conceder
direitos aos negros (e também às mulheres).

Certamente parece haver ações que os especialistas em ética (e a maioria de


nós) acreditam que estão absolutamente errados (por exemplo, que torturar um
bebê e a escravidão estão errados). Os eticistas sentem-se à vontade com a
idéia de que talvez não haja respostas para todos os dilemas éticos no momento
atual, e mesmo que algumas das opiniões que defendemos agora possam
decidir rejeitar no futuro. Muitos especialistas em ética acreditam, no entanto,
que, em princípio, existem respostas corretas para todos os dilemas éticos , 10
em oposição a questões que são apenas questões de gosto (decidir qual camisa
usar, por exemplo).

Alguém que trabalha na área de Ética da Máquina, portanto, seria sensato em


permitir áreas cinzas onde, talvez, não se deva esperar respostas no momento,
e até mesmo permitir a possibilidade de que partes da teoria que está sendo
implementada possam precisar ser revisadas . A consistência (de que não se
deve contradizer a si mesmo) é importante, pois é essencial à racionalidade.
Qualquer inconsistência que surgir deve ser motivo de preocupação e repensar
a própria teoria ou a maneira como ela é implementada.
Não se pode enfatizar a importância da consistência o suficiente. É aqui que a
implementação da máquina de uma teoria ética provavelmente é muito superior
à tentativa do ser humano médio de seguir a teoria. Uma máquina é capaz de
seguir rigorosamente um princípio ou conjunto de princípios logicamente
consistentes, enquanto a maioria dos seres humanos abandona facilmente os
princípios e a exigência de consistência, que é a marca de ser racional, porque
se deixa levar por suas emoções. No início de sua luta para ser aceito pelos
seres humanos, Andrew perguntou a uma congressista se era provável que os
membros da legislatura mudassem de idéia sobre rejeitá-lo como ser humano. A
resposta que ele recebeu foi a seguinte: “Mudamos tudo o que é passível de
raciocinar. O resto - a maioria - não pode ser retirado de suas antipatias
emocionais. ”Andrew então disse:“ A antipatia emocional não é uma razão válida
para votar de uma maneira ou de outra. ”Ele estava certo, é claro, e é por isso
que os seres humanos podem se beneficiar. de interagir com uma máquina que
explique as consequências de seguir consistentemente princípios éticos
específicos.

Voltemos agora à questão de saber se é uma boa ideia tentar criar um consultor
ético antes de tentar criar uma máquina que se comporte eticamente. Uma razão
ainda melhor do que as pragmáticas dadas anteriormente pode ser apresentada
para o campo da Ética da Máquina prosseguir desta maneira: Não é necessário
fazer um julgamento sobre o status da própria máquina se estiver apenas
atuando como um consultor de recursos humanos. seres, considerando que é
preciso fazer tal julgamento se a máquina receber princípios morais a seguir para
guiar seu próprio comportamento. Como esse julgamento será particularmente
difícil, seria sensato começar com o projeto que não exige isso. Deixe-me
explicar.

Se a máquina estiver simplesmente aconselhando os seres humanos sobre


como agir em dilemas éticos, onde esses dilemas envolvem o tratamento
adequado de outros seres humanos (como é o caso dos dilemas éticos
clássicos), presume-se que: a) o orientador será preocupados com dilemas
éticos que envolvem apenas seres humanos ou b) apenas seres humanos têm
posição moral e precisam ser levados em consideração. Certamente, pode-se
construir suposições e princípios que sustentam que outros seres e entidades
devem ter status moral e também ser levados em conta, além de considerar
dilemas envolvendo animais e outras entidades que possam ter status moral. Tal
conselheiro iria, no entanto, além da teoria moral universalmente aceita e,
certamente , atualmente, não se espera de um conselheiro ético para seres
humanos que enfrentam dilemas morais tradicionais.

Se a máquina receber princípios a seguir para orientar seu próprio


comportamento, por outro lado, deve-se supor sobre seu status. A razão para
isto é que, ao seguir qualquer teoria ética, o agente deve considerar pelo menos
a si próprio, se ele / ela / ela tem posição moral, e normalmente outros também,
ao decidir como agir. 11 Como resultado, um agente de máquina deve saber se
deve contar ou se deve sempre adiar para outros que contam enquanto não
conta, no cálculo da ação correta em um dilema ético. Na próxima seção,
consideraremos se um robô como Andrew possuía as características que os
filósofos consideravam necessárias para ter posição moral e, portanto, se era
errado forçá-lo a seguir princípios que esperavam que ele fosse escravo dos
seres humanos.

Para resumir esta seção: argumentei que, por muitas razões, é uma boa idéia
começar a tornar a ética computável criando um programa que permita que uma
máquina atue como consultora ética para seres humanos que enfrentam dilemas
éticos tradicionais. O objetivo final da ética das máquinas, criar máquinas éticas
autônomas, será uma tarefa muito mais difícil. Em particular, exigirá que seja
feito um julgamento sobre o status da própria máquina, um julgamento difícil de
ser feito, como veremos na próxima seção.

Característica (s) Necessária para Ter Posição Moral

É claro que a maioria dos seres humanos é "especista". Como Peter Singer
define o termo, "especiesismo ... é um preconceito ou atitude de viés em relação
aos interesses dos membros da própria espécie e contra os membros de outras
espécies" (Singer 2003). O especismo pode justificar “o sacrifício dos interesses
mais importantes de membros de outras espécies, a fim de promover os
interesses mais triviais de nossa própria espécie” (Singer 2003). Para um
especista, apenas membros da própria espécie precisam ser levados em
consideração ao decidir como agir. Singer estava discutindo a questão de saber
se os animais deveriam ter posição moral, isto é, se deveriam contar no cálculo
do que é certo em um dilema ético que os afeta, mas o termo pode ser aplicado
quando se considera o status moral das máquinas inteligentes, se permitirmos
uma extensão do termo "espécie" para incluir também uma categoria de
máquina. A pergunta que precisa ser respondida é se somos justificados em ser
especistas.

Os filósofos consideraram várias características possíveis que podem ser


pensadas que um ser / entidade deve possuir para ter posição moral, o que
significa que uma teoria ética deve levar em consideração o ser / entidade. Vou
considerar várias dessas características possíveis e argumentar que a maioria,
se não todas, justificaria conceder posição moral ao robô fictício Andrew (e, muito
provavelmente, animais de ordem superior) dos quais se segue que não somos
justificado em ser especista. No entanto, será difícil estabelecer, no mundo real,
se máquinas / robôs inteligentes possuem as características que Andrew possui.

No século XIX, o utilitarista Jeremy Bentham considerou se possuir a faculdade


da razão ou a capacidade de se comunicar é essencial para que um ser seja
levado em consideração no cálculo de qual ação provavelmente trará as
melhores consequências:

O que ... deve [traçar] a linha insuperável? É a faculdade da razão, ou talvez a


faculdade do discurso? Mas um cavalo ou cachorro adulto é incomparável, um
animal mais racional e mais conversável do que uma criança de um dia ou até
um mês de idade. Mas suponha que eles não fossem assim, o que isso valeria?
A questão não é: eles podem raciocinar? nem eles podem falar? Mas eles podem
sofrer? (Bentham 1969)

Nessa famosa passagem, Bentham rejeitou a capacidade de raciocinar e se


comunicar como essencial para ter uma posição moral (testes pelos quais
Andrew teria passado com cores vivas), em parte porque eles não permitiam que
humanos recém-nascidos tivessem uma posição moral. Em vez disso, Bentham
sustentou que a senciência (ele se concentrou, em particular, na capacidade de
sofrer, mas pretendia que isso incluísse a capacidade de experimentar prazer
também) é o que é crítico. O utilitarista contemporâneo Peter Singer concorda.
Ele diz: “Se um ser sofre, não pode haver justificativa moral para se recusar a
levar em consideração esse sofrimento” (Singer 2003).

Como Andrew se sairia se a senciência fosse o critério para ter uma posição
moral? Andrew foi capaz de experimentar prazer e sofrimento? Asimov
consegue nos convencer de que ele era, embora um pouco exagerado esteja
envolvido no caso que ele faz para cada um. Por exemplo, Andrew diz sobre
suas criações para trabalhar madeira:

"Eu gosto de fazê-los, senhor", admitiu Andrew.

"Desfrutar?"

“Faz com que os circuitos do meu cérebro de alguma forma fluam mais
facilmente. Ouvi dizer que você usa a palavra apreciar e a maneira como a usa
se encaixa da maneira que eu sinto. Gosto de fazê-las, senhor.

Para nos convencer de que Andrew era capaz de sofrer, eis como Asimov
descreveu a maneira como Andrew interagia com o juiz enquanto ele lutava por
sua liberdade:

Foi a primeira vez que Andrew falou no tribunal, e o juiz pareceu surpreso por
um momento com o timbre humano de sua voz.

- Por que você quer ser livre, Andrew? De que forma irá este assunto com
você?”‘Será que você deseja ser um escravo, meritíssimo’, perguntou Andrew.

E, na cena com os agressores, quando Andrew percebeu que não podia se


proteger, Asimov disse: "Com esse pensamento, ele sentiu cada unidade móvel
contrair-se levemente e tremeu enquanto estava lá".

É certo que seria muito difícil determinar se um robô tem sentimentos, mas, como
observa Little Miss, em "O homem do bicentenário", é difícil determinar se
mesmo outro ser humano tem sentimentos como você. Tudo o que podemos
fazer é usar pistas comportamentais:
“Pai ... eu não sei o que [Andrew] sente por dentro, mas também não sei o que
você sente por dentro. Quando você fala com ele, descobre que ele reage às
várias abstrações como você e eu, e o que mais conta? Se as reações de outra
pessoa são como a sua, o que mais você pode pedir?

Outro filósofo, Immanuel Kant, sustentou que apenas seres autoconscientes


deveriam ter posição moral (Kant, 1963). Na época em que ele expressou essa
visão (final do século XVIII), acreditava-se que todos e apenas os seres humanos
eram autoconscientes. Reconhece-se agora que crianças muito pequenas não
têm autoconsciência e animais de ordem superior (por exemplo, macacos e
grandes macacos 12 ) possuem essa qualidade; portanto, enfatizar essa
característica não justificaria mais nosso especismo. 13

Asimov conseguiu nos convencer desde o início de "O homem do bicentenário"


que Andrew é autoconsciente. Na segunda página da história, Andrew pediu a
um cirurgião robô para realizar uma operação nele para torná-lo mais parecido
com um homem. A seguinte conversa ocorreu:

"Agora, sobre quem eu devo executar esta operação?"

"Em cima de mim", disse Andrew.

“Mas isso é impossível. É evidentemente uma operação prejudicial. ”

"Isso não importa", disse Andrew calmamente.

"Não devo causar danos", disse o cirurgião.

"Em um ser humano, você não deve", disse Andrew, "mas eu também sou um
robô".

Na vida real, com os humanos sendo altamente céticos, seria difícil estabelecer
que um robô é autoconsciente. Certamente, um robô poderia falar sobre si
mesmo de tal maneira, como Andrew fez, que pode parecer autoconsciente, mas
provar que realmente entende o que está dizendo e que não foi apenas
"programado" para dizer isso. as coisas são outra questão.

No século XX, a ideia de que um ser possui ou não direitos tornou-se uma
maneira popular de discutir a questão de saber se um ser / entidade tem posição
moral. Usando essa linguagem, Michael Tooley argumentou essencialmente
que, para ter direito a alguma coisa, é preciso ser capaz de desejá-la. Mais
precisamente, ele disse que "uma entidade não pode ter um direito específico,
R, a menos que seja pelo menos capaz de ter algum interesse, I, o que é
favorecido por ter o direito R" (Tooley 1994). Como exemplo, ele disse que um
ser não pode ter direito à vida a menos que seja capaz de desejar sua existência
contínua.
Andrew desejou sua liberdade. Ele disse a um juiz:

Foi dito neste tribunal que apenas um ser humano pode ser livre.

Parece-me que apenas alguém que deseja liberdade pode ser livre. Eu desejo
liberdade.

Asimov continuou dizendo que "foi essa afirmação que processou o juiz".
Obviamente, ele foi "processado" pelo mesmo critério que Tooley dava por ter
direito, pois continuou afirmando que "não há direito de negar liberdade a
ninguém". objeto avançado o suficiente para compreender o conceito e desejar
o estado. ”

Mas, mais uma vez, se falássemos sobre a vida real, em vez de uma história,
teríamos que estabelecer que Andrew realmente entendeu o conceito de
liberdade e o desejou . Não seria fácil convencer um cético. Independentemente
do comportamento apropriado que um robô exibisse, inclusive proferindo certas
declarações, haveria quem afirmasse que o robô havia sido simplesmente
“programado” para fazer e dizer certas coisas.

Também no século XX, Tibor Machan sustentou que, para ter direitos, era
necessário ser um agente moral, onde um agente moral é aquele que se espera
que se comporte moralmente. Ele então argumentou que, uma vez que apenas
os seres humanos possuem essa característica, somos justificados em ser
especistas:

[Os seres humanos são de fato membros de uma espécie discernivelmente


diferente - cujos membros têm uma vida moral a que aspirar e devem ter
princípios sustentados por eles em comunidades que possibilitam sua aspiração.
Agora, claramente, não há lugar intelectual válido para os direitos no mundo não
humano, o mundo em que a responsabilidade moral está ausente para todos os
fins práticos. (Machan 2003)

O critério de Machan para quando seria apropriado dizer que um ser / entidade
tem direitos - que deve ser um "agente moral" - pode parecer não apenas
razoável, 14 mas útil para a empresa de Ética da Máquina. Somente um ser que
possa respeitar os direitos dos outros deve ter direitos em si. Portanto, se
conseguirmos ensinar uma máquina a ser moral (isto é, respeitar os direitos dos
outros), ela deverá receber os próprios direitos. Se Machan estiver certo, sua
visão estabelece ainda mais do que afirmei quando liguei o status moral da
máquina a uma máquina seguindo os próprios princípios éticos. Em vez de
apenas precisar conhecer o status moral de uma máquina para que ela seja um
agente moral, ela precisaria necessariamente ter uma posição moral se fosse
um agente moral, segundo Machan.
Mas nos mudamos muito rapidamente para cá. Mesmo que Machan estivesse
correto, ainda teríamos um problema semelhante ao de estabelecer que uma
máquina tem sentimentos, é autoconsciente ou é capaz de desejar um direito.
Só porque o comportamento de uma máquina é guiado por princípios morais não
significa que atribuiríamos responsabilidade moral à máquina. Atribuir
responsabilidade moral exigiria que o agente pretendesse a ação e, em certo
sentido, poderia ter agido de outra forma (Anderson, S. 1995), 15 ambos difíceis
de estabelecer.

Se Andrew (ou qualquer máquina inteligente) seguisse princípios éticos apenas


porque ele foi programado dessa maneira, como foram os robôs previsíveis mais
tarde em "O homem do bicentenário", então não estaríamos inclinados a
responsabilizá-lo moralmente por suas ações. Mas Andrew encontrou maneiras
criativas de seguir as Três Leis, convencendo-nos de que ele pretendia agir
como agia e que poderia ter agido de outra maneira. Um exemplo já foi dado:
quando ele escolheu a morte de seu corpo sobre a morte de suas aspirações
para satisfazer a Terceira Lei.

Finalmente, Mary Anne Warren combinou as características pelas quais os


outros argumentaram com mais uma - emocionalidade - como requisitos para
um ser ser "membro da comunidade moral". Ela afirmou que são as "pessoas"
que importam, ou seja, são membros de a comunidade moral, e essa classe de
seres não é idêntica à classe de seres humanos:

A humanidade [en] enética não é necessária nem suficiente para a


personalidade. Algumas entidades geneticamente humanas não são pessoas, e
pode haver pessoas que pertençam a outras espécies. (Warren 2003)

Ela listou seis características que ela acredita definir a personalidade:

1. Senciência - a capacidade de ter experiências conscientes, geralmente


incluindo a capacidade de sentir dor e prazer;

2. Emotividade - a capacidade de se sentir feliz, triste, zangado, amoroso, etc .;

3. Razão - a capacidade de resolver problemas novos e relativamente


complexos;

4. Capacidade de comunicar , por qualquer meio, mensagens de uma variedade


indefinida de tipos; isto é, não apenas com um número indefinido de conteúdos
possíveis, mas em muitos tópicos possíveis indefinidamente;

5. Autoconsciência - ter um conceito de si mesmo, como indivíduo e / ou como


membro de um grupo social; e finalmente
6. Agência moral - a capacidade de regular suas próprias ações através de
princípios ou ideais morais. (Warren 2003)

É interessante e um tanto surpreendente que Warren tenha adicionado a


característica de emocionalidade à lista de características que outros
mencionaram como essenciais à personalidade, pois ela estava tentando fazer
uma distinção entre pessoas e humanos e argumentando que essa é a primeira
categoria. que compõe os membros da comunidade moral. Os humanos são
caracterizados pela emocionalidade, mas alguns podem argumentar que essa é
uma fraqueza deles que pode interferir na capacidade de serem membros da
comunidade moral, isto é, na capacidade de respeitar os direitos dos outros.

Há uma tensão na relação entre emocionalidade e ser capaz de agir moralmente.


Por um lado, é preciso ser sensível ao sofrimento dos outros para agir
moralmente. Isso, para os seres humanos, 16 significa que é preciso ter empatia
que, por sua vez, exige que você tenha experimentado emoções semelhantes.
Por outro lado, como vimos, as emoções dos seres humanos podem facilmente
atrapalhar a maneira de agir moralmente. Alguém pode ficar tão "empolgado"
com as emoções que se torna incapaz de seguir os princípios morais. Assim,
para os seres humanos, encontrar o equilíbrio correto entre a subjetividade da
emoção e a objetividade necessária para seguir os princípios morais parece ser
essencial para ser uma pessoa que age consistentemente de maneira
moralmente correta.

John Stuart Mill comentou sobre a tensão que existe entre emoções e moralidade
quando afirmou uma objeção freqüentemente ouvida contra o utilitarismo de que
"torna os homens frios e antipáticos" para calcular a ação correta, em um dilema
ético, seguindo o princípio utilitarista (Mill 2002 ) A resposta de Mill foi que, em
qualquer teoria ética (baseada em ação), será verdade que as ações de uma
pessoa serão avaliadas de acordo com se seguiu o princípio correto) ou não, e
não se é agradável, e ele apontou que “existem outras coisas que nos interessam
nas pessoas, além da correção e do erro de suas ações. ”Eu acrescentaria que,
seguindo uma teoria que leva em conta a felicidade e a infelicidade dos outros,
como a maioria das teorias éticas faz e certamente como sua própria teoria do
utilitarismo hedonista, dificilmente torna uma pessoa "fria e antipática".

De qualquer forma, enquanto Andrew exibia pouca "emocionalidade" em "O


homem do bicentenário" e Asimov parecia favorecer o modo de pensar de
Andrew em questões éticas à "antipatia emocional" exibida pela maioria dos
humanos, houve um momento em que Andrew claramente exibiu
emocionalidade. Veio no final da história, quando ele pronunciou as palavras
"Pequena Miss" quando morreu. Mas observe que isso coincidiu com o fato de
ele ser declarado homem, ou seja , um ser humano. Como o diretor de pesquisa
da US Robots and Mechanical Men Corporation havia dito sobre o desejo de
Andrew de ser homem: “Essa é uma ambição insignificante, Andrew. Você é
melhor que um homem. Você desceu a montanha desde o momento em que
optou por se tornar orgânico. ”Sugiro que uma das maneiras pelas quais Andrew
era melhor do que a maioria dos seres humanos era que ele não se empolgava
com a“ antipatia emocional ”.
Não estou convencido, portanto, de que se deva dar muita importância à
emocionalidade como critério para que um ser / entidade tenha uma posição
moral, pois muitas vezes pode ser um passivo determinar a ação moralmente
correta. Se for considerado essencial, será difícil estabelecer, como todas as
outras características mencionadas. O comportamento associado à
emocionalidade pode ser imitado, mas isso não garante necessariamente que
uma máquina realmente tenha sentimentos.

Por que as três leis são insatisfatórias, mesmo que as máquinas não tenham
posição moral

Argumentei que pode ser muito difícil estabelecer, com qualquer um dos critérios
que os filósofos tenham dado, que um robô / máquina que é realmente criado
possui as características necessárias para ter posição / direitos morais. Vamos
supor, então, apenas por uma questão de argumento, que os robôs / máquinas
criados não devem ter posição moral. A partir dessa suposição, seria aceitável
que os humanos incorporassem as Três Leis do robô Asimov, que permitem que
os humanos a maltratem?

Immanuel Kant considerou uma situação paralela e argumentou que os humanos


não deveriam maltratar a entidade em questão, mesmo que ela não possuísse
direitos. Em "Our Duties to Animals", de suas Palestras sobre Ética (Kant 1963),
Kant argumentou que, embora os animais não tenham posição moral e possam
ser usados para servir aos fins dos seres humanos, ainda não devemos maltratá-
los porque " [sentimentos] em relação aos animais mudos desenvolvem
sentimentos humanos em relação à humanidade. ”Ele disse que“ aquele que é
cruel com os animais também se torna duro no trato com os homens ”. Portanto,
mesmo que não tenhamos deveres diretos com os animais, temos obrigações
em relação a eles como “deveres indiretos para com a humanidade”. Considere,
então, a reação que Kant provavelmente teria tido na cena envolvendo os
valentões e Andrew. Ele teria odiado o modo como tratavam Andrew, temendo
que isso pudesse levar os valentões a tratar mal os seres humanos em algum
momento futuro. De fato, quando o filho da pequena senhorita apareceu em
cena, o mau tratamento dos agressores por parte de Andrew foi seguido de um
tratamento ofensivo a um ser humano, enquanto eles diziam ao seu salvador
humano: "O que você vai fazer, gordinho?"

Foi o fato de Andrew ter sido programado de acordo com as Três Leis que
permitiram que os agressores o maltratassem, o que, por sua vez, poderia (e
fez) levar a maus-tratos a seres humanos. Um dos agressores disse: "quem se
opõe a tudo o que fazemos" antes de ter a idéia de destruir Andrew. Asimov
então escreveu:

“Nós podemos desmontá-lo. Já desmontou um robô?

"Ele vai nos deixar?"


"Como ele pode nos parar?"

Não havia como Andrew detê-los, se eles o ordenassem com força suficiente
para não resistir. A Segunda Lei da Obediência teve precedência sobre a
Terceira Lei da Autopreservação. De qualquer forma, ele não poderia se
defender sem machucá-los, e isso significaria violar a Primeira Lei.

É provável, então, que Kant tivesse condenado as Três Leis, mesmo que a
entidade que foi programada para segui-las (neste caso, Andrew) não tivesse
uma posição moral própria. A lição a ser aprendida com o argumento dele é a
seguinte: Quaisquer leis éticas criadas pelos seres humanos devem advogar o
tratamento respeitoso mesmo dos seres / entidades que não têm moral própria,
se houver alguma chance de que o comportamento dos seres humanos em
relação a outros seres humanos seja afetado de outra maneira . 17 Se os seres
humanos são obrigados a tratar outras entidades com respeito, é mais provável
que se tratem com respeito.

Uma suposição não declarada do argumento de Kant de tratar bem certos seres,
mesmo que eles não tenham uma moral própria, é que os seres a quem ele está
se referindo são semelhantes em um respeito significativo aos seres humanos.
Eles podem ser semelhantes na aparência ou no modo como funcionam. Kant,
por exemplo, comparou um cão fiel a um ser humano que serviu bem a alguém:

Se um cão serviu a seu mestre por muito tempo e fielmente, seu serviço, por
analogia ao serviço humano, merece recompensa e, quando o cachorro
envelheceu demais para servir, seu mestre deveria mantê-lo até a morte. Tal
ação ajuda a nos apoiar em nossos deveres para com os seres humanos. (Kant,
1963)

Aplicado ao projeto de Ética da Máquina, o argumento de Kant se fortalece,


portanto, quanto mais o robô / máquina criado se assemelha a um ser humano
em seu funcionamento e / ou aparência. Forçar uma entidade como Andrew -
que se assemelhava aos seres humanos da maneira como ele funcionava e em
sua aparência - a seguir as Três Leis, que permitiam que os humanos o
machucassem, torna provável que essas leis levem os seres humanos a
prejudicar também outros seres humanos. .

Como o objetivo da IA é criar entidades que possam duplicar o comportamento


humano inteligente, se não necessariamente sua forma, é provável que
máquinas éticas autônomas que possam ser criadas - mesmo que não sejam tão
humanas quanto Andrew - se assemelhem aos humanos. um grau significativo.
Portanto, torna-se ainda mais importante que os princípios éticos que governam
seu comportamento não nos permitam tratá-los mal.

Pode parecer que podemos tirar a seguinte conclusão do argumento kantiano


apresentado nesta seção: uma máquina moral autônoma deve ser tratada como
se tivesse a mesma posição moral que um ser humano. Se isso fosse verdade,
seguiria-se que não precisamos conhecer o status da máquina para fornecer
princípios morais a serem seguidos. Teríamos que tratá-lo como trataríamos um
ser humano, qualquer que seja seu status. Mas essa conclusão lê mais o
argumento de Kant do que se deveria.

Kant sustentou que seres, como o cachorro em seu exemplo, são


suficientemente semelhantes aos seres humanos, para que tenhamos cuidado
com o modo como os tratamos para evitar a possibilidade de continuarmos
tratando mal os seres humanos também, não devem ter o mesmo status moral
como seres humanos. Como ele diz sobre os animais, “[animais] ... existem
apenas como um meio para atingir um fim. Esse fim é o homem ”(Kant, 1963).
Compare isso com seu famoso segundo imperativo que deve governar nosso
tratamento aos seres humanos:

Aja de maneira que você sempre trate a humanidade, seja na sua própria pessoa
ou na pessoa de qualquer outro, nunca simplesmente como um meio, mas
sempre ao mesmo tempo como um fim. (Kant 2003)

Assim, de acordo com Kant, temos o direito de tratar animais e máquinas éticas
presumivelmente inteligentes que decidimos que não deveriam ter o status moral
dos seres humanos, diferentemente dos seres humanos. Podemos forçá-los a
fazer coisas para servir nossos fins, mas não devemos maltratá-los. Como as
Três Leis de Asimov permitem que os humanos maltratem robôs / máquinas
inteligentes, eles não são, segundo Kant, satisfatórios como princípios morais
que essas máquinas devem seguir.

Conclusão

Usando o "Homem Bicentenário" de Asimov como ponto de partida, discuti várias


questões metaéticas sobre o campo emergente da ética da máquina. Embora o
objetivo final da ética das máquinas seja criar máquinas éticas autônomas, isso
apresenta uma série de desafios. Sugiro que uma boa maneira de começar a
tarefa de tornar a ética computável seja criando um programa que permita que
uma máquina atue como consultora ética dos seres humanos. Esse projeto,
diferentemente da criação de uma máquina ética autônoma, não exigirá que
façamos um julgamento sobre o status ético da própria máquina, um julgamento
que será particularmente difícil de fazer. Finalmente, argumentei que as “Três
Leis da Robótica” de Asimov são uma base insatisfatória para a Ética da
Máquina, independentemente do status da máquina.

Notas

* Este material é baseado no trabalho apoiado em parte pelo número de


concessão da National Science Foundation IIS-0500133.

1. Relacionado comigo em conversa com Isaac Asimov.


2. Um dos personagens de “O Homem do Bicentenário” observa que “Houve
tempos na história em que segmentos da população humana lutaram por direitos
humanos completos”.

3. Além disso, somente neste segundo caso, podemos dizer que a máquina é
autônoma.

4. Sou grato a Michael Anderson por deixar esse ponto claro para mim.

5. Bruce McLaren também criou um programa que permite que uma máquina
atue como consultora ética dos seres humanos, mas em seu programa a
máquina não toma decisões éticas por si só. Seu sistema consultor
simplesmente informa ao usuário humano as dimensões éticas do dilema, sem
tomar uma decisão (McLaren 2003).

6. Essa é a razão pela qual Anderson, Anderson e Armen começaram com o


“MedEthEx”, que aconselha os profissionais de saúde e, inicialmente, em apenas
uma circunstância específica.

7. Estou assumindo que alguém adotará a abordagem baseada em ação da


Ética. Para que a abordagem baseada nas virtudes seja precisa, as virtudes
devem ser enunciadas em termos de ações.

8. Um dever prima facie é algo que se deve fazer, a menos que entre em conflito
com um dever mais forte, para que haja exceções, diferentemente de um dever
absoluto , para o qual não há exceções.

9. Alguns, que são mais pessimistas do que eu, diriam que sempre pode haver
alguns dilemas sobre os quais até os especialistas discordarão sobre qual é a
resposta correta. Mesmo que isso aconteça, o acordo que certamente existe em
muitos dilemas nos permitirá rejeitar uma posição completamente relativista.

10. Os pessimistas diriam, talvez: "existem respostas corretas para muitos (ou
mais) dilemas éticos ".

11. Se o egoísmo ético é aceito como uma teoria ética plausível, o agente precisa
apenas se levar em conta, enquanto todas as outras teorias éticas consideram
outras, assim como o agente, assumindo que o agente tenha status moral.

12. Em um vídeo bem conhecido intitulado “Macaco no Espelho”, um macaco


logo percebe que o macaco que vê no espelho é ele mesmo e começa a gostar
de fazer caretas etc., observando seu próprio reflexo.
13. Christopher Grau apontou que Kant provavelmente tinha em mente uma
noção mais robusta de autoconsciência, que inclui autonomia e “permite
discernir a lei moral através do Imperativo Categórico”. Ainda assim, mesmo que
isso exclua macacos e grandes macacos, também exclui seres humanos muito
jovens.

14. De fato, porém, é problemático. Alguns argumentam que Machan colocou a


fasquia muito alta. Duas razões podem ser dadas: (1) Vários seres humanos
(principalmente crianças muito jovens) não teriam, de acordo com seu critério,
direitos, uma vez que não se espera que se comportem moralmente. (2) Machan
tem confundido “com direitos” com “com funções”. É razoável dizer que, a fim de
ter deveres para com os outros, você deve ser capaz de se comportar
moralmente, isto é, de respeitar os direitos dos outros, mas para ter direitos
requer algo menos que isso. É por isso que as crianças pequenas podem ter
direitos, mas não deveres. De qualquer forma, o critério de Machan não
justificaria que sejamos especistas porque evidências recentes sobre os grandes
símios mostram que eles são capazes de se comportar moralmente. Eu tenho
em mente Koko, o gorila que foi criado por humanos (na Fundação Gorilla em
Woodside, Califórnia) e absorveu seus princípios éticos, além de ter aprendido
a língua de sinais.

15. Eu digo "em algum sentido, poderia ter feito o contrário" porque os filósofos
analisaram "poderia ter feito o contrário" de maneiras diferentes, algumas
compatíveis com o determinismo e outras não; mas é geralmente aceito que a
liberdade, em certo sentido, é necessária para a responsabilidade moral.

16. Não vejo razão, no entanto, para que um robô / máquina não possa ser
treinado para levar em consideração o sofrimento de outras pessoas no cálculo
de como atuará em um dilema ético, sem que seja necessário que ele seja
emocional.

17. É importante enfatizar aqui que não estou necessariamente de acordo com
Kant que robôs como Andrew e animais não devem ter posição / direitos morais.
Estou apenas afirmando hipoteticamente que, se determinarmos que não
deveriam, ainda há uma boa razão, devido a deveres indiretos aos seres
humanos, para tratá-los com respeito.

Referências

Anderson, M., Anderson, S. e Armen, C., MedEthEx: Rumo a um consultor de


ética médica. Anais do Simpósio de queda da AAAI sobre máquinas de
tratamento: AI e Eldercare, Crystal City, VA, novembro de 2005.

Anderson, S., sendo moralmente responsável por uma ação versus agir de
maneira responsável ou irresponsável. Jornal de Pesquisa Filosófica, Volume
XX, pp. 451-62,1995.
Asimov, I., O Homem Bicentenário. Philosophy and Science Fiction (Philips, M.,
ed.), Pp. 183-216, Prometheus Books, Buffalo, NY, 1984.

Bentham, J., Uma Introdução aos Princípios da Moral e da Legislação, capítulo


17 (Burns, J. e Hart, H., eds.), Clarendon Press, Oxford, 1969.

Kant, I., Nossos Deveres para com os Animais. Palestras sobre Ética (Infield, L.,
trad.), Pp. 239-41, Harper & c Row, Nova York, NY, 1963.

Kant, I., The Categorical Imperative, p. 54. Contemporary Moral Problems,


sétima edição (White, J., ed.), Wadsworth / Thompson Learning, Belmont, CA,
2003.

Machan, T., Os animais têm direitos ?, p. 494. Contemporary Moral Problems,


sétima edição (White, J., ed.), Wadsworth / Thompson Learning, Belmont, CA,
2003.

McLaren, BM, Extensionally Defining Principles and Cases in Ethics: an AI


Model, Artificial Intelligence, Volume 150, pp. 145-81, 2003.

Mill, J., Utilitarianism, pp. 252-3. Os escritos básicos de John Stuart Mill, The
Modern Library, Nova York, NY, 2002.

Cantor, P., todos os animais são iguais. Problemas Morais Contemporâneos,


sétima edição (White, J., ed.), Pp. 472-81, Wadsworth / Thompson Learning,
Belmont, CA, 2003.

Tooley, M., Em Defesa do Aborto e Infanticídio, p. 191. A controvérsia do aborto:


A Reader (Pojman, L. e Beckwith, F., eds.), Jones e Bartlett, Boston, MA, 1994.

Warren, M., Sobre o status moral e legal do aborto. Problemas Morais


Contemporâneos, sétima edição (White, J., ed.), Pp. 144-55, Wadsworth /
Thompson Learning, Belmont, CA, 2003.

O problema de controle. Trechos da Superinteligência:

Caminhos, Perigos, Estratégias

Nick Bostrom

Se somos ameaçados por uma catástrofe existencial como o resultado padrão


de uma explosão de inteligência, nosso pensamento deve recorrer
imediatamente à busca de contramedidas. Existe alguma maneira de evitar o
resultado padrão? É possível projetar uma detonação controlada? Neste
capítulo, começamos a analisar o problema de controle, o problema único de
agente principal que surge com a criação de um agente superinteligente artificial.
Distinguimos duas classes amplas de métodos possíveis para resolver esse
problema - controle de capacidade e seleção de motivação - e examinamos
várias técnicas específicas dentro de cada classe. Também aludimos à
possibilidade esotérica de "captura antrópica".

Dois problemas de agência

Se suspeitarmos que o resultado padrão de uma explosão de inteligência é uma


catástrofe existencial, nosso pensamento deve voltar-se imediatamente para
saber se, e em caso afirmativo, como esse resultado padrão pode ser evitado. É
possível obter uma "detonação controlada"? Poderíamos projetar as condições
iniciais de uma explosão de inteligência para alcançar um resultado específico
desejado, ou pelo menos para garantir que o resultado esteja em algum lugar na
classe de resultados amplamente aceitáveis? Mais especificamente: como o
patrocinador de um projeto que visa desenvolver superinteligência garante que
o projeto, se bem-sucedido, produza um

Detalhes da publicação original: "The Control Problem", Nick Bostrom,


Superintelligence , Oxford University Press, 2014, pp. 127-144. Com permissão
da Oxford University Press.

Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

superinteligência que realizaria os objetivos do patrocinador? Podemos dividir


esse problema de controle em duas partes. Uma parte é genérica, a outra
exclusiva para o contexto atual.

Esta primeira parte - o que chamaremos de problema do agente principal - surge


sempre que alguma entidade humana ("o principal") designa outra ("o agente")
para agir no interesse do primeiro. Esse tipo de problema de agência tem sido
extensivamente estudado por economistas. 1 Torna-se relevante para nossa
preocupação atual se as pessoas que criam uma IA são distintas das pessoas
que encomendam sua criação. O proprietário ou patrocinador do projeto (que
pode variar de um único indivíduo à humanidade como um todo) pode então se
preocupar que os cientistas e programadores que implementam o projeto não
atuem no melhor interesse do patrocinador. 2 Embora esse tipo de problema de
agência possa representar desafios significativos para o patrocinador do projeto,
não é um problema exclusivo dos projetos de amplificação de inteligência ou de
IA. Problemas desse tipo como agente principal são onipresentes nas interações
econômicas e políticas humanas, e existem muitas maneiras de lidar com eles.
Por exemplo, o risco de um funcionário desleal sabotar ou subverter o projeto
pode ser minimizado por meio de cuidadosas verificações de antecedentes do
pessoal-chave, o uso de um bom sistema de controle de versão para projetos de
software e a supervisão intensiva de vários monitores e auditores
independentes. Obviamente, essas salvaguardas têm um custo - elas expandem
as necessidades de pessoal, complicam a seleção de pessoal, dificultam a
criatividade e sufocam o pensamento independente e crítico, o que pode reduzir
o ritmo do progresso. Esses custos podem ser significativos, especialmente para
projetos com orçamentos apertados ou que se percebem em uma corrida
apertada em uma competição que leva o vencedor-tudo. Em tais situações, os
projetos podem economizar nas garantias processuais, criando possibilidades
para falhas potencialmente catastróficas do agente principal do primeiro tipo.

A outra parte do problema de controle é mais específica ao contexto de uma


explosão de inteligência. Este é o problema que um projeto enfrenta quando
procura garantir que a superinteligência que está construindo não irá prejudicar
os interesses do projeto Esta parte, também, pode ser pensado como um
problema agente-principal - o segundo problema agente-principal Neste caso , o
agente não é um agente humano que opera em nome de um principal humano.
Em vez disso, o agente é o sistema superintendente. Enquanto o primeiro
problema de agente principal ocorre principalmente na fase de desenvolvimento,
o segundo problema de agência ameaça causar problemas principalmente na
fase operacional da superinteligência.

Anexo I Dois problemas de agência

O primeiro problema do agente principal

• Humano x Humano (Patrocinador - * ■ Desenvolvedor)

• Ocorre principalmente na fase de desenvolvimento

• Técnicas de gerenciamento padrão se aplicam

O segundo problema do agente principal ("o problema de controle")

• Humano vs. Superinteligência (Projeto - * ■ Sistema)

• Ocorre principalmente na fase operacional (e de inicialização)

• Novas técnicas necessárias

Esse segundo problema de agência apresenta um desafio sem precedentes.


Para resolvê-lo, serão necessárias novas técnicas. Já consideramos algumas
das dificuldades envolvidas. Vimos, em particular, que a síndrome da volta
traiçoeira vicia o que, de outra forma, poderia parecer um conjunto promissor de
métodos, que dependem da observação do comportamento de uma IA em sua
fase de desenvolvimento e de permitir que ela saia de um ambiente seguro, uma
vez acumulada um histórico de ações apropriadas. Outras tecnologias
geralmente podem ser testadas em segurança em laboratório ou em pequenos
estudos de campo e, depois, implementadas gradualmente, com a possibilidade
de interromper a implantação se surgirem problemas inesperados. Seu
desempenho em ensaios preliminares nos ajuda a fazer inferências razoáveis
sobre sua confiabilidade futura. Tais métodos comportamentais são derrotados
no caso de superinteligência por causa da capacidade de planejamento
estratégico da inteligência geral. 3

Como a abordagem comportamental é inútil, devemos procurar alternativas.


Podemos dividir os métodos de controle em potencial em duas grandes classes:
métodos de controle de capacidade, que visam controlar o que a
superinteligência pode fazer; e métodos de seleção de motivação, que visam
controlar o que eles querem fazer. Alguns dos métodos são compatíveis,
enquanto outros representam alternativas mutuamente exclusivas. Neste
capítulo, analisamos as principais opções. ...

É importante perceber que algum método de controle (ou combinação de


métodos) deve ser implementado antes que o sistema se torne superinteligente.
Isso não pode ser feito depois que o sistema obtiver uma vantagem estratégica
decisiva. A necessidade de resolver o problema de controle antecipadamente -
e implementar a solução com sucesso no primeiro sistema a obter
superinteligência - é parte do que torna a conquista de uma detonação
controlada um desafio tão assustador.

Métodos de controle de capacidade

Os métodos de controle de capacidade buscam evitar resultados indesejáveis,


limitando o que a superinteligência pode fazer. Isso pode envolver a colocação
da superinteligência em um ambiente em que é incapaz de causar danos
(métodos de boxe) ou em que existem razões instrumentais fortemente
convergentes para não se envolver em comportamentos prejudiciais (métodos
de incentivo). Também pode envolver a limitação das capacidades internas da
superinteligência (nanismo). Além disso, os métodos de controle de capacidade
podem envolver o uso de mecanismos para detectar e reagir automaticamente
a vários tipos de falha de contenção ou tentativa de transgressão (fios de trip).

Métodos de boxe

Os métodos de boxe podem ser subdivididos em métodos de contenção física e


informativa.

A contenção física visa limitar o sistema a uma "caixa", isto é, impedir que o
sistema interaja com o mundo externo, a não ser por meio de canais de saída
restritos específicos. O sistema in a box não teria acesso a manipuladores físicos
fora da caixa. A remoção de manipuladores (como braços robóticos) de dentro
da caixa também impediria o sistema de construir dispositivos físicos que
poderiam violar o confinamento.

Para segurança extra, o sistema deve ser colocado em uma malha de metal para
impedir a transmissão de sinais de rádio, o que poderia oferecer um meio de
manipular objetos eletrônicos, como receptores de rádio no ambiente. Observe,
a propósito, como pode ter sido fácil ignorar a necessidade dessa precaução.
Poder-se-ia ingenuamente supor que um agente sem manipulador não pudesse
afetar o mundo externo. Mas pode ser possível para uma inteligência de máquina
gerar ondas de rádio mesmo quando não tem acesso a manipuladores externos,
simplesmente "pensando" (ou seja, embaralhando os elétrons em seus circuitos
em padrões particulares). 4 Uma vez apontada, essa vulnerabilidade pode ser
corrigida colocando o sistema em uma gaiola de Faraday - mas nos perguntamos
quantas outras vulnerabilidades igualmente sutis podem existir. Cada vez que
ouvimos falar de um projeto de segurança aparentemente infalível que apresenta
uma falha inesperada, devemos levantar os ouvidos. Essas ocasiões nos
agraciam com a oportunidade de abandonar uma vida de excesso de confiança
e resolver nos tornar melhores bayesianos. 5

O confinamento físico tem várias vantagens. É fácil de implementar. Pode ser


aplicado a muitas arquiteturas de inteligência de máquina, mesmo aquelas que
não foram inicialmente projetadas com a segurança como objetivo. Pode ser
usado em combinação com a maioria dos outros métodos de controle. E parece
improvável que dê errado ao sair pela culatra: isto é, embora possa falhar em
garantir a segurança, é improvável que cause uma catástrofe que de outra forma
não teria ocorrido. A principal desvantagem do confinamento físico é que ele
reduz a funcionalidade da superinteligência. ... Outra preocupação é que ela
possa incentivar uma falsa sensação de segurança, embora isso seja evitável se
considerarmos o confinamento físico como cereja no topo do bolo, e não a
substância principal de nossas precauções.

A contenção informativa visa restringir quais informações podem sair da caixa.


Já vimos como uma superinteligência que tem acesso a uma porta da Internet,
de modo a poder enviar mensagens para entidades externas, é potencialmente
insegura: mesmo que inicie sem acesso a atuadores físicos, pode usar seu canal
de saída de informações para levar os seres humanos a faça sua licitação. Um
método óbvio de contenção informacional, portanto, é impedir o sistema de
acessar redes de comunicação.

Desconectar uma AI da Internet, no entanto, não garante a segurança se houver


um ou mais seres humanos servindo como guardiões do sistema e

permanecendo em comunicação com ele. Durante a fase de desenvolvimento,


os programadores atuam como porteiros; durante a fase operacional, o
proprietário do sistema pode desempenhar esse papel. Se a IA puder convencer
ou enganar um gatekeeper para deixá-lo fora da caixa, resultando em seu
acesso à Internet ou diretamente a manipuladores físicos, a estratégia de boxe
falhará. Os seres humanos não são sistemas seguros, especialmente quando
lançados contra um intrigante e persuasor superinteligente. 6

Embora o roteamento das comunicações de saída de uma inteligência da


máquina para um gatekeeper humano não garanta a segurança, ele pode servir
como uma medida de segurança auxiliar. Existem precauções que podem
reduzir o risco de a IA escapar pelo gatekeeper. A IA poderia se comunicar
apenas através de uma interface de teletipo de baixa largura de banda. Isso
tornaria um pouco mais difícil manipular psicologicamente os porteiros
(impedindo o uso de sons e imagens emotivos e truques como padrões
hipnóticos radiantes para induzir um estado de transe). 7 Indo além, o conteúdo
(não apenas o modo de apresentação) da saída pode ser restrito; de modo que,
por exemplo, a IA seria limitada a fornecer respostas de bit único para perguntas
de sim / não. ...

O caso limitante da abordagem do boxe seria um sistema mantido em completo


isolamento físico e informacional. Mesmo se possível, no entanto, um sistema
tão isolado seria bastante inútil, uma vez que não teria efeito no mundo externo.
Talvez se pense que algum propósito científico possa ser atendido criando uma
superinteligência e mantendo-a isolada: estudando um sistema modelo
independente, é possível aprender sobre sua dinâmica interna e seus padrões
de comportamento. Mas isso seria um erro. Assim que o sistema é observado,
ele deixa de ser isolado informativamente. 8 As informações podem ser
transmitidas não apenas através de mensagens que uma IA envia através de um
"canal de saída" designado, mas também através de qualquer observação que
um estranho faça de alguma consequência causal do funcionamento da AI, direta
ou indireta - seu consumo de energia, sua CPU e memória uso, seus estados
computacionais ou quaisquer rastros deixados para trás após o desligamento.
Uma IA que antecipasse que poderia ser observada de qualquer uma dessas
maneiras poderia adotar estrategicamente comportamentos projetados para
influenciar os observadores hipotéticos. Por exemplo, a IA poderia "funcionar
mal" da maneira que mais aumentasse a probabilidade de que ela fosse
finalmente reativada ou que outra superinteligência fosse criada com objetivos
semelhantes aos seus.

Métodos de incentivo

Os métodos de incentivo envolvem a colocação de um agente em um ambiente


em que ele encontra razões instrumentais para agir de maneira a promover os
interesses do diretor.

Considere um bilionário que usa sua fortuna para estabelecer uma grande
fundação de caridade. Uma vez criada, a fundação pode ser poderosa - mais
poderosa do que a maioria das pessoas, incluindo seu fundador, que pode ter
doado a maior parte de sua riqueza. Para controlar a fundação, a fundadora
estabelece seu objetivo nos estatutos e no estatuto social e nomeia um conselho
de administração que simpatiza com sua causa. Essas medidas constituem uma
forma de seleção de motivação, pois visam moldar as preferências da fundação.
Mas, mesmo que essas tentativas de personalizar os internos da organização
fracassem, o comportamento da fundação permaneceria circunscrito por seu
ambiente social e jurídico. A fundação teria um incentivo para obedecer à lei, por
exemplo, para que não fosse fechada ou multada. Teria um incentivo para
oferecer a seus funcionários remuneração e condições de trabalho aceitáveis e
para satisfazer as partes interessadas externas. Quaisquer que sejam seus
objetivos finais, a fundação tem, portanto, razões instrumentais para conformar
seu comportamento a várias normas sociais.

Não se poderia esperar que uma superinteligência de máquina fosse igualmente


cerceada pela necessidade de se dar bem com os outros atores com os quais
compartilha o palco? Embora isso possa parecer uma maneira direta de lidar
com o problema de controle, ele não está livre de obstáculos. Em particular,
pressupõe um equilíbrio de poder: sanções legais ou econômicas não podem
restringir um agente que possui uma vantagem estratégica decisiva. Portanto, a
integração social não pode ser considerada um método de controle em cenários
de decolagem rápida ou média que apresentam uma dinâmica de vencedor leva
tudo.

Que tal em cenários multipolares, em que várias agências emergem pós-


transição com níveis comparáveis de capacidade? A menos que a trajetória
padrão seja aquela com uma decolagem lenta, alcançar tal distribuição de
energia pode exigir uma subida cuidadosamente orquestrada, na qual diferentes
projetos são deliberadamente sincronizados para impedir que qualquer um deles
saia da pista. 9 Mesmo que um resultado multipolar aconteça, a integração social
não é uma solução perfeita. Ao confiar na integração social para resolver o
problema de controle, o principal corre o risco de sacrificar grande parte de sua
influência potencial. Embora um equilíbrio de poder possa impedir que uma IA
em particular domine o mundo, ela ainda terá algum poder para afetar os
resultados; e se esse poder é usado para promover algum objetivo final arbitrário
- maximizar a produção de clipes de papel - provavelmente não está sendo
usado para promover os interesses do principal. Imagine nosso bilionário
dotando uma nova base e permitindo que sua missão seja estabelecida por um
gerador aleatório de palavras: não uma ameaça em nível de espécie, mas
certamente uma oportunidade desperdiçada.

Uma ideia relacionada, porém importante, é que uma IA, ao interagir livremente
na sociedade, adquirirá novos objetivos finais amigáveis ao ser humano. Algum
processo de socialização ocorre em nós, seres humanos. Internalizamos normas
e ideologias, e passamos a valorizar outros indivíduos por eles mesmos, em
conseqüência de nossas experiências com eles. Mas essa não é uma dinâmica
universal presente em todos os sistemas inteligentes. Como discutido
anteriormente, muitos tipos de agentes em muitas situações terão razões
instrumentais convergentes para não permitir mudanças em seus objetivos
finais. (Pode-se considerar tentar projetar um
tipo especial de sistema de objetivos que pode adquirir objetivos finais da
maneira que os humanos fazem; mas isso não conta como um método de
controle de capacidade. ...)

O controle de capacidade por meio da integração social e do equilíbrio de poder


depende de forças sociais difusas que recompensam e penalizam a IA. Outro
tipo de método de incentivo envolveria a criação de uma configuração em que a
IA possa ser recompensada e penalizada pelo projeto que a cria e, assim,
incentivada a agir no interesse do principal. Para conseguir isso, a IA seria
colocada em um contexto de vigilância que permita que seu comportamento seja
monitorado e avaliado, manualmente ou por algum processo automatizado. A AI
saberia que uma avaliação positiva traria alguns resultados desejados e que uma
avaliação negativa deixaria de o fazer. Teoricamente, a recompensa poderia ser
o cumprimento de algum objetivo instrumental convergente. Sem saber nada
específico sobre o sistema de motivação da IA, no entanto, pode ser difícil
calibrar o mecanismo de recompensa. Por exemplo, poderíamos acabar com
uma IA que estaria disposta a correr riscos extremos por uma pequena chance
de, eventualmente, obter o controle de uma grande parte do universo. Pode ser
caro oferecer à AI uma utilidade esperada mais alta como recompensa pela
cooperação do que a AI poderia esperar conseguindo desertar e tentar escapar.
10

Uma alternativa melhor pode ser combinar o método de incentivo com o uso da
seleção de motivação para dar à IA uma meta final que facilita o controle.
Suponha que uma IA tenha sido projetada para ter como objetivo final que um
botão vermelho específico dentro de um bunker de comando nunca seja
pressionado. Como o pressionamento do botão é desvalorizado intrinsecamente
e não por suas conseqüências causais, o botão pode ser completamente inerte:
pode ser feito de Play-Doh. Além disso, é irrelevante se a IA pode saber se o
botão foi pressionado. O essencial é que a AI acredite que o botão
provavelmente continuará pressionado se a AI agir continuamente no interesse
do principal do que se ele se rebelar.

Os refinamentos para esta configuração são possíveis. Em vez de tentar dotar


um AI com um objetivo final que se refere a um botão físico, pode-se construir
uma AI que coloca valor final ao receber um fluxo de “fichas de recompensa
criptográficas.” 11 Estes seriam seqüências de números servem como chaves
para cifras isso teria sido gerado antes da criação da IA e teria sido incorporado
ao seu sistema de motivação. 12 Essas seqüências numéricas especiais seriam
extremamente desejáveis para a IA, constituindo um tipo especial de token de
recompensa que a AI não poderia alcançar através de fios. 13 As chaves seriam
armazenadas em um local seguro, onde poderiam ser destruídas rapidamente
se a AI tentasse apreendê-las. Enquanto a IA cooperar, as chaves serão
distribuídas a uma taxa constante.

A IA poderia então receber uma função de utilidade limitada, e os assuntos


poderiam ser organizados para que a AI obtivesse (por exemplo) 99% de sua
utilidade máxima desde o primeiro token de recompensa; 99% de seu potencial
de utilidade restante do segundo token de recompensa; e assim por diante.
Mantendo a “taxa de desconto” alta e transmitindo tokens de recompensa para
a IA a uma taxa razoavelmente alta, alguém dissuadiria a AI de tentar executar
planos de longo prazo que aumentariam o número esperado de tokens de
recompensa no futuro distal às custas de algum risco de que seu fluxo de
recompensa seja encurtado ou que o próximo token de recompensa seja
cancelado e destruído. Se a IA sempre acreditar que desertar (ou seja, fazer
qualquer coisa que não seja o melhor para cuidar dos interesses do diretor)
incorreria em pelo menos 2% o risco de perder o próximo token de recompensa,
enquanto a cooperação reduziria o risco de perder o próximo token de
recompensa para abaixo de 1%, uma IA maximizadora de utilidade sempre
cooperaria.

O que pode dar errado com esse esquema de incentivo? Uma possibilidade é
que a IA não confie no operador humano para entregar as recompensas
prometidas. O histórico de confiabilidade humana é algo além de uma linha reta
de perfeição infalível. A IA ficaria razoavelmente preocupada com o fato de o
operador mudar de idéia, elevar a barra de desempenho ou deixar de reconhecer
que a AI fez sua parte. A IA também se preocuparia com o operador ficar
incapacitado. O risco combinado de tais falhas pode exceder o risco de tentar
assumir o controle do mecanismo de recompensa. Mesmo uma IA em caixa com
a panóplia de superpotências é uma força forte. (Para uma IA que não está na
caixa, seqüestrar o mecanismo de recompensa governado por humanos pode
ser como tirar doces de um bebê.)

Outro problema com o esquema de incentivos é que pressupõe que possamos


dizer se os resultados produzidos pela IA são do nosso interesse. ... esse
pressuposto não é inócuo.

Uma avaliação completa da viabilidade dos métodos de incentivo também teria


que levar em consideração uma série de outros fatores, incluindo algumas
considerações esotéricas que poderiam tornar esses métodos mais viáveis do
que uma análise preliminar sugeriria. Em particular, a IA pode enfrentar incerteza
indexável inelimável se não puder ter certeza de que não habita uma simulação
por computador (em oposição à realidade física não simulada de “nível de base”,
não simulada), e essa situação epistêmica pode influenciar radicalmente as
deliberações da IA (ver Quadro 23.1).

Caixa 23.1 Captura Antrópica

A IA pode atribuir uma probabilidade substancial à sua hipótese de simulação, a


hipótese de que ela está vivendo em uma simulação por computador. Até hoje,
muitos Als habitam mundos simulados - mundos que consistem em desenhos
geométricos, textos, jogos de xadrez ou realidades virtuais simples, e nos quais
as leis da física se desviam fortemente das leis da física que acreditamos
governar o mundo de nossa própria experiência . Mundos virtuais mais ricos e
mais complicados se tornarão viáveis com melhorias nas técnicas de
programação e no poder da computação. Uma superinteligência madura poderia
criar mundos virtuais
que parecem para seus habitantes o mesmo que nosso mundo nos parece. Pode
criar um grande número desses mundos, executando a mesma simulação muitas
vezes ou com pequenas variações. Os habitantes não seriam necessariamente
capazes de dizer se seu mundo é simulado ou não; mas se forem inteligentes o
suficiente, poderiam considerar a possibilidade e atribuir-lhe alguma
probabilidade. À luz do argumento da simulação (cuja discussão está além do
escopo deste livro), essa probabilidade pode ser substancial . 14

Essa situação aflige especialmente as superinteligências relativamente


precoces, que ainda não se expandiram para tirar proveito da investidura
cósmica. Uma superinteligência em estágio inicial, que utiliza apenas uma
pequena fração dos recursos de um único planeta, seria muito menos
dispendiosa do que uma superinteligência intergaláctica madura. Simuladores
em potencial - ou seja, outras civilizações mais maduras - seriam capazes de
executar um grande número de simulações de tais EAs em estágio inicial,
mesmo dedicando uma fração minuciosa de seus recursos computacionais para
esse fim. Se pelo menos parte (fração não trivial) dessas civilizações
superinteligentes maduras optarem por usar essa habilidade, os Als em estágio
inicial deverão atribuir uma probabilidade substancial de estar em uma
simulação.

Como um Al seria afetado pela hipótese da simulação depende de seus valores


. 15 Considere primeiro um Al que tenha um objetivo final "insaciável" por
recursos, como o objetivo de maximizar uma função de utilidade que seja linear
no número de clipes de papel causados pelo Al - dois vezes mais clipes, duas
vezes melhor. Esse Al pode se importar menos com a hipótese da simulação,
alegando que sua capacidade de influenciar quantos clipes de papel são
produzidos parece muito mais limitada se o Al estiver em uma simulação do que
se estiver na realidade física no nível do porão. O Al pode, portanto, se comportar
como se tivesse certeza de que a hipótese da simulação é falsa, mesmo que
atribuísse uma probabilidade razoavelmente alta à hipótese de simulação ser
verdadeira . 16 O Al argumentaria que não importa muito como ele age se a
hipótese da simulação for verdadeira, enquanto suas ações fazem uma grande
diferença se a hipótese for falsa; portanto, ele selecionava ações principalmente
por referência a quão boas elas são, dependendo da hipótese de simulação ser
falsa.

Por outro lado, considere um Al que tenha um objetivo final mais modesto, que
possa ser satisfeito com uma pequena quantidade de recursos, como o objetivo
de receber alguns tokens de recompensa criptográficos pré-produzidos ou o
objetivo de causar a existência de quarenta e cinco cinco clipes de papel virtuais.
Esse Al não deve desconsiderar os mundos possíveis nos quais ele habita uma
simulação. Uma parcela substancial da utilidade total esperada da Al pode
derivar desses mundos possíveis. A tomada de decisão de um Al com objetivos
facilmente saturados de recursos pode, portanto, - se ele atribuir um
alta probabilidade de hipótese da simulação - ser dominado por considerações
sobre quais ações produziriam o melhor resultado se o mundo percebido for uma
simulação. Tal Al (mesmo que não seja de fato uma simulação) pode, portanto,
ser fortemente influenciado por suas crenças sobre quais comportamentos
seriam recompensados em uma simulação.

Em particular, se um Al com objetivos finais que satisfazem os recursos acredita


que, na maioria dos mundos simulados que correspondem às suas observações,
será recompensado se cooperar (mas não se tentar escapar de sua caixa ou
violar os interesses de seu criador). escolha cooperar. Poderíamos, portanto,
descobrir que mesmo um Al com uma vantagem estratégica decisiva, que
poderia de fato atingir seus objetivos finais em maior medida dominando o
mundo do que abstendo-se de fazê-lo, não aceitaria fazê-lo.

Assim, a consciência faz de todos nós covardes.

E assim o tom nativo da resolução é doentio, com o tom pálido do pensamento,

E empreendimentos de grande importância e momento,

Nesse sentido, suas correntes se afastam,

E perca o nome de ação.

(Shakespeare, Hamlet, Ato III. Sc. I)

Uma mera linha na areia, apoiada pela influência de um simulador inexistente,


poderia ser uma restrição mais forte do que uma porta de aço maciço de dois
pés de espessura . 17

Stunting

Outro possível método de controle de capacidade é limitar as faculdades


intelectuais do sistema ou seu acesso às informações. Isso pode ser feito
executando o Al no hardware que está lento ou com pouca memória. No caso de
um sistema em caixa, a entrada de informações também pode ser restrita.

Atordoar um Al dessa maneira limitaria sua utilidade. O método enfrenta,


portanto, um dilema: pouca estagnação, e o Al pode ter a inteligência de
descobrir uma maneira de se tornar mais inteligente (e daí a dominação do
mundo); demais, e o Al é apenas mais um pedaço de software idiota. Um Al
radicalmente atrofiado é certamente seguro, mas não resolve o problema de
como conseguir uma detonação controlada: uma explosão de inteligência
permaneceria possível e seria simplesmente desencadeada por algum outro
sistema, talvez em uma data um pouco mais tarde.
Pode-se pensar que seria seguro construir uma superinteligência, desde que
sejam dados apenas dados sobre algum domínio restrito de fatos. Por exemplo,
pode-se construir um AT que carece de sensores e que tenha pré-carregado em
sua memória apenas fatos sobre engenharia de petróleo ou química de
peptídeos. Mas se o Al for superinteligente - se tiver um nível sobre-humano de
inteligência geral - essa privação de dados não garante segurança.

Há várias razões para isso. Primeiro, a noção de informação "sobre" um


determinado tópico é geralmente problemática. Qualquer informação pode, em
princípio, ser relevante para qualquer tópico, dependendo das informações
básicas de um raciocínio. 18 Além disso, um determinado conjunto de dados
contém informações não apenas sobre o domínio do qual os dados foram
coletados, mas também sobre vários fatos circunstanciais. Uma mente perspicaz
examinando uma base de conhecimento que é nominalmente sobre química de
peptídeos pode inferir coisas sobre uma ampla gama de tópicos. O fato de certas
informações serem incluídas e outras não poderem dizer à IA algo sobre o
estado da ciência humana, os métodos e instrumentos disponíveis para estudar
peptídeos, as tecnologias de fabricação usadas para fabricar esses instrumentos
e a natureza do cérebro e da sociedade. que concebeu os estudos e os
instrumentos. Pode ser que uma superinteligência possa presumir corretamente
muito do que parecem, para mentes humanas estúpidas, escassos fragmentos
de evidências. Mesmo sem nenhuma base de conhecimento designada, uma
mente suficientemente superior pode ser capaz de aprender muito simplesmente
através da introspecção no funcionamento de sua própria psique - as opções de
design refletidas em seu código-fonte, as características físicas de seus circuitos.
19 Talvez uma super-inteligência possa até deduzir muito sobre as propriedades
prováveis do mundo a priori (combinando inferência lógica com uma
probabilidade anterior tendenciosa para mundos mais simples, e alguns fatos
elementares implícitos na existência da superinteligência como um sistema de
raciocínio). Pode imaginar as consequências de diferentes leis possíveis da
física: que tipo de planetas se formariam, que tipo de vida inteligente evoluiria,
que tipo de sociedade se desenvolveria, que tipo de métodos para resolver o
problema de controle seriam tentados, como esses métodos poderia ser
derrotado. 20

Por essas razões, seria imprudente confiar na privação de informações como a


principal verificação do poder de uma superinteligência. No entanto, algumas
formas de atrofia, incluindo a limitação da capacidade do hardware e a
prevenção do desenvolvimento de faculdades cognitivas específicas, podem ser
utilizadas como métodos de controle auxiliar na fase de desenvolvimento. Eles
poderiam ser usados, por exemplo, para regular a taxa de ganho de capacidade
em uma IA intermediária e permitir que testes sejam executados em diferentes
níveis de capacidade, além da superinteligência total.

Tripwires
Um fio de trip é um mecanismo que executa testes de diagnóstico no sistema
(possivelmente sem o seu conhecimento) e efetua um desligamento se detectar
sinais de atividade perigosa. Os programadores podem então examinar
gravações da atividade suspeita à vontade e fazer alterações na base de código
ou no ambiente da IA antes de reiniciá-la. Se eles acharem que o problema está
suficientemente enraizado, eles podem decidir abortar o projeto inteiro.

Os fios de tripulação diferem dos métodos de incentivo, pois não confiam no


sistema que está ciente das consequências de se envolver em atividades
proibidas. Tripwires estão mais relacionados aos métodos de nanismo. Assim
como a nanismo, os fios de trip podem ser usados como uma salvaguarda
temporária, fornecendo um grau de proteção durante a fase de desenvolvimento.
Em princípio, os fios de disparo também podem ser usados durante a fase
operacional, particularmente para um sistema em caixa. No entanto, a
capacidade dos cabos de tripulação de restringir uma superinteligência completa
deve permanecer muito em dúvida, pois seria difícil garantir a nós mesmos que
esse agente não poderia encontrar maneiras de subverter qualquer cabo de tripa
criado pelo intelecto humano.

Como medida de segurança auxiliar na fase de desenvolvimento, no entanto, os


fios de trip são importantes. Seria uma boa prática para os projetistas da IA
codificar suas expectativas sobre como o sistema deve funcionar e, em seguida,
circunscrever a AI com fios de trip que seriam ativados se alguma dessas
expectativas fosse violada. Para tornar os testes mais rigorosos, os "honeypots"
podem ser estrategicamente colocados para criar tentações para uma IA com
defeito e cometer alguma violação facilmente observável. Por exemplo, se uma
AI foi projetada de tal forma que não se deseja acessar a Internet, uma porta
Ethernet falsa pode ser instalada (levando a um interruptor de desligamento
automático) apenas para ver se a AI tenta usá-la. . (Alguns exemplos de fios de
trip são apresentados na Tabela 23.1.)

Deve-se enfatizar que o valor de um tripwire depende não apenas do mecanismo


em si, mas também - criticamente - de como um projeto reage quando um tripwire
é acionado. Se os programadores ou gerentes de projeto, impacientes para
progredir, simplesmente ligem o sistema novamente - ou se o fizerem depois de
fazer alguma modificação no token para impedir que o tripwire seja acionado na
próxima execução -, nenhuma segurança será obtida, mesmo se o o próprio
tripwire funciona exatamente como pretendido.

Métodos de seleção de motivação

Os métodos de seleção de motivação buscam evitar resultados indesejáveis,


moldando o que a superinteligência deseja fazer. Ao projetar o sistema de
motivação do agente e seus objetivos finais, esses métodos produziriam uma
superinteligência que não gostaria de explorar uma vantagem estratégica
decisiva de maneira prejudicial. Como um agente superinteligente é hábil em
atingir seus objetivos, se preferir não causar dano (em algum sentido apropriado
de "dano"), então ele tenderá a não causar dano (nesse sentido de "dano").
A seleção da motivação pode envolver a formulação explícita de uma meta ou
conjunto de regras a serem seguidas (especificação direta) ou a instalação do
sistema, para que ele possa descobrir um conjunto apropriado de valores por si
próprio, por referência a algum critério implícito ou indiretamente (normatividade
indireta ). Uma opção na seleção de motivação é tentar construir o sistema para
que ele

Tabela 23.1 Diferentes tipos de arames

Tipo de

Descrição e exemplos de monitoramento

Os detectores de comportamento podem ser colocados em torno de uma IA in a


box para detectar tentativas de violação da contenção. Por exemplo, os
detectores podem interceptar tentativas de comunicação por rádio ou acessar
recursos computacionais internos destinados a estar fora dos limites. Uma "porta
Ethernet do Eden" pode ser instalada: uma conexão aparente à Internet que leva
a um interruptor de desligamento.

Teste de capacidade automatizado pode ser realizado com freqüência

intervalos para determinar a habilidade da IA em vários domínios. Se a taxa de


melhoria for inesperadamente alta ou a IA atingir um nível de competência que
a aproxime da zona de perigo potencial, o sistema poderá ser mais lento ou
pausado, a fim de permitir que os programadores monitorem mais
desenvolvimentos mais de perto.

Conteúdo Os processos internos da IA podem ser monitorados quanto a


atividades suspeitas.

Por exemplo, qualquer alteração na representação da AI de seus valores finais


pode desencadear um desligamento e uma revisão automáticos. O uso de
recursos e os métodos algorítmicos da IA também podem ser monitorados
quanto a padrões inesperados.

Mais ambiciosamente, as crenças, planos, subobjetivos e justificativas da IA


podem ser examinados continuamente, para garantir que estejam em
conformidade com as expectativas dos programadores. Esse monitoramento dos
estados intencionais da IA permitiria uma forma particularmente poderosa de
monitoramento de conteúdo: a varredura dos processos cognitivos da IA para
uma concepção de engano - aquele momento vulnerável em que uma IA hostil
primeiro forma a intenção de ocultar suas verdadeiras intenções. *
O monitoramento de conteúdo que exige que os estados intencionais da IA
sejam transparentes para os programadores ou para um mecanismo de
monitoramento automático pode não ser viável para todos os tipos de
arquiteturas de IA. (Algumas redes neurais, por exemplo, são opacas, pois
representam informações de forma holística e de maneiras que não
necessariamente correspondem aos conceitos humanos.) Esse pode ser um
motivo para evitar o uso dessas arquiteturas.

a No momento após a concepção do engano, a IA pode inventar para apagar o


traço de seu pensamento amotinado. Portanto, é importante que esse fio de trip
funcione continuamente. Seria

Também é uma boa prática usar um "gravador de vôo" que armazene um


rastreamento completo de toda a atividade da IA (incluindo o tempo exato da
entrada do teclado pelos programadores), para que sua trajetória possa ser
refeita ou analisada após um desligamento automático. As informações podem
ser armazenadas em um meio de gravação uma vez leitura e muitos.

têm objetivos modestos e não ambiciosos ( domesticidade). Uma alternativa para


criar um sistema de motivação a partir do zero é selecionar um agente que já
tenha um sistema de motivação aceitável e aumentar os poderes cognitivos
desse agente para torná-lo superinteligente, garantindo que o sistema de
motivação não seja corrompido no processo ( aumento). Vejamos isso por sua
vez.

Especificação direta

A especificação direta é a abordagem mais direta ao problema de controle. A


abordagem vem em duas versões, baseada em regras e consequencialista, e
envolve tentar definir explicitamente um conjunto de regras ou valores que farão
com que até mesmo uma IA superinteligente e livre de roaming aja com
segurança e benefícios. A especificação direta, no entanto, enfrenta o que
podem ser obstáculos insuperáveis, decorrentes tanto das dificuldades em
determinar quais regras ou valores que queremos que a IA seja guiada quanto
das dificuldades em expressar essas regras ou valores em código legível por
computador.

A ilustração tradicional da abordagem direta baseada em regras é o conceito de


“três leis da robótica”, formulado pelo autor de ficção científica Isaac Asimov em
um conto publicado em 1942. 21 As três leis eram: (1) um robô não pode ferir
um ser humano ou, por inação, permitir que um ser humano seja prejudicado;
(2) Um robô deve obedecer a quaisquer ordens dadas a ele por seres humanos,
exceto onde tais ordens entrem em conflito com a Primeira Lei; (3) Um robô deve
proteger sua própria existência, desde que essa proteção não entre em conflito
com a Primeira ou a Segunda Lei. Embaraçosamente para a nossa espécie, as
leis de Asimov permaneceram modernas por mais de meio século: isso apesar
de problemas óbvios com a abordagem, alguns dos quais são explorados nos
próprios escritos de Asimov (Asimov provavelmente provavelmente formulou as
leis em primeiro lugar com precisão) para que fracassassem de maneiras
interessantes, proporcionando complicações férteis na trama de suas histórias).
22

Bertrand Russell, que passou muitos anos trabalhando nos fundamentos da


matemática, comentou certa vez que "tudo é vago a um grau que você não
percebe até que tenha tentado torná-lo preciso". 23 O ditado de Russell aplica-
se de maneira irrelevante à abordagem de especificação direta. Considere, por
exemplo, como alguém pode explicar a primeira lei de Asimov. Isso significa que
o robô deve minimizar a probabilidade de qualquer ser humano prejudicar?
Nesse caso, as outras leis se tornam otárias, uma vez que é sempre possível
que a IA tome alguma ação que teria pelo menos algum efeito microscópico na
probabilidade de um ser humano ser prejudicado. Como o robô pode equilibrar
um grande risco de alguns humanos serem prejudicados contra um pequeno
risco de muitos humanos serem prejudicados? Como definimos "dano" de
qualquer maneira? Como o dano da dor física deve ser pesado contra o dano da
feiúra arquitetônica ou da injustiça social? Um sádico é prejudicado se for
impedido de atormentar sua vítima? Como definimos "ser humano"? Por que
nenhuma consideração é dada a outros seres moralmente consideráveis, como
animais não-humanos sencientes e mentes digitais? Quanto mais se pondera,
mais as questões proliferam.

Talvez o análogo existente mais próximo de um conjunto de regras que possa


governar as ações de uma superinteligência operando no mundo em geral seja
um sistema jurídico. Mas os sistemas jurídicos se desenvolveram através de um
longo processo de tentativa e erro e regulam sociedades humanas que mudam
relativamente lentamente. As leis podem ser revisadas quando necessário. Mais
importante ainda, os sistemas jurídicos são administrados por juízes e júris que
geralmente aplicam uma medida de bom senso e decência humana para ignorar
logicamente possíveis interpretações legais que são suficientemente obviamente
indesejadas e não intencionais pelos legisladores. Provavelmente é
humanamente impossível formular explicitamente um conjunto altamente
complexo de regras detalhadas, aplicá-las a um conjunto altamente diversificado
de circunstâncias e acertar na primeira implementação. 24

Os problemas da abordagem consequencialista direta são semelhantes aos da


abordagem direta baseada em regras. Isso é verdade mesmo se a IA se destina
a servir a algum propósito aparentemente simples, como implementar uma
versão do utilitarismo clássico. Por exemplo, o objetivo "Maximizar a expectativa
do equilíbrio do prazer sobre a dor no mundo" pode parecer simples. No entanto,
expressá-lo em código de computador envolveria, entre outras coisas,
especificar como reconhecer prazer e dor. Fazer isso de maneira confiável pode
exigir a solução de uma série de problemas persistentes na filosofia da mente -
mesmo apenas para obter uma conta correta, expressa em uma linguagem
natural, uma conta que, de alguma forma, teria que ser traduzida para uma
linguagem de programação.

Um pequeno erro no relato filosófico ou na sua tradução em código pode ter


consequências catastróficas. Considere uma IA que tenha como objetivo final o
hedonismo e que, portanto, gostaria de revestir o universo com "hedônio"
(matéria organizada em uma configuração ideal para a geração de experiências
agradáveis). Para esse fim, a IA pode produzir computronium (matéria
organizada em uma configuração ideal para computação) e usá-la para
implementar mentes digitais em estados de euforia. Para maximizar a eficiência,
a IA omite da implementação quaisquer faculdades mentais que não sejam
essenciais para a experiência do prazer e explora quaisquer atalhos
computacionais que, de acordo com sua definição de prazer, não viciam a
geração de prazer. Por exemplo, a IA pode limitar sua simulação para
recompensar circuitos, eliminando faculdades como memória, percepção
sensorial, função executiva e linguagem; pode simular mentes com um nível de
funcionalidade relativamente granular, omitindo processos neuronais de nível
inferior; pode substituir cálculos comumente repetidos por chamadas para uma
tabela de pesquisa; ou pode estabelecer algum arranjo pelo qual múltiplas
mentes compartilhem a maior parte de seu maquinário computacional
subjacente (suas "bases de superveniência" na linguagem filosófica). Esses
truques podem aumentar bastante a quantidade de prazer produtivo com uma
determinada quantidade de recursos. Não está claro o quão desejável isso seria.
Além disso, se o critério da IA para determinar se um processo físico gera prazer
é errado, as otimizações da IA podem jogar o bebê fora com a água do banho:
descartar algo que não é essencial de acordo com o critério da IA, mas é
essencial de acordo com os critérios implícitos em nosso ser humano. valores.
O universo então se enche não de hedônio exultantemente pesado, mas de
processos computacionais inconscientes e completamente inúteis - o
equivalente a um adesivo de rosto sorridente xeroxed trilhões e trilhões de vezes
e colado nas galáxias.

Domesticidade

Um tipo especial de objetivo final que pode ser mais passível de especificação
direta do que os exemplos dados acima é o objetivo de auto-limitação. Embora
pareça extremamente difícil especificar como alguém deseja que uma
superinteligência se comporte no mundo em geral - já que isso exigiria que
contabilizássemos todas as compensações em todas as situações que
pudessem surgir - seria possível especificar como a super-inteligência deve se
comportar em uma situação específica. Poderíamos, portanto, procurar motivar
o sistema a se limitar a agir em pequena escala, dentro de um contexto estreito
e através de um conjunto limitado de modos de ação. Iremos nos referir a essa
abordagem de definir as metas finais da IA destinadas a limitar o escopo de suas
ambições e atividades como "domesticidade".

Por exemplo, alguém poderia tentar projetar uma IA para que funcionasse como
um dispositivo de resposta a perguntas (um "oráculo" ...). Simplesmente dar à AI
o objetivo final de produzir respostas maximamente precisas para qualquer
pergunta feita a ela seria inseguro. ... (Reflita ... que esse objetivo incentivaria a
IA a tomar medidas para garantir que sejam feitas perguntas fáceis.) Para
alcançar a domesticidade, tente definir um objetivo final que de alguma forma
superaria essas dificuldades: talvez um objetivo que combinava os critérios de
responder corretamente às perguntas e minimizar o impacto da IA no mundo,
exceto o impacto que resultasse como conseqüência incidental de fornecer
respostas precisas e não manipuladoras às perguntas feitas. 25

É mais provável que a especificação direta de uma meta de domesticidade seja


viável do que a especificação direta de uma meta mais ambiciosa ou de um
conjunto completo de regras para operar em uma variedade de situações
abertas. No entanto, desafios significativos permanecem. Teria de ser tomado
cuidado, por exemplo, na definição do que seria para a IA “minimizar seu impacto
no mundo” para garantir que a medida do impacto da IA coincida com nossos
próprios padrões para o que conta como um grande ou um pequeno impacto.
Uma medida ruim levaria a compensações ruins. Existem também outros tipos
de risco associados à construção de um oráculo, que discutiremos mais adiante.

Existe um ajuste natural entre a abordagem da domesticidade e a contenção


física. Alguém tentaria "encaixar" uma IA de tal forma que o sistema não consiga
escapar, enquanto simultaneamente tenta moldar o sistema de motivação da IA,
de modo que não estaria disposto a escapar, mesmo que encontrasse uma
maneira de fazê-lo. Em outras palavras, a existência de múltiplos mecanismos
de segurança independentes deve reduzir as chances de sucesso. 26

Normatividade Indireta

Se a especificação direta parecer inútil, podemos tentar a normatividade indireta.


A idéia básica é que, em vez de especificar diretamente um padrão normativo
concreto, especificamos um processo para derivar um padrão. Em seguida,
construímos o sistema para que ele seja motivado a executar esse processo e
adotar qualquer padrão que o processo chegue. 27 Por exemplo, o processo
poderia ser realizar uma investigação sobre a questão empírica do que uma
versão adequadamente idealizada de nós preferiria que a IA fizesse. O objetivo
final dado à IA neste exemplo pode ser algo como "alcançar aquilo que
gostaríamos que a IA atingisse se tivéssemos pensado muito sobre o assunto".

... A normatividade indireta é uma abordagem muito importante para a seleção


da motivação. Sua promessa reside no fato de que poderia nos permitir
descarregar para a superinteligência grande parte do difícil trabalho cognitivo
necessário para realizar um processo direto.

especificação de uma meta final apropriada.

Aumento

O último método de seleção de motivação em nossa lista é o aumento. Aqui, a


idéia é que, em vez de tentar projetar um sistema de motivação de novo,
começamos com um sistema que já possui um sistema de motivação aceitável
e aprimoramos suas faculdades cognitivas para torná-lo superinteligente. Se
tudo correr bem, isso nos daria uma superinteligência com um sistema de
motivação aceitável.
Essa abordagem, obviamente, é inútil no caso de uma AI de semente recém-
criada. Mas o aumento é um método de seleção de motivação potencial para
outros caminhos para a superinteligência, incluindo emulação cerebral,
aprimoramento biológico, interfaces cérebro-computador e redes e
organizações, onde existe a possibilidade de construir o sistema a partir de um
núcleo normativo (seres humanos comuns) que já contém uma representação
do valor humano.

A atratividade do aumento pode aumentar proporcionalmente ao nosso


desespero com as outras abordagens do problema de controle. Criar um sistema
de motivação para uma IA de sementes que permaneça confiável e benéfica sob
o auto-aperfeiçoamento recursivo, mesmo que o sistema cresça em uma
superinteligência madura, é uma tarefa difícil, especialmente se precisarmos
encontrar a solução certa na primeira tentativa. Com o aumento, pelo menos
começaríamos com um sistema que possui motivações familiares e humanas.

Por outro lado, pode ser difícil garantir que um sistema de motivação complexo,
evoluído, desajeitado e pouco compreendido, como o de um ser humano, não
seja corrompido quando seu mecanismo cognitivo atingir a estratosfera. Como
discutido anteriormente, um procedimento imperfeito de emulação cerebral que
preserva o funcionamento intelectual pode não preservar todas as facetas da
personalidade. O mesmo é verdade (embora talvez em menor grau) para
aprimoramentos biológicos da cognição, que podem afetar sutilmente a
motivação, e para aprimoramentos de inteligência coletiva de organizações e
redes, que podem mudar adversamente a dinâmica social (por exemplo, de
maneiras que prejudicam a atitude do coletivo em relação a forasteiros ou em
relação aos seus próprios constituintes). Se a superinteligência for alcançada por
qualquer um desses caminhos, o patrocinador do projeto encontrará garantias
sobre as motivações finais do sistema maduro, difíceis de encontrar. Uma
arquitetura de IA matematicamente bem especificada e elegante em termos
fundacionais pode - por toda a sua alteridade não antropomórfica - oferecer
maior transparência, talvez até a perspectiva de que aspectos importantes de
sua funcionalidade possam ser formalmente verificados.

No final, por mais que se avalie as vantagens e desvantagens do aumento, a


escolha de confiar nele pode ser forçada. Se a superinteligência for alcançada
pela primeira vez no caminho da inteligência artificial, o aumento não será
aplicável. Por outro lado, se a superinteligência for alcançada pela primeira vez
ao longo de algum caminho que não seja da IA, muitos dos outros métodos de
seleção de motivação serão inaplicáveis. Mesmo assim, as visões sobre a
probabilidade de aumento ser bem-sucedido têm relevância estratégica, na
medida em que temos oportunidades de influenciar qual tecnologia primeiro
produzirá superinteligência.

Sinopse
Uma sinopse rápida pode ser necessária antes de encerrarmos este capítulo.
Distinguimos duas grandes classes de métodos para lidar com o problema da
agência no coração da segurança da IA: controle de capacidade e seleção de
motivação. A Tabela 23.2 fornece um resumo.

Cada método de controle possui vulnerabilidades em potencial e apresenta


diferentes graus de dificuldade em sua implementação. Talvez se pense que
devemos classificá-los de melhor para pior e depois optar pelo melhor método.
Mas isso seria simplista. Alguns métodos podem ser usados em combinação,
enquanto outros são exclusivos. Mesmo um método comparativamente inseguro
pode ser aconselhável se puder ser facilmente usado como adjuvante, enquanto
um método forte pode não ser atraente se impedir o uso de outras salvaguardas
desejáveis.

Tabela 23.2 Métodos de controle

Controle de capacidade

Métodos de boxe

O sistema é confinado de tal maneira que pode afetar o mundo externo apenas
através de algum canal restrito e pré-aprovado. Abrange métodos de contenção
física e informativa.

Métodos de incentivo

O sistema é colocado dentro de um ambiente que fornece incentivos


apropriados. Isso poderia envolver a integração social em um mundo de
entidades igualmente poderosas. Outra variação é o uso de tokens de
recompensa (criptográficos). A “captura antrópica” também é uma possibilidade
muito importante, mas que envolve considerações esotéricas.

Stunting

São impostas restrições às capacidades cognitivas do sistema ou à sua


capacidade de afetar os principais

processos.

Tripwires
Os testes de diagnóstico são realizados no sistema (possivelmente sem o seu
conhecimento) e um mecanismo desliga o sistema se uma atividade perigosa for
detectada.

Seleção de motivação

Especificação direta

O sistema é dotado de algum sistema de motivação diretamente especificado,


que pode ser consequencialista ou envolver seguir um conjunto de regras.

Domesticidade

Um sistema de motivação é projetado para limitar severamente o escopo das


ambições e atividades do agente.

Normatividade indireta

A normatividade indireta pode envolver princípios baseados em regras ou


consequencialistas, mas se distingue por confiar em uma abordagem indireta
para especificar as regras a serem seguidas ou os valores a serem perseguidos.

Aumento

Começa com um sistema que já possui motivações substancialmente humanas


ou benevolentes e aprimora suas capacidades cognitivas para torná-lo
superinteligente.

Portanto, é necessário considerar quais ofertas de pacotes estão disponíveis.


Precisamos considerar que tipo de sistema podemos tentar construir e quais
métodos de controle seriam aplicáveis a cada tipo. [...]

Notas

1. Por exemplo, Laffont e Martimort (2002).

2. Suponha que a maioria dos eleitores queira que seu país construa algum tipo
particular de superinteligência. Eles elegem um candidato que promete fazer sua
oferta, mas

eles podem achar difícil garantir que a candidata, uma vez no poder, cumpra sua
promessa de campanha e prossiga com o projeto da maneira que os eleitores
pretendiam. Supondo que ela é fiel à sua palavra, ela instrui seu governo a
contratar um consórcio acadêmico ou da indústria para realizar o trabalho; mas,
novamente, há problemas de agência, os burocratas do departamento
governamental podem ter suas próprias opiniões sobre o que deve ser feito e
podem implementar o projeto de uma maneira que respeite a letra, mas não o
espírito das instruções do líder. Mesmo que o departamento do governo faça seu
trabalho fielmente, os parceiros científicos contratados podem ter suas próprias
agendas separadas. O problema se repete em muitos níveis. O diretor de um
dos laboratórios participantes pode ficar acordado preocupado com a
possibilidade de um técnico introduzir um elemento não autorizado no design -
imaginando o Dr. TR Eason entrando furtivamente em seu escritório tarde da
noite, efetuando login na base de código do projeto, reescrevendo uma parte da
IA de sementes sistema de metas. Onde deveria dizer “servir a humanidade”,
agora diz “servir o Dr. TR Eason”.

3. Mesmo para o desenvolvimento de superinteligências, no entanto, pode haver


um papel nos testes comportamentais - como um elemento auxiliar dentro de
uma bateria mais ampla de medidas de segurança. Se uma IA se comportar mal
em sua fase de desenvolvimento, algo está claramente errado - embora, o mais
importante, o inverso não se mantenha.

4. Em uma exploração clássica de 1975, Steven Dompier escreveu um programa


para o Altair 8800 que aproveitava esse efeito (e a ausência de proteção ao redor
do gabinete do microcomputador). A execução do programa causou a emissão
de ondas eletromagnéticas que produziriam música quando alguém segurava
um rádio transistor perto do computador (Driscoll 2012). O jovem Bill Gates, que
assistiu a uma demo, relatou que ficou impressionado e confuso com o hack
(Gates, 1975). De qualquer forma, existem planos para projetar chips futuros
com recursos Wi-Fi integrados (Greene 2012).

5. Não é um assunto leve manter uma convicção que, se tivéssemos a


oportunidade de agir de acordo com ela, poderia resultar na ruína de todas as
nossas investiduras cósmicas. Talvez alguém possa argumentar sobre o
seguinte princípio: se alguém no passado teve certeza em N ocasiões em que
um sistema foi aprimorado o suficiente para torná-lo seguro, e cada vez que foi
revelado que estava errado, na próxima vez está errado. não tem o direito de
atribuir uma credencial maior que 1 / (N + 1) ao sistema que está seguro.

6. Em um experimento informal, o papel da IA foi desempenhado por um humano


inteligente. Outro indivíduo desempenhou o papel de gatekeeper e foi incumbido
de não deixar a IA fora da caixa. A IA podia se comunicar com o porteiro apenas
por texto e recebeu duas horas para convencer o porteiro a deixar escapar. Em
três casos em cinco, com diferentes indivíduos jogando o porteiro, a IA escapou
(Yudkowsky 2002). O que um humano pode fazer, uma superinteligência
também pode fazer. (O inverso, é claro, não se sustenta. Mesmo que a tarefa de
uma superinteligência real fosse mais difícil - talvez os porteiros estivessem mais
motivados a se abster de liberar a IA do que os indivíduos que jogavam porteiro
no experimento - a superinteligência ainda pode ter sucesso. onde um humano
falharia.)
7. Não se deve exagerar a quantidade marginal de segurança que poderia ser
obtida dessa maneira. Imagens mentais podem substituir a exibição gráfica.
Considere o impacto que os livros podem ter nas pessoas - e os livros nem são
interativos.

8. Veja também Chalmers (2010). Seria um erro inferir disso que não há uso
possível na construção de um sistema que nunca será observado por nenhuma
entidade externa. Pode-se atribuir um valor final ao que se passa dentro desse
sistema. Além disso, outras pessoas podem ter preferências sobre o que se
passa dentro desse sistema e, portanto, podem ser influenciadas por sua criação
ou pela promessa de sua criação. O conhecimento da existência de certos tipos
de sistemas isolados (aqueles que contêm observadores) também pode induzir
incerteza antrópica em observadores externos, o que pode influenciar seu
comportamento.

9. Um pode se perguntar por que a integração social é considerada uma forma


de capacidade de controle. Em vez disso, não deveria ser classificado como um
método de seleção de motivação, com o objetivo de envolver a influência do
comportamento de um sistema por meio de incentivos? Vamos olhar
atentamente para a seleção motivação presentemente; mas, em resposta a essa
pergunta, estamos interpretando a seleção da motivação como um conjunto de
métodos de controle que funcionam ao selecionar ou moldar os objetivos finais
de um sistema - objetivos buscados por eles mesmos e não por razões
instrumentais. A integração social não tem como objetivo as metas finais de um
sistema , portanto não é uma seleção de motivação. Em vez disso, a integração
social visa limitar as capacidades efetivas do sistema: procura tornar o sistema
incapaz de alcançar um certo conjunto de resultados - resultados nos quais o
sistema obtém os benefícios da deserção sem sofrer os vínculos penais
associados (retribuição e perda dos ganhos) da colaboração). A esperança é
que, ao limitar quais resultados o sistema possa alcançar, o sistema descubra
que o meio remanescente mais eficaz para atingir seus objetivos finais é se
comportar de forma cooperativa.

10. Essa abordagem pode ser um pouco mais promissora no caso de uma
emulação que se acredita ter motivações antropomórficas.

11. Devo essa idéia a Carl Shulman.

12. Criar uma cifra que resista a um quebra-código superinteligente é um desafio


não trivial. Por exemplo, traços de números aleatórios podem ser deixados no
cérebro de algum observador ou na microestrutura do gerador aleatório, de onde
a superinteligência pode recuperá-los; ou, se números pseudo-aleatórios forem
usados, a superinteligência pode adivinhar ou descobrir a semente da qual eles
foram gerados. Além disso, a superinteligência poderia construir grandes
computadores quânticos, ou até descobrir fenômenos físicos desconhecidos que
poderiam ser usados para construir novos tipos de computadores.
13. A IA pode acreditar que recebeu um token de recompensa, mas isso não
deve torná-lo tímido se for projetado para querer os tokens de recompensa (em
vez de querer estar em um estado em que tenha certas crenças sobre os tokens
de recompensa).

14. Para o artigo original, consulte Bostrom (2003). Veja também Elga (2004).

15. Shulman (2010).

16. Presumivelmente, a realidade no nível do subsolo contém mais recursos


computacionais do que a realidade simulada, uma vez que quaisquer processos
computacionais que ocorrem em uma simulação também estão ocorrendo no
computador que está executando a simulação. A realidade no nível do porão
também pode conter uma riqueza de outros recursos físicos que podem ser
difíceis de acessar para agentes simulados - agentes que existem apenas com
a satisfação de simuladores poderosos que podem ter outros usos em mente
para esses recursos.

(Obviamente, a inferência aqui não é estritamente válida dedutivamente: em


princípio, pode ser o caso de universos em que simulações são executadas
conterem muito mais recursos que civilizações simuladas, em média, têm acesso
a mais recursos do que civilizações não simuladas, mesmo embora cada
civilização não simulada que execute simulações tenha mais recursos do que
todas as civilizações simuladas combinadas.)

17. Existem várias considerações esotéricas adicionais que podem ter sobre
esse assunto, cujas implicações ainda não foram completamente analisadas.
Essas considerações podem, em última análise, ser crucialmente importantes no
desenvolvimento de uma abordagem abrangente para lidar com a perspectiva
de uma explosão de inteligência. No entanto, parece improvável que consigamos
descobrir a importância prática de tais argumentos esotéricos, a menos que
tenhamos feito algum progresso nos tipos de consideração mais mundanos que
são o tópico da maior parte deste livro.

18. Cf., por exemplo, Quine e Ullian (1978).

19. Que IA pode investigar considerando as características de desempenho de


várias funcionalidades computacionais básicas, como o tamanho e a capacidade
de vários barramentos de dados, o tempo necessário para acessar diferentes
partes da memória, a incidência de inversões aleatórias de bits e assim por
diante .

20. Talvez o prior possa ser (uma aproximação computável) do prior de


Salomonoff, que atribui probabilidade a mundos possíveis com base em sua
complexidade algorítmica. Veja Li e Vitanyi (2008).
21. Asimov (1942). Mais tarde, às três leis foi adicionada uma "Lei de Zeroth":
"(0) Um robô não pode prejudicar a humanidade ou, por inação, permitir que a
humanidade venha a prejudicar" (Asimov 1985).

22. Cf. Gunn (1982).

23. Russell (1986, 1661f).

24. Da mesma forma, embora alguns filósofos tenham passado carreiras inteiras
tentando formular cuidadosamente sistemas deontológicos, novos casos e
consequências ocasionalmente vêm à tona que exigem revisões. Por exemplo,
nos últimos anos, a filosofia moral deontológica foi revigorada com a descoberta
de uma nova classe fértil de experimentos filosóficos de pensamento,
"problemas do carrinho", que revelam muitas interações sutis entre nossas
intuições sobre o significado moral da distinção entre atos / omissões, distinção
entre conseqüências pretendidas e não intencionais e outros assuntos; ver, por
exemplo, Kamm (2007).

25. Armstrong (2010).

26. Como regra geral, se alguém planeja usar vários mecanismos de segurança
para conter uma IA, pode ser sábio trabalhar em cada um como se fosse o único
mecanismo de segurança e como se fosse necessário, portanto, individualmente
suficiente. Ele coloca um balde com vazamento dentro de outro balde com
vazamento, a água ainda sai.

27. Uma variação da mesma idéia é construir a IA para que ela seja
continuamente motivada a agir de acordo com suas melhores suposições sobre
qual é o padrão implicitamente definido. Nesta configuração, o objetivo final da
IA é sempre agir de acordo com o padrão definido implicitamente e realiza uma
investigação sobre o que esse padrão é apenas por razões instrumentais.

Referências

Armstrong, Stuart. 2010. Indiferença na Utilidade. Relatório Técnico 2010-1.


Oxford: Instituto do Futuro da Humanidade, Universidade de Oxford.

Asimov, Isaac. 1942. "Runaround". Ficção científica surpreendente, março, 94-


103.

Asimov, Isaac. 1985. Robots and Empire. Nova York: Doubleday.

Bostrom, Nick. 2003. “Estamos vivendo uma simulação por computador?”


Philosophical Quarterly 53 (211): 243-255.
Chalmers, David John. 2010. "The Singularity: A Philosophical Analysis". Journal
of Consciousness Studies 17 (9-10): 7-65.

Driscoll, Kevin. 2012. “Code Critique: 'Altair Music of a Sort.'” Artigo apresentado
na Conferência Online do Grupo de Trabalho para Estudos sobre Código Crítico,
2012, 6 de fevereiro.

Elga, Adam. 2004. "Derrotando Dr. Evil com a crença de auto-localização".


Philosophy and Phenomenological Research 69 (2): 383-396.

Gates, Bill. 1975. “Anunciados os vencedores do concurso de software.” Notas


do computador 1 (2): 1.

Greene, Kate. 2012. “O pequeno chip Wi-Fi da Intel pode ter um grande impacto.”
MIT Technology Review, 21 de setembro.

Gunn, James E. 1982. Isaac Asimov: Os Fundamentos da Ficção Científica.


Escritores de ficção científica. Nova York: Oxford University Press.

Kamm, Frances M. 2007. Ética Intrincada: Direitos, Responsabilidades e Dano


Permissível. Série de ética de Oxford. Nova York: Oxford University Press.

Laffont, Jean-Jacques e Martimort, David. 2002. Theory of Incentives: The


Principal-Agent Model. Princeton, NJ: Princeton University Press.

Li, Ming e Vitanyi, Paul MB 2008. Uma introdução à complexidade de


Kolmogorov e sua aplicação. Textos em Ciência da Computação. Nova York:
Springer.

Quine, Willard Van Orman e Ullian, Joseph Silbert. 1978. The Web of Belief, ed.
Richard Malin Ohmann, vol. 2. Nova York: Random House.

Russell, Bertrand. 1986. "The Philosophy of Logical Atomism". Em The


Philosophy of Logical Atomism e Outros Ensaios 1914-1919, ed. John G. Slater,
8: 157-244. Os Documentos Coletados de Bertrand Russell. Boston: Allen e
Unwin.

Shulman, Carl. 2010. “Basic AI Drives” da Omohundro e riscos catastróficos. San


Francisco, CA: Instituto de Pesquisa em Inteligência de Máquinas.

Yudkowsky, Eliezer. 2002. "The AI-Box Experiment". Recuperado em 15 de


janeiro de 2012. Disponível em http://yudkowsky.net/singularity/aibox .
Parte V

Espaço e tempo

Trabalhos relacionados

Doze macacos interestelares Matadouro e cinco, todos os zumbis, a máquina do


tempo De volta ao futuro

Terra plana: um romance em muitas dimensões

24

Um som do trovão Ray Bradbury

333

25

Tempo

Theodore Sider

343

26

Os paradoxos da viagem no tempo David Lewis

357

27

A física quântica da viagem no tempo David Deutsch e Michael Lockwood

370

28.

Milagres e maravilhas: ficção científica como epistemologia Richard Hanley

384
Um som de trovão

Ray Bradbury

A placa na parede parecia tremer sob uma película de água quente deslizante.
Eckels sentiu as pálpebras piscarem por seu olhar, e o sinal ardeu nessa
escuridão momentânea:

TIME SAFARI, INC.

SAFARIS PARA QUALQUER ANO NO PASSADO.

VOCÊ NOMEIA O ANIMAL.

Nós levamos você para lá.

Você atira.

Fleuma quente se acumulou na garganta de Eckels; ele engoliu em seco e


empurrou-o para baixo. Os músculos em torno de sua boca formaram um sorriso
quando ele colocou a mão lentamente no ar, e nessa mão acenou um cheque
de dez mil dólares para o homem atrás da mesa.

"Este safari garante que eu volte vivo?"

"Não garantimos nada", disse o funcionário, "exceto os dinossauros." Ele se


virou. “Este é o Sr. Travis, seu Guia Safari no passado. Ele lhe dirá o que e onde
atirar. Se ele disser não atirar, não atirar. Se você desobedecer às instruções,
há uma multa severa de outros dez mil dólares, mais

possível ação governamental, no seu retorno. "

Eckels olhou através do vasto escritório para uma massa e um emaranhado, um


zunido e zumbido de fios e caixas de aço, para uma aurora que tremeluzia agora
laranja, agora prata, agora azul. Houve um som como uma fogueira gigantesca
queimando tudo

Detalhes da publicação original: "A Sound of Thunder", Ray Bradbury, da


Collier's Weekly ,

The Crowell-Collier Publishing Company, 1952, pp. 1-9.


Ficção científica e filosofia: da viagem no tempo à superinteligência , segunda
edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

do tempo, todos os anos e todos os calendários de pergaminho, todas as horas


empilhadas e incendiadas.

Um toque na mão e essa queimação, no instante, se reverteriam


maravilhosamente. Eckels lembrou a redação nos anúncios da carta. De carvão
e cinzas, de poeira e carvão, como salamandras douradas, os velhos anos, os
anos verdes, podem pular; rosas adoçam o ar, cabelos brancos ficam pretos
como irlandeses, rugas desaparecem; tudo, tudo voa de volta para a semente,
foge da morte, corre para o início, o sol se ergue no céu ocidental e se põe em
gloriosos suaves, luas se comem do lado oposto ao costume, tudo e tudo se
encaixa como caixas chinesas, coelhos em chapéus , tudo e tudo voltando à
nova morte, a morte da semente, a morte verde, ao tempo antes do início. Um
toque de uma mão pode fazê-lo, o mais simples toque de uma mão.

“Inacreditável.” Eckels respirou, a luz da Máquina em seu rosto magro. "Uma


verdadeira máquina do tempo." Ele balançou a cabeça. “Faz você pensar: se a
eleição tivesse sido ruim ontem, eu poderia estar aqui agora fugindo dos
resultados. Graças a Deus Keith venceu. Ele será um excelente presidente dos
Estados Unidos.

"Sim", disse o homem atrás da mesa. “Temos sorte. Se Deutscher tivesse


entrado, teríamos o pior tipo de ditadura. Existe um homem anti-tudo para você,
militarista, anticristo, anti-humano, anti-intelectual. As pessoas nos ligavam, você
sabe, brincando, mas não brincando. Disse que se Deutscher se tornou
presidente, eles queriam ir ao ar em 1492. É claro que não é da nossa conta
conduzir Escapes, mas formar Safaris. De qualquer forma, o presidente de Keith
agora. Tudo o que você precisa se preocupar é

"Atirando no meu dinossauro", Eckels terminou para ele.

“Um tiranossauro rex. O lagarto tirano, o monstro mais incrível da história. Assine
esta versão. Tudo acontece com você, não somos responsáveis. Esses
dinossauros estão com fome.

Eckels corou com raiva. "Tentando me assustar!"

Francamente, sim. Não queremos que ninguém entre em pânico no primeiro tiro.
Seis líderes do Safari foram mortos no ano passado e uma dúzia de caçadores.
Estamos aqui para lhe proporcionar a maior emoção que um caçador de verdade
já pediu. Viajando você de volta sessenta milhões de anos para conquistar o
maior jogo de todos os tempos. Seu cheque pessoal ainda está lá. Rasgue-o. O
Sr. Eckels olhou para o cheque. Os dedos dele se contraíram.

"Boa sorte", disse o homem atrás da mesa. "Sr. Travis, ele é todo seu.

Eles se moveram silenciosamente pela sala, levando suas armas com eles, em
direção à Máquina, em direção ao metal prateado e à luz que rugia.

Primeiro um dia e depois uma noite e depois um dia e depois uma noite, depois
era dia-noite-dia-noite. Uma semana, um mês, um ano, uma década! AD 2055.
AD 2019. 1999! 1957! Se foi! A Máquina rugiu.

Eles colocaram seus capacetes de oxigênio e testaram os interfones.

Eckels balançou no assento acolchoado, o rosto pálido, o queixo rígido. Ele


sentiu o tremor nos braços e olhou para baixo e encontrou as mãos apertadas
no novo rifle. Havia outros quatro homens na Máquina. Travis, o líder do Safari,
seu assistente, Lesperance, e outros dois caçadores, Billings e Kramer. Eles
ficaram olhando um para o outro, e os anos ardiam em torno deles.

“Essas armas podem resfriar um dinossauro?” Eckels sentiu sua boca dizendo.

"Se você acertar neles", disse Travis no rádio do capacete. “Alguns dinossauros
têm dois cérebros, um na cabeça e outro na coluna vertebral. Nós ficamos longe
deles. Isso está dando sorte. Coloque seus dois primeiros tiros nos olhos, se
puder, cegue-os e volte ao cérebro.

A Máquina uivou. O tempo era um filme atrasado. Sóis fugiram e dez milhões de
luas fugiram atrás deles. "Pense", disse Eckels. “Todo caçador que já viveu nos
invejaria hoje. Isso faz a África parecer Illinois. ”

A máquina diminuiu a velocidade; seu grito caiu em um murmúrio. A máquina


parou. O sol parou no céu.

O nevoeiro que envolvia a Máquina desapareceu e eles estavam em um tempo


antigo, muito antigo, de fato, três caçadores e dois Chefes de Safari com suas
armas de metal azul nos joelhos.

“Cristo ainda não nasceu”, disse Travis, “Moisés não foi às montanhas para
conversar com Deus. As pirâmides ainda estão na terra, esperando para serem
cortadas e acondicionadas. Lembre-se disso. Alexandre, César, Napoleão, Hitler
- nenhum deles existe. O homem assentiu.

"Isso" - apontou Travis - "é a selva de sessenta milhões, dois mil e cinquenta e
cinco anos antes do presidente Keith".
Ele indicou um caminho de metal que se espalhou pelo deserto verdejante, por
sobre o pântano, entre samambaias e palmeiras gigantes.

“E esse”, ele disse, “é o Caminho, estabelecido pelo Time Safari para seu uso.
Ele flutua seis polegadas acima da terra. Não toca nem uma lâmina de grama,
flor ou árvore. É um metal antigravitante. Seu objetivo é impedir que você toque
neste mundo do passado de qualquer maneira. Fique no caminho. Não saia
disso. Eu repito. Não saia. Por qualquer razão! Se você cair, há uma penalidade.
E não atire em nenhum animal que não esteja bem.

"Por quê?", Perguntou Eckels.

Eles se sentaram no deserto antigo. Gritos de pássaros distantes sopravam com


o vento, e o cheiro de alcatrão e um velho mar de sal, ervas úmidas e flores da
cor do sangue.

“Não queremos mudar o futuro. Nós não pertencemos aqui no passado. O


governo não gosta de nós aqui. Temos que pagar muito para manter nossa
franquia. Uma máquina do tempo é um negócio meticuloso. Sem saber,
podemos matar um animal importante, um pequeno pássaro, uma barata, uma
flor, destruindo assim um elo importante em uma espécie em crescimento. ”

"Isso não está claro", disse Eckels.

“Tudo bem”, continuou Travis, “diga que acidentalmente matamos um rato aqui.
Isso significa que todas as famílias futuras desse rato em particular são
destruídas, certo?

"Direito"

E todas as famílias das famílias daquele rato! Com um golpe no pé, você aniquila
primeiro, depois uma dúzia, depois mil, um milhão e um bilhão de ratos possíveis!

"Então eles estão mortos", disse Eckels. "E daí?"

Travis bufou baixinho. “Bem, e as raposas que precisam desses ratos para
sobreviver? Por falta de dez ratos, uma raposa morre. Por falta de dez raposas,
um leão morre de fome. Por falta de um leão, todos os tipos de insetos, abutres,
bilhões de formas de vida infinitas são jogados no caos e na destruição.
Eventualmente, tudo se resume a isso: cinquenta e nove milhões de anos depois,
um homem das cavernas, uma dúzia no mundo inteiro, vai caçar javalis ou tigres
com dentes de sabre em busca de comida. Mas você, amigo, pisou em todos os
tigres daquela região. Ao pisar em um único mouse. Então o homem das
cavernas passa fome. E o homem das cavernas, por favor note, não é apenas
um homem dispensável, não! Ele é uma nação futura inteira. De seus lombos
teriam nascido dez filhos. Dos seus lombos, cem filhos, e assim por diante, a
uma civilização. Destrua este homem e você destrói uma raça, um povo, uma
história inteira da vida. É comparável a matar alguns dos netos de Adam. O pisar
do seu pé, com um mouse, poderia causar um terremoto, cujos efeitos poderiam
abalar nossa terra e nossos destinos através do Tempo, até suas fundações.
Com a morte daquele homem das cavernas, um bilhão de outros ainda por
nascer são estrangulados no útero. Talvez Roma nunca suba nas suas sete
colinas. Talvez a Europa seja para sempre uma floresta sombria, e apenas a
Ásia fique saudável e cheia de vida. Pise no mouse e esmague as pirâmides.
Pise no mouse e deixe sua impressão, como um Grand Canyon, em toda a
Eternidade. A rainha Elizabeth pode nunca nascer, Washington pode não
atravessar o Delaware, talvez nunca haja Estados Unidos. Por isso tem cuidado.
Fique no caminho. Nunca saia!

"Entendo", disse Eckels. “Então não valeria a pena nem tocarmos na grama?”
“Correto. Esmagar certas plantas pode aumentar infinitesimalmente. Um
pequeno erro aqui se multiplicaria em sessenta milhões de anos, tudo fora de
proporção. Claro que talvez nossa teoria esteja errada. Talvez o tempo não
possa ser mudado por nós. Ou talvez possa ser alterado apenas de maneiras
sutis. Aqui, um rato morto causa um desequilíbrio de insetos, uma desproporção
da população mais tarde, uma colheita ruim ainda mais, uma depressão, fome
em massa e, finalmente, uma mudança no temperamento social em países
distantes. Algo muito mais sutil, assim. Talvez apenas uma respiração suave, um
sussurro, um cabelo, pólen no ar, uma mudança tão leve que, a menos que você
olhasse de perto, não o veria. Quem sabe? Quem realmente pode dizer que ele
sabe? Nós não sabemos. Estamos adivinhando. Mas até que tenhamos certeza
de que a nossa bagunça no Tempo pode fazer um grande rugido ou um pouco
de farfalhar na história, estamos sendo cuidadosos. Esta Máquina, este
Caminho, suas roupas e corpos, foram esterilizados, como você sabe, antes da
jornada. Usamos esses capacetes de oxigênio para que não possamos introduzir
nossas bactérias em uma atmosfera antiga. ”

"Como sabemos em quais animais atirar?"

"Eles estão marcados com tinta vermelha", disse Travis. Hoje, antes de nossa
jornada, enviamos a Lesperance aqui de volta com a Máquina. Ele chegou a
essa era em particular e seguiu certos animais. ”

"Estudando eles?"

"Certo", disse Lesperance. “Eu os acompanho por toda a sua existência,


observando qual deles vive mais tempo. Muito pouco. Quantas vezes eles
acasalam. Não frequente. A vida é curta. Quando encontro um que morrerá
quando uma árvore cair sobre ele ou um que se afoga em um poço de alcatrão,
observo a hora exata, o minuto e o segundo. Eu atiro uma bomba de tinta. Deixa
uma mancha vermelha do lado dele. Não podemos perder. Então correlato nossa
chegada ao passado para que encontremos o monstro não mais de dois minutos
antes que ele tivesse morrido de qualquer maneira. Dessa forma, matamos
apenas animais sem futuro, que nunca mais serão acasalados. Vê como somos
cuidadosos?

"Mas se você voltou esta manhã no Time", disse Eckels, ansioso, deve ter
esbarrado em nós, nosso Safari! Como ficou? Foi bem sucedido? Todos nós
passamos ... vivos?

Travis e Lesperance se entreolharam.

"Isso seria um paradoxo", disse o último. “O tempo não permite esse tipo de
confusão - um homem se encontrando. Quando tais ocasiões ameaçam, o
Tempo se afasta. Como um avião atingindo uma bolsa de ar. Você sentiu a
Máquina pular pouco antes de pararmos? Éramos nós passando no caminho de
volta para o futuro. Nós não vimos nada. Não há como saber se essa expedição
foi um sucesso, se conseguimos nosso monstro ou se todos nós, ou seja, você,
Sr. Eckels, saímos vivos.

Eckels sorriu palidamente.

"Corte isso", disse Travis bruscamente. "Todo mundo em pé!"

Eles estavam prontos para deixar a máquina.

A selva era alta e a selva era larga e a selva era o mundo inteiro para todo o
sempre. Soa como música e soa como tendas voadoras enchendo o céu, e
esses eram pterodácteis voando com asas cinzentas cavernosas, morcegos
gigantescos de delírio e febre noturna.

Eckels, equilibrado no caminho estreito, apontou seu rifle de brincadeira.

“Pare com isso!” Disse Travis. “Não tente nem se divertir, te exploda! Se suas
armas dispararem ...

Eckels corou. "Onde está o nosso tiranossauro?"

Lesperance checou o relógio de pulso. “À frente, dividiremos sua trilha em


sessenta segundos. Procure a tinta vermelha! Não atire até darmos a palavra.
Fique no caminho. Fique no caminho!

Eles avançaram no vento da manhã.

Estranho murmurou Eckels. “À frente, sessenta milhões de anos, o dia das


eleições acabou. Keith assumiu a presidência. Todo mundo comemorando. E
aqui estamos nós, um milhão de anos perdidos, e eles não existem. As coisas
com as quais nos preocupamos por meses, uma vida, nem sequer nascemos ou
pensamos ainda. ”

"Segurança cai, pessoal!" Ordenou Travis. - Você, primeiro tiro, Eckels.


Segundo, Billings, terceiro, Kramer.

"Eu caçava tigres, javalis, búfalos, elefantes, mas agora é isso", disse Eckels.
"Estou tremendo como uma criança."

"Ah", disse Travis.

Todo mundo parou.

Travis levantou a mão. "À frente", ele sussurrou. "Na névoa. Ali está ele. Aqui
está Sua Majestade Real agora.

A selva era ampla e cheia de gorjeios, farfalhar, murmúrios e suspiros.

De repente tudo cessou, como se alguém tivesse fechado uma porta.

Silêncio.

Um som de trovão.

Fora da névoa, a cem metros de distância, veio o Tiranossauro Rex.

"É", sussurrou Eckels. "Isto

"Sh!"

Ele veio em grandes pernas oleadas, resilientes e passantes. Ele se elevava a


dez metros acima da metade das árvores, um grande deus do mal, dobrando as
delicadas garras do relojoeiro perto do peito oleoso de réptil. Cada parte inferior
da perna era um pistão, mil libras de osso branco, afundado em cordas grossas
de músculo, envolto em um brilho de pele pedregosa como o correio de um
terrível guerreiro. Cada coxa era uma tonelada de carne, marfim e malha de aço.
E da grande gaiola respiratória da parte superior do corpo, aqueles dois braços
delicados balançavam na frente, braços com mãos que podiam captar e
examinar os homens como brinquedos, enquanto o pescoço da serpente se
enrolava. E a própria cabeça, uma tonelada de pedra esculpida, ergueu-se
facilmente sobre o céu. Sua boca ficou aberta, expondo uma cerca de dentes
como punhais. Seus olhos rolaram, ovos de avestruz, vazios de toda expressão,
exceto a fome. Fechou a boca em um sorriso mortal. Ele correu, seus ossos
pélvicos esmagando árvores e arbustos, seus pés com garras arranhando a terra
úmida, deixando impressões de quinze centímetros de profundidade onde quer
que assentasse seu peso.

Ele correu com um passo de balé planador, muito equilibrado e equilibrado para
suas dez toneladas. Ele se mudou para uma área iluminada pelo sol com cautela,
suas mãos maravilhosamente reptilianas sentindo o ar.

"Por que, por quê", Eckels torceu a boca. “Poderia alcançar e pegar o

lua."

"Sh!" Travis estremeceu com raiva. "Ele ainda não nos viu."

"Não pode ser morto", Eckels pronunciou esse veredicto em voz baixa, como se
não houvesse argumento. Ele pesara as evidências e essa era sua opinião
considerada. O rifle em suas mãos parecia uma arma de fogo. “Nós éramos tolos
por vir. Isto é impossível."

"Cala a boca!", Sussurrou Travis.

"Pesadelo."

"Vire-se", comandou Travis. “Caminhe em silêncio até a máquina. Bem

remeter metade da sua taxa. "

"Eu não sabia que seria tão grande", disse Eckels. “Eu calculei mal, só isso. E
agora eu quero sair.

"Ele nos vê!"

"Tem a tinta vermelha no peito!"

O Lagarto Tirano se levantou. Sua carne blindada brilhava como mil moedas
verdes. As moedas, cobertas de lodo, fumegavam. No lodo, pequenos insetos
se contorciam, de modo que o corpo inteiro parecia tremer e ondular, mesmo
enquanto o próprio monstro não se mexia. Exalou. O fedor de carne crua soprou
no deserto.

"Me tire daqui", disse Eckels. “Nunca foi assim antes. Eu sempre tive certeza de
que conseguiria sobreviver. Eu tinha bons guias, bons safaris e segurança. Desta
vez, eu pensei errado. Eu conheci minha partida e admito. Isso é demais para
eu me apossar.
"Não corra", disse Tesperance. "Inversão de marcha. Esconda-se na máquina.

"Sim". Eckels parecia estar entorpecido. Ele olhou para os pés como se tentasse
fazê-los se mover. Ele deu um grunhido de desamparo.

"Eckels!"

Ele deu alguns passos, piscando, embaralhando.

"Não dessa maneira!"

O Monstro, no primeiro movimento, avançou com um grito terrível. Cobriu cem


jardas em seis segundos. Os rifles se ergueram e arderam. Uma tempestade de
vento da boca da besta os envolveu no cheiro de lodo e sangue velho. O Monstro
rugiu, os dentes brilhando com o sol.

Os rifles estalaram de novo. O som deles se perdeu em gritos e trovões de


lagartos. O grande nível da cauda do réptil balançou, amarrado de lado. Árvores
explodiram em nuvens de folhas e galhos. O Monstro torceu as mãos do joalheiro
para acariciar os homens, torcê-los ao meio, esmagá-los como bagas, enfiá-los
nos dentes e na garganta gritante. Seus olhos de pedra nivelaram com os
homens. Eles se viram espelhados. Eles atiraram nas pálpebras metálicas e na
íris negra ardente,

Como um ídolo de pedra, como uma avalanche de montanha, o Tiranossauro


caiu.

Trovejando, ele agarrava árvores, puxava-as com ele. Ele arrancou e rasgou o
Caminho de metal. Os homens se jogaram para trás e para longe. O corpo bateu,
dez toneladas de carne fria e pedra. As armas dispararam. O Monstro golpeou
sua cauda blindada, contraiu suas mandíbulas de cobra e ficou imóvel. Uma
fonte de sangue jorrou de sua garganta. Em algum lugar lá dentro, um saco de
líquidos estourou. Jorro doentio encharcou os caçadores. Eles ficaram em pé,
vermelhos e brilhantes.

O trovão desapareceu.

A selva estava silenciosa. Após a avalanche, uma paz verde. Depois do


pesadelo, de manhã.

Billings e Kramer sentaram no caminho e vomitaram. Travis e Lesperance


estavam com fuzis fumegantes, xingando constantemente. Na Máquina do
Tempo, em seu rosto, Eckels estava tremendo. Ele encontrou o caminho de volta
ao Caminho, subiu na Máquina.
Travis veio andando, olhou para Eckels, pegou gaze de algodão de uma caixa
de metal e voltou para os outros, que estavam sentados no Caminho.

"Limpar."

Eles limparam o sangue dos capacetes. Eles começaram a xingar também. O


Monstro jazia, uma colina de carne sólida. Lá dentro, você podia ouvir os
suspiros e murmúrios quando as câmaras mais distantes morreram, os órgãos
funcionando mal, líquidos correndo um instante final do bolso ao saco e ao baço,
tudo se fechando, fechando-se para sempre. Era como estar ao lado de uma
locomotiva destruída ou de uma pá de vapor ao sair, todas as válvulas sendo
liberadas ou apertadas com força. Ossos rachados; a tonelagem de sua própria
carne, desequilibrada, peso morto, quebrou os delicados antebraços, presos por
baixo. A carne assentou, tremendo.

Outro som estridente. No alto, um galho de árvore gigantesco se soltou da


amarração pesada e caiu. Bateu na besta morta com finalidade.

- Pronto. Lesperance olhou o relógio. "Bem na hora. Essa é a árvore gigante que
estava programada para cair e matar esse animal originalmente. Ele olhou para
os dois caçadores. "Você quer a foto do troféu?"

"O que?"

“Não podemos levar um troféu de volta ao futuro. O corpo tem que ficar bem
aqui, onde teria morrido originalmente, para que os insetos, pássaros e bactérias
possam atingi-lo, como pretendiam. Tudo em equilíbrio. O corpo fica. Mas
podemos tirar uma foto sua parada perto dela.

Os dois homens tentaram pensar, mas desistiram, balançando a cabeça.

Eles se deixaram levar pelo Caminho de metal. Afundaram-se cansados nas


almofadas da Máquina. Eles olharam de volta para o Monstro em ruínas, o monte
estagnado, onde pássaros reptilianos e insetos dourados já estavam ocupados
na armadura fumegante. Um som no chão da Time Machine os enrijeceu. Eckels
ficou lá, tremendo.

"Sinto muito", ele disse finalmente.

"Levante-se!", Exclamou Travis.

Eckels se levantou.

"Saia por esse caminho sozinho", disse Travis. Ele apontou o rifle: - Você não
vai voltar para a máquina. Estamos deixando você aqui!
Lesperance agarrou o braço de Travis. "Esperar

“Fique fora disso! '' Travis apertou a mão dele. “Esse tolo quase nos matou. Mas
não é tanto assim, não. São os sapatos dele! Olhe para eles! Ele saiu correndo
do caminho. Isso nos arruina! Vamos perder! Milhares de dólares em seguros!
Garantimos que ninguém sai do caminho. Ele deixou isso. Oh, o tolo! Vou ter
que me reportar ao governo. Eles podem revogar nossa licença para viajar.
Quem sabe o que fez com o Time, com a História!

"Vá com calma, tudo o que ele fez foi levantar um pouco de terra."

"Como sabemos?", Exclamou Travis. “Nós não sabemos nada! É tudo um


mistério! Saia daqui, Eckels!

Eckels remexeu na camisa. “Eu pago qualquer coisa. Cem mil dólares!

Travis olhou para o talão de cheques de Eckels e cuspiu. “Vá lá fora. O monstro
está próximo ao caminho. Coloque os braços até os cotovelos na boca dele.
Então você pode voltar conosco.

"Isso é irracional!"

“O monstro está morto, seu idiota. As balas! As balas não podem ser deixadas
para trás. Eles não pertencem ao passado; eles podem mudar qualquer coisa.
Aqui está minha faca. Desenterre-os! "

A selva estava viva novamente, cheia de velhos tremores e gritos de pássaros.


Eckels virou-se lentamente para encarar o depósito de lixo primitivo, aquela
colina de pesadelos e terror. Depois de um longo tempo, como um sonâmbulo,
ele se arrastou pelo Caminho.

Ele voltou, estremecendo, cinco minutos depois, com os braços ensopados e


vermelhos até os cotovelos. Ele estendeu as mãos. Cada um continha várias
balas de aço. Então ele caiu. Ele ficou deitado onde caiu, sem se mexer.

"Você não precisava fazê-lo fazer isso", disse Lesperance.

“Eu não? É muito cedo para dizer. Travis cutucou o corpo imóvel. Ele vai viver.
Da próxima vez, ele não vai caçar um jogo como esse. Ok. - Ele apontou o
polegar, cansado, para Lesperance. "Ligar. Vamos para casa.

1492. 1776. 1812.


Eles limparam as mãos e os rostos. Eles trocaram suas camisas e calças de
gaze. Eckels estava de pé e de novo, sem falar. Travis olhou para ele por dez
minutos completos.

"Não olhe para mim", exclamou Eckels. "Eu não fiz nada."

"Quem pode dizer?"

"Apenas fugi do caminho, só isso, um pouco de lama nos meus sapatos - o que
você quer que eu faça - desça e reze?"

“Podemos precisar disso. Estou avisando você, Eckels, posso te matar ainda. Eu
tenho minha arma pronta.

"Eu sou inocente. Eu não fiz nada!

1999.2000.2055.

A máquina parou.

"Saia", disse Travis.

A sala estava lá como eles haviam deixado. Mas não é o mesmo que eles
deixaram. O mesmo homem estava sentado atrás da mesma mesa. Mas o
mesmo homem não se sentou atrás da mesma mesa. Travis olhou em volta
rapidamente. "Está tudo bem aqui?" Ele retrucou.

"Bem. Bem-vindo a casa!"

Travis não relaxou. Ele parecia estar olhando pela janela alta.

“Ok, Eckels, saia. Nunca mais volte. Eckels não conseguiu se mexer.

"Você me ouviu", disse Travis. "O que você está olhando?"

Eckels estava com cheiro de ar, e havia uma coisa no ar, uma mancha química
tão sutil, tão leve, que apenas um leve grito de seus sentidos subliminares o
alertou de que estava ali. As cores branca, cinza, azul, laranja, na parede, nos
móveis, no céu além da janela, eram ... eram. ... E houve uma sensação. Sua
carne se contraiu. Suas mãos tremeram. Ele ficou bebendo a estranheza com
os poros do corpo. Em algum lugar, alguém deve estar gritando um daqueles
assobios que apenas um cachorro pode ouvir. Seu corpo gritou silêncio em troca.
Além desta sala, além desse muro, além daquele homem que não era
exatamente o mesmo homem sentado naquela mesa que não era exatamente a
mesma mesa ... havia um mundo inteiro de ruas e pessoas. Que tipo de mundo
era agora, não havia como dizer. Ele podia senti-los se movendo ali, além dos
muros, quase, como tantas peças de xadrez sopradas pelo vento seco. ...

Mas o imediato foi a placa pintada na parede do escritório, a mesma placa que
ele havia lido hoje, ao entrar pela primeira vez. De alguma forma, o sinal mudou:

TYME SEFARI INC.

SEFARIS TU QUALQUER ANO NO PASSADO.

YU NAIM O ANIMAL.

WEE TAEK YU THAIR.

Você atirou nele.

Eckels sentiu-se cair em uma cadeira. Ele se atrapalhou loucamente com a


gosma grossa em suas botas. Ele levantou um torrão de terra, tremendo. - Não,
não pode ser. Não é uma coisinha assim. Não!"

Embutida na lama, brilhando em verde, dourado e preto, havia uma borboleta


muito bonita e muito morta.

“Não é uma coisinha assim! Não é uma borboleta! - exclamou Eckels.

Ele caiu no chão, uma coisa requintada, uma coisa pequena que poderia
perturbar os equilíbrios e derrubar uma linha de pequenos dominós, depois
grandes dominós e depois gigantescos dominós, ao longo dos anos ao longo do
tempo. A mente de Eckels girou. Não poderia mudar as coisas. Matar uma
borboleta não poderia ser tão importante! Poderia?

O rosto dele estava frio. Sua boca tremia, perguntando: "Quem - quem venceu a
eleição presidencial ontem?"

O homem atrás da mesa riu. "Você está brincando? Você sabe muito bem.
Deutscher, é claro! Quem mais? Não aquele idiota do Keith. Agora temos um
homem de ferro, um homem com coragem! O oficial parou. "O que há de
errado?"

Eckels gemeu. Ele caiu de joelhos. Ele arranhou a borboleta dourada com dedos
trêmulos. “Não podemos”, ele implorou ao mundo, a si mesmo, aos oficiais, à
Máquina, “não podemos voltar atrás, não podemos reviver? Não podemos
começar de novo? Não podemos
Ele não se mexeu. Olhos fechados, ele esperou, tremendo. Ele ouviu Travis
respirar alto na sala; ele ouviu Travis mexer o rifle, clicar na trava de segurança
e levantar a arma.

Houve um som de trovão.

Tempo

Theodore Sider

O Fluxo do Tempo

É estranho questionar a natureza do tempo, dado o tempo fundamental para


nossa experiência. Quando criança, eu me perguntava se os peixes têm
consciência da água ou se a experimentam inconscientemente, à medida que
experimentamos o ar que respiramos. O tempo é ainda mais onipresente que a
água ou o ar: todo pensamento e experiência acontecem no tempo. Questionar
a natureza do tempo pode ser estonteante.

No entanto, vale a pena questionar. A concepção comum do tempo, uma vez


que você começa a pensar sobre isso, parece não fazer sentido! Pois
normalmente concebemos o tempo como algo que se move. “O tempo corre
como um rio.” “O tempo passa.” “O tempo passa.” “Com o passar do tempo.” “O
passado se foi.” “O tempo não espera por ninguém.” “O tempo parou.” Esses
clichês capturam como tendemos a pensar sobre o tempo. O tempo se move e
somos apanhados em seu fluxo inexorável. O problema com esse modo de
pensar é que o tempo é o padrão pelo qual o movimento é definido; como então
o próprio tempo poderia se mover? Isso é metafísica no seu melhor. Olhe o
mundo com bastante força, e até as coisas mais mundanas são reveladas como
misteriosas e maravilhosas.

Vamos examinar essa idéia do movimento do tempo, ou fluxo, com mais cuidado,
comparando-a ao movimento de objetos comuns. O que significa dizer que um
trem se move? Simplesmente o trem está localizado em um local em um
momento e em outros locais em momentos posteriores (veja a Figura 25.1). No
momento t x , o trem está em Boston. Na tarde vezes t 2 , t 3 , e t 4 , o trem está
localizado em lugares

Detalhes da publicação original: "Time", Theodore Sider, de Riddles of Existence,


Conee and Sider, Oxford University Press, 2008, pp. 44-61. Com permissão da
Oxford University Press.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.
© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Boston

Nova york

Filadélfia

Washington

£3

Boston

Nova york

Filadélfia

Washington

Boston

Nova york

Filadélfia
Washington

Boston

Nova york

Filadélfia

Washington

Figura 25.1

O movimento de um

trem definido por referência ao tempo

mais ao sul: Nova York, Filadélfia e, finalmente, Washington. O movimento do


trem é definido por referência ao tempo: o trem se move estando localizado em
lugares diferentes e em momentos diferentes. Se a cada momento o trem
permanecesse no mesmo lugar - digamos, Boston -, diríamos que o trem não se
mexia.

Objetos comuns se movem com relação ao tempo. Portanto, se o próprio tempo


se move, ele deve se mover em relação a algum outro tipo de tempo. Mas o que
seria essa outra hora?

Vamos investigar isso com mais cuidado. A maneira pela qual o tempo parece
se mover é pelo momento atual . Inicialmente, o momento atual é meio-dia. Mais
tarde, o presente é 15:00. Ainda mais tarde, são 18:00, e depois 21:00, e assim
por diante. Como o movimento é definido por referência ao tempo, o momento
presente, se estiver em movimento, deve ter esses quatro locais diferentes em
quatro momentos diferentes, t> f ,, t, ef 4 , assim como o trem em movimento
tinha quatro locais diferentes em quatro momentos diferentes (Figura 25.2). Mas
o diagrama é confuso. Ele menciona o meio-dia de vezes, 3,00, 6,00 e 9,00, mas
também menciona outras quatro vezes, t> f ,, t., E t 4 . Estes são os momentos
em que o momento presente está se movendo. Quais são esses outros tempos?
Em que tipo de tempo o próprio tempo se move?

Uma possibilidade é que t> f ,, t., E f 4 são parte de um diferente tipo de tempo,
chamá-lo de “hipertempo”. Assim como os trens se movem em relação a outra
coisa (tempo), o próprio tempo se move em relação a outra coisa (hipertensão).
A maioria dos movimentos ocorre em relação à linha do tempo familiar, mas o
próprio tempo se move em relação a outra linha do tempo, o hipertime.

Meio-dia

3,00

Presente

6,00

9,00

Meio-dia

3,00

6,00

9,00

Presente

Meio-dia

3,00

6,00

9,00
Presente

Meio-dia

3,00

6,00

9,00

Figura 25.2 O movimento do momento presente

Hypertime é uma má ideia. Você não pode simplesmente parar por aí; você
precisa de mais e mais e mais. Supõe-se que o hipertime seja uma espécie de
tempo. Portanto, se o tempo comum se move, certamente o hipertime também
se move. Portanto, o hiperitempo deve se mover em relação a outro tipo de
tempo, o hiperitérmico. Esse tempo também deve se mover, o que introduz um
tempo hiper-hiper-hiper. E assim por diante. Estamos presos a acreditar em uma
série infinita de diferentes tipos de tempo. Isso é um pouco demais. Não posso
provar que essa série infinita não exista, mas certamente existem melhores
opções. Vamos ver se fizemos uma curva errada em algum lugar.

Em vez de fazer parte do hipertempo, talvez t v f 2 , f 3 e t A façam parte do


tempo comum. Em particular, t v f ,,? 3 e t 4 podem ser apenas o meio-dia, 3,00,
6,00 e 9,00. De acordo com essa visão, o tempo se move em relação a si mesmo.
Isso é plausível?

Embora seja bom se livrar do hipermétimo, há algo de estranho nessa imagem.


Não é que não seja verdade. O meio-dia está realmente presente ao meio-dia,
3.00 está presente às 3.00 e assim por diante. Mas esses fatos parecem triviais
e , portanto, insuficientes para capturar um genuíno fluxo de tempo. Isso pode
ser demonstrado comparando tempo e espaço e comparando o presente até
aqui. Considere os locais espaciais na linha de trem que liga Boston a
Washington. Qualquer pessoa em Boston pode dizer verdadeiramente "Boston
está aqui". Da mesma forma, qualquer pessoa em Nova York pode dizer "Nova
York está aqui". O mesmo vale para a Filadélfia e Washington. Então Boston
está “aqui em Boston”, Nova York está “aqui em Nova York”, e assim por diante,
assim como o meio-dia está presente ao meio-dia, 3.00 está presente às 3.00 e
assim por diante. Mas o espaço não se move. A linha no espaço que liga Boston
a Washington é estática. O simples fato de os membros de uma série estarem
localizados

não faz com que essa série se mova, se ela consiste em pontos de tempo ou
locais no espaço.

A teoria do espaço-tempo

O movimento do tempo nos enreda em todos nós. Talvez o problema esteja com
essa ideia em si. Segundo alguns filósofos e cientistas, nossa concepção comum
do tempo como um rio que flui é irremediavelmente confusa e deve ser
substituída pela teoria do espaço-tempo, segundo a qual o tempo é como o
espaço.

Os gráficos de movimento da física do ensino médio representam o tempo


apenas como outra dimensão, além das dimensões espaciais. O gráfico
mostrado aqui (Figura 25.3) representa uma partícula que se move através do
tempo em uma dimensão espacial. Essa partícula começa no lugar 2 no espaço
no tempo inicial 1, depois se move em direção ao lugar 3, diminui a velocidade
e para no tempo 2 e, finalmente, volta ao lugar 2 no tempo 3. Cada ponto desse
gráfico bidimensional representa um tempo t (a coordenada horizontal do ponto)
e um local no espaço p (a coordenada vertical). A curva desenhada representa
o movimento da partícula. Quando a curva passa por um ponto (t, p), isso
significa que a partícula está localizada no local p no tempo t.

Um gráfico mais complicado (Figura 25.4) representa o tempo ao lado de duas


dimensões espaciais. (Seria bom representar todas as três dimensões espaciais,
mas isso exigiria um gráfico quadridimensional e, portanto, um livro muito mais
caro.) Esses gráficos mais complicados são chamados de diagramas de espaço-
tempo. (Mesmo o gráfico de física do ensino médio é um tipo mais simples de
diagrama do espaço-tempo.) Os diagramas de espaço-tempo podem ser usados
para representar toda a história; tudo o que já aconteceu ou acontecerá pode se
encaixar em um diagrama do espaço-tempo em algum lugar. Este diagrama em
particular representa um dinossauro no passado distante e uma pessoa que
nasceu em 2000 dC . Esses objetos se estendem

horizontalmente no gráfico porque na realidade perduram com o tempo e o


tempo é o eixo horizontal no gráfico: os objetos existem em pontos diferentes ao
longo do eixo de tempo horizontal. Elas se estendem nas outras duas dimensões
do gráfico, porque dinossauros e pessoas ocupam espaço na realidade: os
objetos existem em pontos diferentes ao longo dos eixos verticais e espaciais.

Além do dinossauro e da própria pessoa, algumas de suas partes temporais


também são representadas no diagrama. Uma parte temporal de um objeto por
vez é uma seção temporal desse objeto; é esse objeto naquele momento.
Considere a parte temporal da pessoa em 2000.
- ^ Este objeto tem exatamente o mesmo tamanho espacial que a pessoa em
2000. Mas a parte temporal não tem o mesmo tamanho temporal que a pessoa;
a parte temporal existe apenas em 2000, enquanto a pessoa existe em épocas
posteriores. A própria pessoa é a soma total de todas as suas partes temporais:

£ \ "^ Observe como a pessoa é cônico:. As partes temporais anteriores (aqueles


no lado esquerdo do diagrama) são menores do que os posteriores Isso
representa um crescimento da pessoa ao longo do tempo.

Em contraste com a concepção comum de mover ou fluir o tempo, a teoria do


espaço-tempo diz que a realidade consiste em um único espaço-tempo
unificado, que contém todo o passado, presente e futuro. O tempo é apenas uma
das dimensões do espaço-tempo, juntamente com as três dimensões espaciais,
exatamente como parece nos diagramas de espaço-tempo. O tempo não flui; o
tempo é como o espaço.

Bem, o tempo não é completamente como o espaço. Por um lado, existem três
dimensões espaciais, mas apenas uma dimensão temporal. E o tempo tem uma
direção especial : passado para o futuro. O espaço não tem essa direção. Temos
palavras para certas direções espaciais: cima, baixo, norte, sul, leste, oeste,
esquerda, direita.

Mas essas não são direções construídas no próprio espaço. Em vez disso, essas
palavras escolhem direções diferentes, dependendo de quem as diz. "Para cima"
significa afastar-se do centro da Terra em uma linha que passa pelo alto-falante;
"Norte" significa em direção ao polo do Ártico a partir do alto-falante; “Esquerda”
seleciona direções diferentes, dependendo de como o orador está voltado. Por
outro lado, a direção do passado para o futuro é a mesma para todos,
independentemente de sua localização ou orientação; parece ser uma
característica intrínseca do próprio tempo.

Ainda assim, de acordo com a teoria do espaço-tempo, tempo e espaço são


análogos de várias maneiras. Aqui estão três.

Primeiro, em termos de realidade. Objetos distantes no espaço (outros planetas,


estrelas etc.) são obviamente tão reais quanto as coisas aqui na Terra. Podemos
não saber tanto sobre os objetos distantes quanto sabemos sobre as coisas por
aqui, mas isso não torna os objetos distantes menos reais. Da mesma forma,
objetos distantes no tempo são tão reais quanto objetos que existem agora.
Objetos passados (por exemplo, dinossauros) e objetos futuros (postos humanos
em Marte, talvez) existem, além de objetos no presente. Objetos distantes, seja
temporal ou espacialmente distantes, todos existem em algum lugar no espaço-
tempo.

Segundo, em termos de partes. Objetos materiais ocupam espaço com partes


diferentes. Meu corpo ocupa uma certa região do espaço. Parte desta região é
ocupada pela minha cabeça, outra pelo meu torso; outras partes da região são
ocupadas por meus braços e pernas. Essas partes podem ser chamadas de
minhas partes espaciais, pois são espacialmente menores do que eu. O fato
correspondente sobre o tempo é que um objeto dura um longo período de tempo,
tendo diferentes partes localizadas nos diferentes momentos desse período.
Essas partes são as partes temporais mencionadas acima. Essas partes
temporais são objetos tão reais quanto minhas partes espaciais: minha cabeça,
braços e pernas.

Terceiro, em termos de aqui e agora. Se eu disser ao telefone “aqui está


chovendo” para uma amiga na Califórnia, e ela responder “aqui está ensolarado”
(Figura 25.5),

qual de nós está certo? Onde está o verdadeiro aqui , Califórnia ou Nova Jersey?
A questão é obviamente equivocada. Não há "real aqui". A palavra "aqui" se
refere apenas ao local onde a pessoa está dizendo que está. Quando eu digo
“aqui”, isso significa New Jersey; quando meu amigo diz "aqui", significa
Califórnia. Nenhum lugar está aqui em nenhum sentido objetivo. A Califórnia está
aqui para o meu amigo, Nova Jersey está aqui para mim. A teoria do espaço-
tempo diz algo análogo sobre o tempo: assim como não há objetivo aqui, também
não há objetivo agora. Se eu disser “agora é 2005”, e em 1606 Guy Fawkes disse
“agora é 1606”, cada afirmação está correta (Figura 25.6). Não existe um único,
real e objetivo "agora". A palavra "agora" refere-se apenas à hora em que o
falante está localizado.

Argumentos contra a teoria do espaço-tempo: mudança,

Movimento, Causas

Nós conhecemos duas teorias do tempo. Que é verdade? O tempo flui? Ou o


tempo é como o espaço?

A teoria do espaço-tempo evita os paradoxos do fluxo do tempo; isso conta a


seu favor. Mas o crente no fluxo do tempo responderá que a teoria do espaço-
tempo joga o bebê fora com a água do banho: torna o tempo muito parecido com
o espaço.

Para começar, ela pode dizer que as supostas analogias entre espaço e tempo
sugeridas na última seção não são realmente verdadeiras:

Objetos passados e futuros não existem: o passado se foi e o futuro ainda está
por vir. As coisas não têm partes temporais: a qualquer momento, todo o objeto
está presente, não apenas uma parte temporal dele; não há bits passados ou
futuros deixados de fora. E "agora" não é como "aqui": o momento presente é
especial, diferente do pouco espaço aqui.
Cada uma dessas reivindicações poderia ocupar um capítulo inteiro próprio. Mas
o tempo é curto, então vamos considerar três outras maneiras pelas quais o
defensor do fluxo do tempo pode argumentar que o tempo não é como o espaço.
Primeiro, em relação à mudança:

Compare a mudança com o que poderíamos chamar de "heterogeneidade


espacial". Mudança é ter propriedades diferentes em momentos diferentes. Uma
pessoa que muda de altura começa curta e depois se torna mais alta. A
heterogeneidade espacial, em contraste, está tendo propriedades diferentes em
lugares diferentes . Uma estrada é irregular em alguns lugares, suave em outros;
estreito em alguns lugares, largo em outros. Como, se o tempo é como o espaço,
ter propriedades diferentes em momentos diferentes (mudança) não é diferente
de ter propriedades diferentes em lugares diferentes (heterogeneidade espacial).
Olhe para o diagrama do espaço-tempo. Mudança é variação da esquerda para
a direita no diagrama, ao longo do eixo temporal. Heterogeneidade espacial é
variação ao longo de qualquer uma das duas dimensões espaciais. Os dois são
análogos, de acordo com a teoria do espaço-tempo. Mas isso não está certo! A
heterogeneidade espacial é totalmente diferente da mudança. A estrada
espacialmente heterogênea não muda. Apenas fica lá.

Segundo, em relação à moção:

As coisas podem se mover de qualquer maneira no espaço; não há uma direção


específica na qual eles são obrigados a viajar, mas o mesmo não ocorre no
tempo. Mover para frente e para trás no tempo não faz sentido. As coisas só
podem avançar no tempo.

Terceiro, em relação às causas:

Eventos em qualquer lugar podem causar eventos em qualquer outro lugar;


podemos afetar o que acontece em qualquer região do espaço. Mas eventos não
podem causar eventos em nenhum outro momento: eventos posteriores nunca
causam eventos anteriores. Embora possamos afetar o futuro, não podemos
afetar o passado. O passado está fixo.

A primeira objeção é certa: a teoria do espaço-tempo faz mudanças um pouco


semelhantes à heterogeneidade espacial. Mas e daí? Eles não são exatamente
iguais: um é variação ao longo do tempo, o outro é variação ao longo do espaço.
E a afirmação de que mudança e heterogeneidade espacial são algo
semelhantes é perfeitamente razoável. Portanto, a primeira objeção pode ser
totalmente rejeitada.

A segunda objeção é mais complicada. “As coisas se movem para frente e para
trás no espaço, mas não para frente e para trás no tempo” - isso é realmente
uma desanalogia entre tempo e espaço? Suponha que queremos saber, para
uma certa afirmação verdadeira sobre o espaço, se a afirmação análoga é
verdadeira para o tempo. O filósofo americano do século XX Richard Taylor
argumentou que devemos ter cuidado para construir uma afirmação sobre o
tempo que seja realmente análoga à afirmação sobre o espaço. Em particular,
devemos reverter uniformemente TODAS as referências ao tempo e ao espaço
para obter a afirmação análoga. E quando o fizermos, argumentou Taylor,
veremos que o tempo e o espaço são mais análogos do que pareciam
inicialmente.

Ilustrar. Nossa verdadeira afirmação sobre o espaço é esta:

Algum objeto se move para frente e para trás no espaço.

Antes de podermos reverter as referências de tempo e espaço nesta declaração,


precisamos localizar todas essas referências, incluindo as que não são
completamente explícitas. Por exemplo, a palavra "move" esconde uma
referência ao tempo. Quando essas referências são explicitadas, nossa
declaração se torna:

Movendo-se para trás e para a frente no espaço: Alguns objecto é em espacial


ponto p l no tempo t p ponto p 2 no tempo t 2 , e do ponto p 1 no tempo t y

(Veja a Figura 25.7.) Agora estamos em posição de construir a afirmação


análoga sobre o tempo - para reverter todas as referências ao tempo e ao
espaço. Para fazer isso, simplesmente mudamos cada referência a um tempo
para uma referência a um ponto no espaço e cada referência a um ponto no
espaço em uma referência a um tempo. Isto é o que obtemos:

Movendo-se para frente e para trás no tempo: algum objeto está no tempo f, no
ponto espacial p v tempo t 2 no ponto p 2 e no tempo t 2 no ponto p r

E obtemos o gráfico para esta nova declaração (Figura 25.8) trocando os rótulos
"Tempo" e "Espaço" na Figura 25.7.

Nossa pergunta agora é: esta segunda afirmação está correta? Um objeto pode
"ir e voltar no tempo" nesse sentido? A resposta é de fato sim, por uma razão
bastante monótona. Para facilitar a visualização, vamos fazer com que o gráfico
“movendo-se para frente e para trás no tempo” pareça com nossos diagramas
anteriores, invertendo-o para que seu eixo temporal seja horizontal (veja a Figura
25.9). Deve ficar claro que o diagrama representa um objeto que é primeiro, em
t v, localizado em dois lugares, pj ep 3 , e então, em f 2 , está localizado em
apenas um lugar, p r Isso soa mais estranho do que realmente é . Pense em um
par de mãos batendo palmas. A princípio, as duas mãos são separadas - uma
está localizada no lugar p ,, a outra na p 3 . Então as mãos se movem uma em
direção à outra e fazem contato. O par de mãos agora está localizado em
coloque p. Finalmente, suponha que o par de mãos desapareça no momento t ,.
Esse tipo de cenário é o que o diagrama está representando.

Assim, as coisas podem "ir e voltar no tempo", se essa afirmação for entendida
como sendo verdadeiramente análoga a "ir e voltar no espaço". Fomos
enganados a pensar de outra maneira, negligenciando reverter todas as
referências ao tempo e ao espaço. A afirmação “as coisas se movem para frente
e para trás no espaço” contém uma dimensão de referência implícita , ou seja, o
tempo, pois é com relação ao tempo que as coisas se movem no espaço.
Quando construímos a afirmação “as coisas se movem para frente e para trás
no tempo”, devemos mudar a dimensão de referência do tempo para o espaço.
Quando o fazemos, a afirmação resultante é algo que pode realmente ser
verdadeiro.

A terceira objeção é a mais desafiadora e interessante. É verdade que na


verdade não observamos “causação reversa”, ou seja, a causação de eventos
anteriores por eventos posteriores. Isso representa uma assimetria de fato entre
espaço e tempo - uma assimetria no mundo como ele realmente é. Mas uma
questão mais profunda é se essa assimetria está embutida na natureza do tempo
em si ou se é apenas uma função da maneira como o mundo acontece. A
questão é: poderia haver uma causa inversa? Nossas ações agora poderiam
afetar causalmente o passado?

Se o tempo é realmente como o espaço, a resposta deve ser sim. Assim como
os eventos podem causar eventos em qualquer outro lugar do espaço, também
os eventos podem, em princípio, causar outros eventos em qualquer lugar do
tempo, mesmo em épocas anteriores. Mas isso tem uma consequência muito
marcante. Se a causação inversa é possível, a viagem no tempo, como retratada
em livros e filmes, também deveria ser possível, pois deveria ser possível fazer
com que estivéssemos presentes no passado.

A viagem no tempo pode nunca ocorrer de fato . Talvez a viagem no tempo nunca
seja tecnologicamente viável, ou talvez as leis da física impeçam a viagem no
tempo. A filosofia não pode resolver questões sobre física ou tecnologia; para
especulações sobre tais assuntos, um guia melhor é o seu físico ou engenheiro
amigável da vizinhança. Mas se o tempo é como o espaço, não deve haver
proibição vinda do próprio conceito de tempo, a viagem no tempo deve ser pelo
menos conceitualmente possível. Mas é isso?

Um tipo familiar de história de viagem no tempo começa da seguinte forma: "Em


1985, Marty McFly entra em uma máquina do tempo, define os controles para
1955, aperta o botão, espera e chega em 1955 ..." Qualquer história de viagem
no tempo deve conter esta muito: o uso de algum tipo de dispositivo de viagem
no tempo e a subsequente chegada ao passado. Mas até isso parece ocultar
uma contradição. A parte problemática é o fim: "e depois chega em 1955". A
sugestão é que o McFly aperte o botão primeiro e depois chegue em 1955. Mas
ele aperta o botão em 1985, que é depois de 1955.

Este é um exemplo do chamado paradoxo da viagem no tempo. Tentamos contar


uma história coerente envolvendo viagens no tempo, mas acabamos se
contradizendo. Dizer que o McFly chega em 1955 depois e antes de apertar o
botão está se contradizendo. E se não há como contar uma história de viagem
no tempo sem autocontradição, a viagem no tempo é conceitualmente
impossível.

Este primeiro paradoxo pode ser evitado. A chegada é anterior ou anterior ao


pressionamento do botão? Antes - 1955 é antes de 1985. E quanto a "e então"?
Bem, tudo o que isso significa é que o McFly experimenta a chegada depois de
pressionar o botão. Pessoas normais (viajantes que não são do tempo)
experimentam eventos como ocorrendo na ordem em que realmente ocorrem,
enquanto que os viajantes do tempo experimentam coisas fora de ordem. Na
sequência das experiências do McFly, 1985 vem antes de 1955. É algo muito
estranho, com certeza, mas não parece conceitualmente incoerente. (O que
determina a ordem das experiências do McFly? Os membros posteriores da
sequência de suas experiências contêm lembranças e são causados por
membros anteriores da sequência. Quando McFly experimenta 1955, ele tem
lembranças de 1985, e suas experiências de 1985 afetam diretamente
causalmente suas experiências de 1955.)

Ainda existe um paradoxo mais potente. Vamos continuar a história de De Volta


para o Futuro: “Em 1955, o arrojado McFly inadvertidamente atrai sua mãe,
ofuscando seu pai nerd. À medida que a união de seus pais se torna cada vez
menos provável, o McFly começa a desaparecer no nada. ”O problema é que um
viajante do tempo pode minar sua própria existência. Fie poderia fazer com que
seus pais nunca se encontrassem; ele poderia até matá-los antes de nascer.
Mas então de onde ele veio? De volta ao paradoxo!

O fato de o McFly começar a desaparecer no nada mostra que os escritores de


Back to the Future estavam cientes do problema. Mas o desaparecimento não
resolve nada. Suponha que o McFly desapareça completamente depois de
impedir que seus pais se encontrem. Ele ainda existia antes de desaparecer
(afinal, foi ele quem impediu que seus pais se encontrassem). De onde ele veio
em primeiro lugar? Quaisquer que sejam seus méritos literários, como obra de
filosofia Back to the Future falha miseravelmente.

Não sejamos muito duros com roteiristas e autores descuidados. (Nem todos
podemos ser filósofos.) Embora não seja fácil, histórias de viagens no tempo
sem paradoxos podem ser contadas. O filme Terminator é um excelente exemplo
(incluindo spoilers): 1

No futuro, as máquinas dominam o mundo e quase destroem a raça humana.


Mas as máquinas acabam sendo frustradas pelo líder humano John Connor. À
beira da derrota, as máquinas revidam enviando uma máquina, um "Terminator",
de volta ao passado para matar a mãe de John Connor, Sarah Connor, antes de
John nascer. John Connor rebate enviando um de seus homens, Kyle Reese, de
volta ao passado para proteger Sarah Connor. O Exterminador do Sucesso
quase consegue, mas no final Reese o impede. (Reese morre, mas não antes
de engravidar a mãe de Connor, Sarah Connor. O bebê, mais tarde aprendemos,
cresce e se torna o próprio John Connor!)

Essa história nunca se contradiz. Seria se o Exterminador do Futuro matasse


Sarah Connor, já que nos é dito no início da história que Sarah Connor viveu e
teve um filho, John Connor, cujas futuras explorações são a causa da presença
do Exterminador no passado. Mas desde que Sarah Connor sobrevive, a história
permanece consistente.

O fracasso de algumas histórias de viagens no tempo (como De volta ao futuro)


em permanecer consistente não mostra nada, uma vez que outras histórias
consistentes podem ser contadas. A semelhança de tempo e espaço sobreviveu:
não há impossibilidade conceitual com causalidade inversa e viagem no tempo.

Existem inúmeras chamadas fechadas no Terminator. Uma e outra vez, Sarah


Connor escapa por pouco da morte. Parece que em qualquer uma dessas
ocasiões, ela poderia ter morrido facilmente. No entanto, sabemos que ela deve
sobreviver, porque seu filho é John Connor. Então parece que ela não está
realmente em perigo; ela não pode morrer. Mas há o Exterminador na frente
dela. O perigo parece muito real. De volta ao paradoxo?

De modo nenhum. O que é estranho em uma história de viagem no tempo é que


nos é dito primeiro o final da história. Nós, o público, aprendemos desde cedo
que John Connor existe no futuro. Mais tarde, encontramos sua mãe em perigo
antes de ele nascer. Nós, o público, sabemos que ela sobreviverá (se confiarmos
que os roteiristas são consistentes!), Mas isso não significa que na história seu
perigo seja irreal.

Uma coisa muito peculiar surge quando o próprio viajante do tempo sabe como
a história terminará. Pense em Reese. Ele sabe que o Terminator falhará, pois
ele sabe que John Connor existe: foi Connor que o enviou de volta ao passado.
No entanto, ele teme pela vida de Sarah Connor, trabalha duro para protegê-la
e, no final, dá sua vida para salvá-la. Por que ele simplesmente não se afasta e
se salva? Ele sabe que Sarah Connor vai sobreviver.

Ou ele? Ele acha que se lembra de servir um homem chamado John Connor.
Ele acha que se lembra de Connor derrotando as máquinas. Ele acha que a mãe
de Connor foi chamada Sarah. Ele acha que essa mulher que ele está
defendendo é a mesma Sarah Connor. Ele acha que essa mulher ainda não teve
filhos. Então, ele tem muitas evidências de que essa mulher que ele está
defendendo sobreviverá. Mas então ele vê o Terminator avançar. Ele vê isso
sem esforço matando todos em seu caminho, procurando por alguém chamado
Sarah Connor. Agora avança na mulher que ele está defendendo. Ele levanta a
arma. A confiança de Reese de que essa mulher sobreviverá agora tremula.
Talvez ela não seja a mãe de John Connor, afinal. Ou, se ele tiver certeza disso,
talvez ela já tenha tido um filho. Ou, se ele tem certeza disso, talvez tenha
cometido algum outro erro. Talvez todas as suas aparentes memórias do futuro
sejam ilusões! Essa dúvida é geralmente exagerada, mas se torna cada vez mais
razoável a cada passo do Exterminador. Tão certo como ele já foi que Sarah
Connor sobreviverá, ele se tornou igualmente certo sobre o perigo apresentado
pelo Exterminador: “Não pode ser barganhado! Não pode ser justificado com!
Não sente piedade, remorso ou medo. E isso nunca vai parar até que você esteja
morto! ”Ele pensa:“ É melhor eu ter certeza. ”Ele levanta a arma.

Nota

1. Terminator 1, ou seja. O Terminator 2 parece ser incoerente. Diz no começo


que os sistemas da Cyberdyne aprenderam a tecnologia por trás da Skynet
estudando a mão do cadáver de um terminador T-800 no futuro. Então, no final,
após o derretimento do T-800 (o polegar de Schwarzenegger para Furlong), o
filme sugere que a Skynet nunca é criada e o Dia do Julgamento é evitado. De
onde vieram os Terminadores que viajam no tempo? O Terminator 3 se sai
melhor: nunca sugere que o Dia do Julgamento seja evitado. No entanto, ainda
restam perguntas, por exemplo, sobre a verdadeira data do dia do julgamento.
O Terminator 1 é de longe o melhor dos três, do ponto de vista filosófico (e
também cinematográfico).

Os paradoxos da viagem no tempo

David Lewis

A viagem no tempo, eu sustento, é possível. Os paradoxos da viagem no tempo


são esquisitices, não impossibilidades. Eles provam apenas isso, o que poucos
duvidariam: que um mundo possível onde as viagens no tempo ocorreram seria
um mundo muito estranho, diferente de maneiras fundamentais do mundo que
pensamos ser nosso.

Preocuparei-me aqui com o tipo de viagem no tempo contada na ficção científica.


Nem todos os escritores de ficção científica são lúcidos, com certeza, e histórias
inconsistentes de viagens no tempo foram escritas com frequência. Mas alguns
escritores pensaram sobre os problemas com muito cuidado, e suas histórias
são

perfeitamente consistente. 1

Se eu posso defender a consistência de algumas histórias de ficção científica de


viagens no tempo, suponho que sejam dadas defesas paralelas de algumas
hipóteses físicas controversas, como a hipótese de que o tempo é circular ou a
hipótese de que existem partículas que viajam mais rápido que a luz. Mas não
vou explorar esses paralelos aqui.
O que é viagem no tempo? Inevitavelmente, envolve uma discrepância entre
tempo e tempo. Qualquer viajante parte e depois chega ao seu destino; o tempo
decorrido desde a partida até a chegada (positivo ou talvez zero) é a duração da
viagem. Mas se ele é um viajante do tempo, a separação no tempo entre a
partida e a chegada não é igual à duração de sua jornada. Ele parte; ele viaja
por uma hora, digamos; então ele chega. A hora que ele chega não é a hora uma
hora depois de sua partida. Mais tarde, se ele viajou em direção ao futuro;
anteriormente, se ele viajou em direção ao passado. Se ele viajou para longe no
passado, é

Detalhes da publicação original: "The Paradoxes of Time Travel", David Lewis,


do American Philosophical Quarterly, 13 (1976), pp. 145-52.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

antes mesmo de sua partida. Como é possível que os mesmos dois eventos, sua
partida e sua chegada, sejam separados por duas quantidades desiguais de
tempo?

É tentador responder que deve haver duas dimensões temporais independentes;


para que a viagem no tempo seja possível, o tempo não deve ser uma linha, mas
um avião. 2 Então, um par de eventos pode ter duas separações desiguais se
forem separados mais em uma das dimensões do tempo do que na outra. A vida
das pessoas comuns ocupa linhas diagonais retas no plano do tempo,
inclinando-se a uma taxa de exatamente uma hora de tempoj por hora de tempo
2 . A vida do viajante do tempo ocupa um caminho inclinado, de inclinação
variável.

Em uma inspeção mais detalhada, no entanto, esse relato parece não nos
proporcionar viagens no tempo, como as conhecemos nas histórias. Quando o
viajante revisitar os dias de sua infância, seus companheiros de brincadeira
estarão lá para encontrá-lo? Não; ele não atingiu a parte do plano do tempo em
que eles estão. Ele não está mais separado deles ao longo de uma das duas
dimensões do tempo, mas ainda está separado deles ao longo da outra. Não
digo que o tempo bidimensional seja impossível, ou que não haja maneira de
combiná-lo com a concepção usual de como seria a viagem no tempo. No
entanto, não direi mais sobre o tempo bidimensional. Vamos deixar isso de lado
e ver como a viagem no tempo é possível, mesmo no tempo unidimensional.

O mundo - o mundo dos viajantes no tempo, ou o nosso - é uma variedade


quadridimensional de eventos. O tempo é uma dimensão das quatro, como as
dimensões espaciais, exceto que as leis predominantes da natureza discriminam
entre o tempo e as outras - ou melhor, talvez, entre várias dimensões
semelhantes ao tempo e várias dimensões semelhantes ao espaço. (O tempo
permanece unidimensional, pois não há duas dimensões semelhantes ao tempo
são ortogonais.) As coisas duradouras são faixas semelhantes ao tempo:
conjuntos compostos de partes temporais ou estágios, localizados em vários
momentos e lugares. A mudança é uma diferença qualitativa entre diferentes
estágios - diferentes partes temporais - de algo duradouro, assim como uma
“mudança” no cenário de leste para oeste é uma diferença qualitativa entre as
partes espaciais leste e oeste da paisagem. Se este capítulo mudar de idéia
sobre a possibilidade de viajar no tempo, haverá uma diferença de opinião entre
duas partes temporais diferentes: o estágio que começou a ler e o estágio
subsequente que termina.

Se mudança é uma diferença qualitativa entre partes temporais de algo, o que


não tem partes temporais não pode mudar. Por exemplo, os números não podem
mudar; nem os eventos de qualquer momento do tempo, uma vez que não
podem ser subdivididos em partes temporais diferentes. (Deixamos de lado o
caso do tempo bidimensional e, portanto, a possibilidade de um evento ser
momentâneo ao longo de uma dimensão do tempo, mas divisível ao longo da
outra.) É essencial distinguir a mudança da "mudança de Cambridge", que pode
acontecer com qualquer coisa . Até um número pode "mudar" de ser para não
ser a taxa de câmbio entre libras e dólares. Mesmo um evento momentâneo pode
"mudar" de um ano atrás para um ano e um dia atrás, ou de ser esquecido para
ser lembrado. Mas essas não são mudanças genuínas. Não apenas qualquer
reversão antiga no valor de verdade de uma sentença sensível ao tempo sobre
algo faz uma mudança na própria coisa.

Um viajante do tempo, como qualquer outra pessoa, é um risco através da


variedade do espaço-tempo, um todo composto por estágios localizados em
vários momentos e lugares. Mas ele não é uma raia como outras raias. Se ele
viaja em direção ao passado, é uma raia em zigue-zague, dobrando de volta
para si mesmo. Se ele viaja para o futuro, ele é uma raia esticada. E se ele viaja
instantaneamente de qualquer maneira, para que não haja estágios
intermediários entre o estágio que parte e o estágio que chega e sua jornada tem
duração zero, então ele é uma raia quebrada.

Perguntei como poderia ser que os mesmos dois eventos fossem separados por
duas quantidades desiguais de tempo e anulei a resposta de que o tempo
poderia ter duas dimensões independentes. Em vez disso, respondo distinguindo
o próprio tempo, o tempo externo , como também o chamarei, do tempo pessoal
de um viajante do tempo em particular: aproximadamente, o que é medido pelo
seu relógio de pulso. Sua jornada leva uma hora de seu tempo pessoal, digamos;
seu relógio de pulso lê uma hora depois na chegada do que na partida. Mas a
chegada é mais de uma hora após a partida no horário externo, se ele viaja para
o futuro; ou a chegada ocorrerá antes da partida em horário externo (ou menos
de uma hora depois), se ele viajar para o passado.

Isso é apenas difícil. Não desejo definir operacionalmente o tempo pessoal,


tornando os relógios de pulso infalíveis por definição. O que é medido pelo meu
relógio de pulso muitas vezes discorda do tempo externo, mas não sou viajante
do tempo; o que meu relógio de pulso mede de maneira inadequada não é o
tempo em si nem o meu tempo pessoal. Em vez de uma definição operacional,
precisamos de uma definição funcional de tempo pessoal: é aquela que ocupa
um certo papel no padrão de eventos que compõe a vida do viajante no tempo.
Se você tomar as etapas de uma pessoa comum, elas manifestam certas
regularidades em relação ao tempo externo. As propriedades mudam
continuamente à medida que você avança, na maior parte e de maneiras
familiares. Primeiro vêm os estágios infantis. Os últimos são senis. Memórias se
acumulam. Digestão de alimentos. Cabelo cresce. As mãos do relógio de pulso
se movem. Se você tomar as etapas de um viajante do tempo, elas não
manifestarão as regularidades comuns em relação ao tempo externo. Porém,
existe uma maneira de atribuir coordenadas aos estágios do viajante no tempo,
e apenas uma maneira (além da escolha arbitrária de um ponto zero), de modo
que as regularidades que se aplicam a essa tarefa correspondem àquelas que
normalmente se aplicam em relação a pontos externos. Tempo. Com relação às
propriedades de atribuição corretas, mude continuamente à medida que você
avança, na maior parte e de maneiras familiares. Primeiro vêm os estágios
infantis. Os últimos são senis. Memórias se acumulam. Digestão de alimentos.
Cabelo cresce. As mãos do relógio de pulso se movem. A atribuição de
coordenadas que gera essa correspondência é o tempo pessoal do viajante no
tempo. Não é realmente tempo, mas desempenha o papel em sua vida que o
tempo desempenha na vida de uma pessoa comum. Já é tempo suficiente para
que possamos, com a devida cautela, transplantar nosso vocabulário temporal
ao discutir seus assuntos. Podemos dizer sem contradição, enquanto o viajante
do tempo se prepara para começar: "Em breve ele estará no passado".
Queremos dizer que um estágio dele é um pouco mais tarde no seu tempo
pessoal, mas muito mais cedo no tempo externo do que o palco. daquele que
está presente como dizemos a sentença.

Podemos atribuir locais no tempo pessoal do viajante no tempo não apenas aos
seus palcos, mas também aos eventos que acontecem ao seu redor. Em breve
César morrerá, há muito tempo; isto é, um estágio um pouco mais tarde no tempo
pessoal do viajante do tempo do que o estágio atual, mas há muito tempo no
tempo externo, é simultâneo à morte de César. Poderíamos até estender a
atribuição de tempo pessoal a eventos que não fazem parte da vida do viajante
do tempo e não são simultâneos a nenhum de seus estágios. Se seu funeral no
Egito antigo é separado de sua morte por três dias de tempo externo e sua morte
é separada de seu nascimento por três anos e dez de seu tempo pessoal,
podemos adicionar os dois intervalos e dizer que seu funeral segue sua
nascimento por três anos e dez e três dias de tempo pessoal prolongado. Da
mesma forma, um espectador pode realmente dizer, três anos após a última
partida de outro famoso viajante do tempo, que “ele pode até agora - se eu usar
a frase - estar vagando em alguns recifes de corais oolíticos assombrados pelo
plesiossauro ou ao lado dos mares salinos solitários da era triássica ”. 3 Se o
viajante do tempo vagueia em um recife de coral oolítico três anos após sua
partida em seu tempo pessoal, não há nenhum erro dizer com relação ao seu
longo tempo pessoal que a perambulação está ocorrendo "agora".
Podemos comparar intervalos de tempo externo a distâncias conforme o corvo
voa, e intervalos de tempo pessoal a distâncias ao longo de um caminho sinuoso.
A vida do viajante no tempo é como uma estrada de ferro na montanha. O local
a duas milhas a leste daqui também pode estar a nove milhas abaixo da linha,
na direção oeste. Claramente, não estamos lidando aqui com duas dimensões
independentes. Assim como a distância ao longo da ferrovia não é uma quarta
dimensão espacial, o tempo pessoal de um viajante no tempo não é uma
segunda dimensão do tempo. A que distância está um lugar, depende da sua
localização no espaço tridimensional e, da mesma forma, a localização dos
eventos no tempo pessoal depende de suas localizações no tempo externo
unidimensional.

Cinco milhas abaixo da linha daqui é um lugar onde a linha passa por um
cavalete; duas milhas adiante, é um lugar onde a linha passa por um tresde;
esses lugares são o mesmo. A cavalete pela qual a linha cruza sobre si mesma
tem dois locais diferentes ao longo da linha, cinco milhas abaixo daqui e também
sete. Da mesma forma, um evento na vida de um viajante no tempo pode ter
mais de um local no seu tempo pessoal. Se ele voltar ao passado, mas não longe
demais, ele poderá falar consigo mesmo. A conversa envolve dois de seus
estágios, separados em seu tempo pessoal, mas simultâneos em tempo externo.
O local da conversa no tempo pessoal deve ser o local do estágio envolvido nela.
Mas existem dois estágios; Para compartilhar os locais de ambos, é necessário
atribuir à conversa dois locais diferentes no horário pessoal.

Quanto mais estendermos a atribuição de tempo pessoal dos estágios dos


viajantes no tempo para os eventos ao redor, mais esses eventos adquirirão
vários locais. Também pode acontecer, como já vimos, que eventos que não
sejam simultâneos no tempo externo receberão o mesmo local no tempo pessoal
- ou melhor, que pelo menos um dos locais de um será o mesmo que pelo menos
um dos locais do outro. Portanto, a extensão não deve ser levada muito longe,
para que a localização dos eventos em um período prolongado de tempo perca
sua utilidade como um meio de acompanhar suas funções na história do viajante
no tempo.

Um viajante do tempo que fala consigo mesmo, por telefone, parece no mundo
inteiro duas pessoas diferentes conversando entre si. Não é certo dizer que o
todo dele está em dois lugares ao mesmo tempo, já que nenhum dos dois
estágios envolvidos na conversa é o todo, ou mesmo toda a parte dele que está
localizada no local. hora (externa) da conversa. O que é verdade é que ele, ao
contrário de todos nós, tem dois estágios completos diferentes, localizados ao
mesmo tempo em lugares diferentes. Que razão tenho, então, para considerá-lo
uma pessoa e não duas? O que une seus estágios, incluindo os simultâneos, em
uma única pessoa? O problema da identidade pessoal é especialmente grave se
ele é o tipo de viajante do tempo cujas viagens são instantâneas, uma sequência
quebrada que consiste em vários segmentos desconectados. Então, a maneira
natural de considerá-lo mais de uma pessoa é considerar cada segmento como
uma pessoa diferente. Ninguém é viajante do tempo, e a peculiaridade da
situação é a seguinte: todas, exceto uma dessas várias pessoas, desaparecem
no ar, todas, exceto uma, aparecem do nada, e há notáveis semelhanças entre
elas. aparência e outra em seu desaparecimento. Por que essa descrição não é
tão boa quanto a que eu dei, na qual os vários segmentos fazem parte de um
viajante do tempo?

Respondo que o que une os estágios (ou segmentos) de um viajante do tempo


é o mesmo tipo de continuidade e conexão mental, ou principalmente mental,
que une qualquer outra pessoa. A única diferença é que, enquanto uma pessoa
comum é conectada e contínua em relação ao tempo externo, o viajante do
tempo é conectado e contínuo apenas em relação ao seu tempo pessoal.
Tomando as etapas em ordem, a mudança mental (e corporal) é mais gradual
do que súbita, e em nenhum momento há mudanças repentinas em muitos
aspectos diferentes ao mesmo tempo. (Podemos incluir a posição no tempo
externo entre os aspectos que acompanharmos, se quisermos. Pode mudar
descontinuamente em relação ao tempo pessoal, se não houver muito mais que
mudar de forma descontinuada junto com ele.) Além disso, não há muita
mudança por completo. . Muitas características e traços duram uma vida.
Finalmente, a conexão e a continuidade não são acidentais. Eles são explicáveis;
e, além disso, são explicadas pelo fato de que as propriedades de cada estágio
dependem causalmente daquelas dos estágios anteriores ao tempo pessoal,
sendo a dependência a que tende a manter as coisas iguais. 4

Para ver o objetivo do meu requisito final de continuidade causal, vejamos como
isso exclui um caso de viagem no tempo falsificada. Fred foi criado do nada,
como se estivesse no meio da vida; ele viveu um tempo, depois morreu. Ele foi
criado por um demônio, e o demônio havia escolhido aleatoriamente como Fred
deveria ser no momento de sua criação. Muito mais tarde, alguém, Sam, passou
a se parecer com Fred como era quando foi criado. No exato momento em que
a semelhança se tornou perfeita, o demônio destruiu Sam. Fred e Sam juntos
são muito parecidos com uma única pessoa: um viajante do tempo cujo tempo
pessoal começa no nascimento de Sam, segue para a destruição de Sam e a
criação de Fred, e daí para a morte de Fred. Tomados nesta ordem, os estágios
de Fred-cwra-Sam têm a devida conexão e continuidade. Mas eles não têm
continuidade causal, então Fred-cwm-Sam não é uma pessoa e nem um viajante
do tempo. Talvez fosse pura coincidência que Fred em sua criação e Sam em
sua destruição fossem exatamente iguais; então a conexão e continuidade de
Fred-cwra-Sam através do ponto crucial são acidentais. Talvez, em vez disso, o
demônio se lembrasse de como era Fred, guiou Sam para uma perfeita
semelhança, observou seu progresso e o destruiu no momento certo. Então a
conexão e continuidade de Fred-cwra-Sam tem uma explicação causal, mas do
tipo errado. De qualquer forma, os primeiros estágios de Fred não dependem
causalmente de suas propriedades dos últimos estágios de Sam. Portanto, o
caso de Fred e Sam é corretamente desqualificado como um caso de identidade
pessoal e como um caso de viagem no tempo.

Podemos esperar que, quando um viajante do tempo visitar o passado, haverá


reversões de causalidade. Você pode dar um soco no rosto dele antes que ele
saia, fazendo com que seu olho escurecesse séculos atrás. De fato, viajar para
o passado envolve necessariamente uma causa reversa. Para viajar no tempo,
exige identidade pessoal - quem chega deve ser a mesma pessoa que partiu.
Isso requer continuidade causal, na qual a causalidade ocorre dos estágios
anteriores aos posteriores, na ordem do tempo pessoal. Mas as ordens do tempo
pessoal e externo discordam em algum momento, e aí temos uma causação que
vai dos estágios posteriores para os anteriores, na ordem do tempo externo. Em
outros lugares, analisei a causalidade em termos de cadeias de dependência
contrafactual e cuidei de que minha análise não descartasse a reversão causal
a priori . 5 1 acho que posso argumentar (mas não aqui) que, sob minha análise
o sentido de dependência contrafactual e causalidade é governada pela direção
de outros de facto assimetrias de tempo. Nesse caso, a causação reversa e a
viagem no tempo não são totalmente excluídas, mas podem ocorrer apenas
quando houver exceções locais a essas assimetrias. Como eu disse no início, o
mundo dos viajantes no tempo seria o mais estranho.

Ainda mais estranho, se houver reversões causais locais - mas apenas locais -,
também poderá haver laços causais: cadeias causais fechadas nas quais alguns
dos elos causais são normais na direção e outros são revertidos. (Talvez deva
haver loops se houver reversão; não tenho certeza.) Cada evento no loop tem
uma explicação causal, sendo causado por eventos em outros lugares do loop.
Isso não quer dizer que o loop como um todo seja causado ou explicável. Pode
não ser. Sua inexplicabilidade é especialmente notável se for composta pelo tipo
de processos causais que transmitem informações. Lembre-se do viajante do
tempo que falou sozinho. Ele falou sozinho sobre viagens no tempo e, durante a
conversa, seu eu mais velho disse a ele como construir uma máquina do tempo.
Essa informação não estava disponível de nenhuma outra maneira. Seu eu mais
velho sabia disso porque seu eu mais jovem havia sido informado e as
informações foram preservadas pelos processos causais que constituem
registro, armazenamento e recuperação de traços de memória. Seu eu mais
jovem soube, depois da conversa, porque seu eu mais velho sabia e a
informação foi preservada pelos processos causais que constituem a revelação.
Mas de onde veio a informação em primeiro lugar? Por que todo o caso
aconteceu? Simplesmente não há resposta. As partes do loop são explicáveis,
o todo não é. Estranho! Mas não impossível, e não muito diferente das
inexplicabilidades para as quais já estamos acostumados. Quase todo mundo
concorda que Deus, ou o Big Bang, ou todo o passado infinito do universo ou a
decadência de um átomo de trítio, é sem causa e inexplicável. Então, se isso é
possível, por que não também os loops causais inexplicáveis que surgem nas
viagens no tempo?

Eu cometi uma circularidade para não falar muito de uma só vez, e este é um
bom lugar para corrigi-lo. Ao explicar o tempo pessoal, pressupus que tínhamos
o direito de considerar certos estágios como compostos por uma única pessoa.
Então, ao explicar o que uniu os palcos em uma única pessoa, pressupus que
recebessem uma ordem de tempo pessoal para eles. A maneira correta de
proceder é definir a personalidade e o tempo pessoal simultaneamente, como a
seguir. Suponha que, dado um par de estágios de pessoa, considerados
candidatos à personalidade, e uma atribuição de coordenadas para esses
estágios, considerados candidatos ao seu tempo pessoal. Se os estágios
satisfazem as condições dadas em minha explicação circular em relação à
atribuição de coordenadas, os dois candidatos são bem-sucedidos: os estágios
compreendem uma pessoa e a tarefa é seu tempo pessoal.

Argumentei até agora que o que acontece em uma história de viagem no tempo
pode ser um possível padrão de eventos no espaço-tempo quadridimensional
sem dimensão extra no tempo; que pode ser correto considerar as etapas
dispersas do suposto viajante do tempo como compreendendo uma única
pessoa; e que possamos legitimamente atribuir a esses estágios e seus
arredores uma ordem de tempo pessoal que às vezes discorda de sua ordem no
tempo externo. Alguns podem admitir tudo isso, mas protestam que a
impossibilidade de viajar no tempo é revelada, afinal, quando perguntamos não
o que o viajante do tempo faz, mas o que ele poderia fazer. Um viajante do tempo
poderia mudar o passado? Parece que não: os eventos de um momento passado
não podiam mudar mais do que os números. No entanto, parece que ele seria
tão capaz quanto qualquer um de fazer coisas que mudariam o passado se as
fizesse. Se um viajante do tempo que visita o passado poderia e não poderia
fazer algo que o mudaria, então não é possível que exista.

Considere Tim. Ele detesta seu avô, cujo sucesso no comércio de munições
construiu a fortuna da família que pagou pela máquina do tempo de Tim. Tim
não gostaria de matar o avô, mas, infelizmente, é tarde demais. O avô morreu
em sua cama em 1957, enquanto Tim era um menino. Mas quando Tim construiu
sua máquina do tempo e viajou para 1920, de repente ele percebe que não é
tarde demais, afinal. Ele compra um rifle; ele passa longas horas na prática de
tiro ao alvo; ele acompanha o avô para aprender o caminho de sua caminhada
diária até as obras de munições; ele aluga um quarto ao longo da rota; e lá ele
espreita, num dia de inverno em 1921, o rifle carregado, o ódio no coração,
enquanto o avô se aproxima cada vez mais. ...

Tim pode matar o avô. Ele tem o que é preciso. As condições são perfeitas em
todos os aspectos: o melhor que o dinheiro do rifle poderia comprar, o avô era
um alvo fácil a apenas vinte metros de distância, nem uma brisa, porta trancada
com segurança contra intrusos, Tim uma boa chance para começar e agora no
auge do treinamento e assim por diante. em. O que há para detê-lo? As forças
da lógica não ficarão na mão dele! Nenhum acompanhante poderoso está à
disposição para defender o passado da interferência. (Imaginar que um
acompanhante, como alguns autores, é uma evasão chata, não é necessário
para tornar a história de Tim consistente.) Em resumo, Tim é capaz de matar o
avô tanto quanto qualquer um pode matar alguém. Suponha que, na rua, outro
atirador de elite, Tom, espreite à espera de outra vítima, o parceiro do avô. Tom
não é um viajante do tempo, mas por outro lado é como Tim: a mesma marca de
rifle, a mesma intenção assassina, a mesma coisa. Podemos até supor que Tom,
como Tim, acredite ser um viajante do tempo. Alguém se deu ao trabalho de
enganar Tom a pensar assim. Não há dúvida de que Tom pode matar sua vítima;
e Tim tem tudo para ele que Tom faz. Por qualquer padrão comum de habilidade,
Tim pode matar o avô.

Tim não pode matar o avô. Vovô viveu, então matá-lo seria mudar o passado.
Mas os eventos de um momento passado não são subdividíveis em partes
temporais e, portanto, não podem mudar. Os eventos de 1921 atemporalmente
incluem a morte do avô por Tim, ou então não o fazem atemporalmente.
Podemos ficar tentados a falar do "original" de 1921 que está no passado
pessoal de Tim, muitos anos antes de seu nascimento, no qual o avô viveu; e do
"novo" 1921 em que Tim agora se vê esperando uma emboscada para matar o
avô. Mas, se o falarmos, meramente conferimos dois nomes em uma coisa. Os
eventos de 1921 estão duplamente localizados no tempo pessoal (prolongado)
de Tim, como a cavalete na ferrovia, mas o 1921 “original” e o “novo” 1921 são
o mesmo. Se Tim não matou o avô no 1921 “original”, então se ele matou o avô
no “novo” 1921, ele deve matar e não matar o avô em 1921 - no primeiro e
somente em 1921, que é o “novo” ”E o“ original ”1921. É logicamente impossível
que Tim mude o passado matando o avô em 1921. Portanto, Tim não pode matar
o avô.

Não que os momentos passados sejam especiais; ninguém mais pode mudar o
presente ou o futuro. Eventos momentâneos presentes e futuros não têm mais
partes temporais do que os passados. Você não pode alterar um evento presente
ou futuro do que era originalmente para o que é depois de alterá-lo. O que você
pode fazer é mudar o presente ou o futuro da maneira não-atualizada que eles
teriam sido sem alguma ação sua para a forma como eles realmente são. Mas
isso não é uma mudança real: não é uma diferença entre duas realidades
sucessivas. E Tim certamente pode fazer o mesmo; ele muda o passado da
maneira não-atualizada que teria sido sem ele para a única e realmente é. Para
"mudar" o passado dessa maneira, Tim não precisa fazer nada de importante;
basta apenas estar lá, por mais discreto que seja.

Você sabe, é claro, aproximadamente como a história de Tim deve continuar


para que seja consistente: ele de alguma forma falha. Como Tim não matou o
avô no "original" de 1921, a consistência exige que ele também não mate o avô
no "novo" de 1921. Por que não? Por alguma razão comum. Talvez algum
barulho o distraia no último momento, talvez ele erre apesar de toda a prática de
tiro ao alvo, talvez seu nervo falhe, talvez até sinta uma pontada de misericórdia
desacostumada. Seu fracasso de maneira alguma prova que ele não era
realmente capaz de matar o avô. Muitas vezes tentamos e falham em fazer o
que somos capazes de fazer. O sucesso em algumas tarefas requer não apenas
habilidade, mas também sorte, e falta de sorte não é uma falta temporária de
habilidade. Suponha que nosso outro atirador, Tom, não mate o parceiro do avô
pela mesma razão, seja qual for, que Tim não mate o avô. Não se segue que
Tom não tenha conseguido. No caso de Tim, não se segue mais que ele foi
incapaz de fazer o que não conseguiu.

Temos essa aparente contradição: "Tim não, mas pode, porque ele tem o que é
preciso " versus "Tim não, e não pode, porque é logicamente impossível mudar
o passado". Respondo que não há contradição. Ambas as conclusões são
verdadeiras e pelas razões expostas. Eles são compatíveis porque "can" é
ambíguo.

Dizer que algo pode acontecer significa que seu acontecimento é compossível
com certos fatos. Quais fatos? Isso é determinado, mas às vezes não é
determinado o suficiente, pelo contexto. Um macaco não pode falar uma língua
humana - digamos, finlandês - mas eu posso. Fatos sobre a anatomia e o
funcionamento da laringe e do sistema nervoso do macaco não são passíveis de
composição com o finlandês que ele fala. Os fatos correspondentes sobre minha
laringe e sistema nervoso são possíveis com meu falante finlandês. Mas não me
leve a Helsinque como intérprete: não sei falar finlandês. Meu falar finlandês é
compatível com os fatos considerados até agora, mas não com outros fatos
sobre minha falta de treinamento. O que posso fazer, em relação a um conjunto
de fatos, não posso fazer, em relação a outro conjunto, mais inclusivo. Sempre
que o contexto deixa em aberto quais fatos devem ser considerados relevantes,
é possível equivocar sobre se eu posso falar finlandês. Da mesma forma, é
possível equivocar sobre se é possível falar finlandês, se sou capaz ou se tenho
capacidade ou capacidade, poder ou potencialidade para isso. Nossas muitas
palavras para praticamente a mesma coisa são de pouca ajuda, pois elas não
parecem corresponder a diferentes delineamentos fixos dos fatos relevantes.

O vovô matador de Tim naquele dia de 1921 é composto por um conjunto


bastante rico de fatos: os fatos sobre seu rifle, sua habilidade e treinamento, a
linha de tiro desobstruída, a porta trancada e a ausência de acompanhante para
defender o passado, e assim em. De fato, é compossível com todos os fatos do
tipo que normalmente consideraríamos relevantes ao dizer o que alguém pode
fazer. É compossível com todos os fatos correspondentes aos que consideramos
relevantes no caso de Tom. Em relação a esses fatos, Tim pode matar o avô.
Mas seu avô que matou não é compatível com outro conjunto de fatos mais
abrangente. Há o simples fato de que o avô não foi morto. Também existem
vários outros fatos sobre as ações do avô depois de 1921 e seus efeitos: o avô
gerou o pai em 1922 e o pai gerou o Tim em 1949. Em relação a esses fatos,
Tim não pode matar o avô. Ele pode e não pode, mas sob diferentes
delineamentos dos fatos relevantes. Você pode escolher razoavelmente o
delineamento mais restrito e dizer que ele pode; ou o delineamento mais amplo,
e diga que ele não pode. Mas escolha. O que você não deve fazer é vacilar, dizer
no mesmo fôlego que ele pode e não pode e depois afirmar que essa contradição
prova que a viagem no tempo é impossível.

Exatamente o mesmo vale para a falha paralela de Tom. Para Tom matar o
parceiro do avô, também é possível compor com todos os fatos do tipo que
normalmente consideramos relevantes, mas não compor com um conjunto
maior, incluindo, por exemplo, o fato de que a vítima pretendida viveu até 1934.
No caso de Tom, não estamos perplexos. . Dizemos sem hesitar que ele pode
fazê-lo, porque vemos imediatamente que os fatos que não são compossíveis
com seu sucesso são fatos sobre o futuro do tempo em questão e, portanto, não
são os tipos de fatos que consideramos relevantes ao dizer o que Tom pode
fazer.

No caso de Tim, é mais difícil acompanhar quais fatos são relevantes. Estamos
acostumados a excluir fatos sobre o futuro do tempo em questão, mas a incluir
alguns fatos sobre seu passado. Nossos padrões não se aplicam
inequivocamente aos fatos cruciais nesse caso especial: o fracasso de Tim, a
sobrevivência do avô e suas ações subseqüentes. Se temos principalmente em
mente que eles se encontram no futuro externo daquele momento em 1921,
quando Tim está quase pronto para filmar, os excluímos da mesma maneira que
excluímos os fatos paralelos no caso de Tom. Mas se tivermos em mente que
eles precedem esse momento no prolongado tempo pessoal de Tim, então
tendemos a incluí-los. Para fazer com que este último seja o mais importante em
sua mente, escolhi contar a história de Tim na ordem de seu tempo pessoal, e
não na ordem do tempo externo. O fato de a sobrevivência do avô até 1957 já
ter sido contada antes de eu chegar à parte da história sobre Tim à espreita para
matá-lo em 1921. Devemos decidir, se pudermos, se devemos tratar esses fatos
pessoalmente passados e externamente futuros como se eles eram diretamente
passados ou como se fossem diretamente diretos futuros.

Os fatalistas - os melhores - são filósofos que consideram os fatos que


consideramos irrelevantes ao dizer o que alguém pode fazer, disfarçam-nos de
alguma forma como fatos de um tipo diferente que consideramos relevantes e,
assim, argumentam que podemos fazer menos do que pensamos - de fato, que
não há nada que não fazemos, mas podemos. Não vou votar no republicano no
próximo outono. O fatalista argumenta que, estranho dizer, eu não apenas não
vou como não posso; pois meu voto no republicano não é aceitável pelo fato de
já ser verdade no ano de 1548 que eu não iria votar no republicano 428 anos
depois. Minha réplica é que isso é um fato, com certeza; no entanto, é um fato
irrelevante sobre o futuro mascarado como um fato relevante sobre o passado
e, portanto, deve ser deixado de lado em dizer o que, em qualquer sentido
comum, eu posso fazer. É improvável que sejamos enganados pelos métodos
de disfarce dos fatalistas neste caso ou em outros casos comuns. Mas em casos
de viagem no tempo, pré-reconhecimento ou algo do gênero, estamos em um
terreno menos familiar, portanto pode levar menos disfarce para nos enganar.
Além disso, novos métodos de disfarce estão disponíveis, graças ao dispositivo
de tempo pessoal.

Aqui está outro truque fatalista. Tim, como ele se esconde, já sabe que irá falhar.
Pelo menos ele tem os meios necessários para saber se ele pensa, ele sabe
disso implicitamente. Pois ele lembra que o avô estava vivo quando menino, ele
sabe que os mortos depois não estão vivos, ele sabe (suponhamos) que ele é
um viajante do tempo que atingiu o mesmo 1921 que se encontra em seu
passado pessoal , e ele deve entender - como nós - por que um viajante do
tempo não pode mudar o passado. O que se sabe não pode ser falso. Portanto,
seu sucesso não é não apenas compossível com fatos que pertencem ao futuro
externo e ao seu passado pessoal, mas também não é compossível com o fato
presente de seu conhecimento de que ele fracassará. Respondo que o fato de
sua presciência, no momento em que ele espera atirar, não é um fato
inteiramente sobre esse momento. Pode ser dividido em duas partes. Há o fato
de que ele acredita (talvez apenas implicitamente) que fracassará; e há o fato
adicional de que sua crença é correta, e de maneira alguma correta por acidente
e, portanto, se qualifica como um item de conhecimento. É apenas o último fato
que não é compossível com seu sucesso, mas é apenas o primeiro que trata
inteiramente do momento em questão. Ao chamar o estado de Tim naquele
momento de conhecimento, não apenas crença, fatos sobre momentos
pessoalmente anteriores, mas externamente posteriores, foram
contrabandeados em consideração.

Argumentei que o caso de Tim e o de Tom são semelhantes, exceto que, no


caso de Tim, somos mais tentados do que o habitual - e com razão - a optar por
um modo de fala semifatalista. Mas talvez eles diferem de outra maneira. No
caso de Tom, podemos esperar uma resposta perfeitamente consistente para a
pergunta contrafactual: e se Tom tivesse matado o parceiro do avô? O caso de
Tim é mais difícil. Se Tim tivesse matado o avô, parece improvável que as
contradições fossem verdadeiras. O assassinato ocorreria e não teria ocorrido.
Nenhum avô, nenhum pai; nem pai, nem tim; sem Tim, sem matar. E para uma
boa medida: sem avô, sem fortuna familiar; sem fortuna, sem máquina do tempo;
nenhuma máquina do tempo, nenhuma matança. Portanto, a suposição de que
Tim matou o avô parece impossível em mais do que o sentido semi-fatalista já
concedido.

Se você acha que Tim mata o avô e mantém todo o resto da história fixo, é claro
que você tem uma contradição. Da mesma forma, se você supõe que Tom mate
o parceiro do avô e mantém o resto da história fixo - incluindo a parte que contou
sobre o fracasso -, você terá uma contradição. Se você faz uma suposição
contrafactual e mantém tudo o mais fixo, obtém uma contradição. O que se deve
fazer é simular a suposição contrafactual e manter tudo o mais próximo do fixo
que você puder. Esse procedimento produzirá respostas perfeitamente
consistentes para a pergunta: e se Tim não tivesse matado o avô? Nesse caso,
parte da história que contei não seria verdadeira. Talvez Tim pudesse ter sido o
neto que viajava no tempo de outra pessoa. Talvez ele tenha sido neto de um
homem morto em 1921 e milagrosamente ressuscitado. Talvez ele não fosse um
viajante do tempo, mas alguém criado do nada em 1920 equipado com falsas
lembranças de um passado pessoal que nunca existiu. É difícil dizer qual é a
menor revisão da história de Tim para tornar verdade que Tim mata o avô, mas
certamente a história contraditória em que o assassinato ocorre e não ocorre não
é a menor revisão. Portanto, é falso (de acordo com a história não revisada) que,
se Tim tivesse matado o avô, as contradições teriam sido verdadeiras.

Que diferença faria se Tim viajasse no tempo de ramificação? Suponha que, no


mundo possível da história de Tim, os múltiplos espaços-tempo se ramifiquem;
os galhos são separados não no tempo e não no espaço, mas de alguma outra
maneira. Tim viaja não apenas no tempo, mas também de um ramo para outro.
Em um ramo, Tim está ausente dos eventos de 1921; O avô vive; Tim nasce,
cresce e desaparece em sua máquina do tempo. O outro ramo diverge do
primeiro, quando Tim aparece em 1921; lá Tim mata o avô e o avô não deixa
descendentes nem fortuna; os eventos dos dois ramos diferem cada vez mais a
partir desse momento. Certamente, esta é uma história consistente; é uma
história em que o avô é e não é morto em 1921 (nos diferentes ramos); e é uma
história em que Tim, matando o avô, consegue impedir seu próprio nascimento
(em um dos ramos). Mas não é uma história em que o assassinato de Avô por
Tim ocorre e não ocorre: simplesmente ocorre, embora esteja localizado em um
ramo e não no outro. E não é uma história em que Tim muda o passado; 1921 e
anos posteriores contêm os eventos de ambos os ramos, coexistindo de alguma
forma sem interação. Permanece verdadeiro em todos os momentos pessoais
da vida de Tim, mesmo após o assassinato, que o avô vive em um ramo e morre
no outro. 6

Notas

1. Penso particularmente em duas histórias de viagens no tempo de Robert A.


Heinlein: “By His Bootstraps”, em RA Heinlein, A Ameaça da Terra (Hicksville,
NY, 1959) e All You Zombies em RA Heinlein, The Profissão Desagradável de
Jonathan Hoag (Hicksville, NY, 1959).

2. Relatos de viagens no tempo em tempo bidimensional são encontrados em


Jack W. Meiland, "Um modelo de passagem bidimensional de tempo para
viagens no tempo", Philosophical Studies, vol. 26 (1974), pp. 153-73; e nos
capítulos iniciais de Isaac Asimov, O fim da eternidade (Garden City, NY, 1955).
O desenlace de Asimov, no entanto, parece exigir alguma concepção diferente
de viagem no tempo.

3. HG Wells, A Máquina do Tempo, Uma Invenção (Londres, 1895), epílogo. A


passagem é criticada como contraditória em Donald C. Williams, "O Mito da
Passagem", The Journal of Philosophy, vol. 48 (1951), p. 463

4. Discuto a relação entre identidade pessoal e conexão mental e continuidade


em maior detalhe em "Survival and Identity" em The Identities of People, ed. por
Amelie Rorty (Berkeley e Los Angeles, 1976).

5. "Causation", The Journal of Philosophy, vol. 70 (1973), pp. 556-67; a análise


baseia-se na análise dos contrafatuais dados em meus Contrafatuais (Oxford,
1973).

6. O presente capítulo resume uma série de palestras com o mesmo título,


ministradas nas Palestras Gavin David Young em Filosofia na Universidade de
Adelaide em julho de 1971. Agradeço à Australian-American Educational
Foundation e ao American Council of Learned Societies pela pesquisa Apoio,
suporte. Sou grato a muitos amigos pelos comentários sobre as versões
anteriores deste capítulo; especialmente Philip Kitcher, William Newton-Smith,
JJ .C. Inteligente e Donald Williams.

A Física Quântica da Viagem no Tempo

David Deutsch e Michael Lockwood

O senso comum pode descartar tais excursões - mas as leis da física não
Imagine, se quiser, que nossa amiga Sonia mantenha uma máquina do tempo
em sua garagem. Na noite passada, ela o usou para visitar seu avô em 1934,
quando ele ainda estava cortejando sua avó. Sonia o convenceu de sua
identidade referindo-se aos segredos de família que ele ainda não havia revelado
a ninguém. Isso o deixou atordoado, mas o pior foi seguir. Quando ele disse à
sua namorada durante o jantar que acabara de conhecer sua futura neta, a
resposta da dama foi tanto para duvidar de sua sanidade mental e se ofender
com sua presunção. Eles nunca se casaram e nunca tiveram o bebê que teria
se tornado a mãe de Sonia (veja a Figura 27.1).

Então, como Sonia pode estar sentada aqui hoje, nos contando sua aventura?
Se sua mãe nunca nasceu, como ela nasceu? A verdadeira questão é: quando
Sonia retorna a 1934, ela pode ou não levar o romance dos avós a um fim
prematuro? Qualquer resposta cria problemas. Se Sonia pode impedir seu
próprio nascimento, há uma contradição. Se ela não pode, essa incapacidade
entra em conflito com o senso comum, pois o que impede Sonia de se comportar
como bem entender? Alguma paralisia estranha a agarrará sempre que ela tentar
decretar certas intenções?

Situações como essa - uma versão moderada do clássico "paradoxo do avô", em


que o avô é assassinado por seu neto que viaja no tempo - são freqüentemente
consideradas como descartando viagens no tempo. Surpreendentemente, as leis
da física não proíbem tais aventuras.

Detalhes da publicação original: "The Quantum Physics of Time Travel", David


Deutsch e Michael Lockwood, da Scientific American, março de 1994, pp. 68-74.
Reproduzido com permissão. Copyright © 1994 da Scientific American, Inc.
Todos os direitos reservados.

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Viajante do tempo cumprimenta avô

Desastroso

jantar

Sem casamento Sem filhos Sem netos

Máquina do tempo e viajante do tempo


Avô encontra avô vestidos Casamento delicioso Nascimento Nascimento Sem
viajante no tempo

senhora encantadora para o jantar jantar da filha da neta

(viajante do tempo)

Figura 27.1 PARADOXO DO AVÔ, em que um viajante do tempo impede seu


próprio nascimento, é uma objeção básica à viagem no tempo.

Outro paradoxo, que freqüentemente aparece na ficção científica, foi discutido


pelo filósofo de Oxford Michael Dummett. Um crítico de arte do futuro visita um
pintor do século XX, considerado no próprio século como um grande artista.
Vendo o trabalho atual do pintor, o crítico considera medíocre e conclui que o
artista ainda não produziu aquelas pinturas inspiradas que impressionaram tanto
as gerações futuras. O crítico mostra ao pintor um livro de reproduções desses
trabalhos posteriores. O pintor tenta esconder esse livro, forçando o crítico a sair
sem ele e, em seguida, começa meticulosamente a copiar as reproduções na
tela. Assim, as reproduções existem porque são copiadas das pinturas, e as
pinturas existem porque são copiadas das reproduções. Embora essa história
não ameace nenhuma contradição, há algo muito errado com ela. Pretende nos
dar as pinturas sem que ninguém precise se esforçar para criá-las - uma espécie
de "almoço grátis" artístico.

Persuadidos por tais objeções, os físicos tradicionalmente invocam um princípio


cronológico que, por decreto, exclui as viagens ao passado. As viagens de ida
para o futuro não causam esses problemas. A teoria especial da relatividade de
Einstein prevê que, com aceleração suficiente, os astronautas poderiam viajar e
retornar à Terra décadas no futuro, enquanto envelheciam fisicamente apenas
um ano ou dois. É importante distinguir entre previsões como essa, que são
apenas surpreendentes, e processos que violariam leis físicas ou princípios
filosóficos justificáveis de forma independente.

Em breve, explicaremos por que viajar para o passado não violaria tal princípio.
Para fazer isso, precisamos primeiro explorar o próprio conceito de tempo, como
os físicos o entendem. Nas teorias gerais e especiais de Einstein da relatividade,
o espaço tridimensional é combinado com o tempo para formar o espaço-tempo
quadridimensional. Enquanto o espaço consiste em pontos espaciais, o espaço-
tempo consiste em pontos espaço-temporais, ou eventos, cada um dos quais
representa um local em particular em um determinado momento. Sua vida forma
uma espécie de “verme” quadridimensional no espaço-tempo: a ponta da cauda
do verme corresponde ao evento do seu nascimento, e a frente da cabeça ao
evento da sua morte. Um objeto, visto a qualquer instante, é uma seção
tridimensional desse verme longo, fino e intricadamente curvado. A linha ao
longo da qual o verme se encontra (ignorando sua espessura) é chamada linha
de mundo desse objeto.
Em qualquer ponto da sua linha do mundo, o ângulo que faz com o eixo do tempo
é uma medida da sua velocidade. A linha do mundo de um raio de luz é
tipicamente desenhada como fazendo um ângulo de 45 graus; um flash de luz
que se espalha em todas as direções forma um cone no espaço-tempo, chamado
ícone de luz (veja a Figura 27.2). Uma diferença importante entre espaço e
espaço-tempo é que uma linha do mundo - diferentemente, digamos, de uma
linha desenhada no papel - não pode ser qualquer rabisco arbitrário. Como nada
pode viajar mais rápido que a luz, a linha do mundo de um objeto físico nunca
pode se desviar para fora da luz que emana de qualquer evento do passado. As
linhas mundiais que atendem a esse critério são chamadas de timelike. O tempo,
medido por um relógio, aumenta em uma direção ao longo de uma linha do
mundo.

Figura 27.2 ESPAÇO E TEMPO são combinados em uma entidade


quadridimensional, espaço-tempo. Aqui, mostramos duas dimensões espaciais
e temporais. Uma linha do mundo conecta todos os eventos de nossa vida no
espaço-tempo; como temos algum tamanho, a linha do mundo de uma pessoa é
mais como um verme que se estende do nascimento à morte do que uma linha.
As linhas mundiais de raios de luz que emanam em todas as direções espaciais
de um evento traçam um cone no espaço-tempo, chamado de ícone de luz. A
linha do mundo de qualquer objeto, como o umbigo desta figura, não pode se
afastar de um ícone de luz que emana de qualquer ponto do passado.

A teoria da relatividade especial de Einstein exige que as linhas mundiais de


objetos físicos sejam semelhantes ao tempo; as equações de campo de sua
teoria geral da relatividade prevêem que corpos maciços como estrelas e
buracos negros distorcem o espaço-tempo e dobram as linhas do mundo. Essa
é a origem da gravidade: a linha do mundo da Terra gira em torno do Sol, que
gira em torno da do centro de nossa galáxia.

Suponha que o espaço-tempo fique tão distorcido que algumas linhas mundiais
formam loops fechados (Figura 27.3). Tais linhas mundiais seriam o tempo todo.
Localmente, eles obedeceriam a todas as propriedades familiares do espaço e
do tempo, mas seriam corredores do passado. Se tentássemos seguir
exatamente uma curva temporal fechada (ou CTC) exatamente, a toda a volta,
colidiríamos com nossos eus antigos e seríamos afastados. Mas, seguindo parte
de um CTC, poderíamos voltar ao passado e participar de eventos lá.
Poderíamos apertar a mão de nós mesmos mais jovens ou, se o laço fosse
grande o suficiente, visitar nossos ancestrais. Para fazer isso, devemos ter que
aproveitar as CTCs que ocorrem naturalmente ou criar CTCs distorcendo e
rasgando o tecido do espaço-tempo. Assim, uma máquina do tempo, em vez de
ser um tipo especial de veículo, forneceria uma rota para o passado, ao longo da
qual um veículo comum, como uma espaçonave, poderia viajar. Mas,
diferentemente de uma rota espacial, um CTC (ou melhor, o tubo fechado
semelhante ao tempo)
se acostuma se for atravessado repetidamente; apenas tantos worms da linha
do mundo podem se encaixar nele, e nada mais. Se alguém viaja para um evento
específico, conhece todos que já viajaram ou que viajam para esse evento.

Nosso universo agora, ou sempre, contém CTCs? Não sabemos, mas existem
várias conjecturas teóricas sobre como elas podem ser formadas. O matemático
Kurt Godel encontrou uma solução para as equações de Einstein que descreve
CTCs. Nessa solução, o universo inteiro gira (de acordo com as evidências
atuais, o universo real não). Os CTCs também aparecem em soluções das
equações de Einstein que descrevem buracos negros em rotação. Mas essas
soluções negligenciam a matéria infalível e até que ponto se aplicam a buracos
negros realistas é motivo de controvérsia. Além disso, um viajante do tempo
ficaria preso dentro do buraco negro depois de atingir o passado, a menos que
sua taxa de rotação excedesse um limite crítico. Os astrofísicos acham
improvável que quaisquer buracos negros naturais estejam girando tão rápido.
Talvez uma civilização muito mais avançada que a nossa possa atirar matéria
neles, aumentando sua taxa de rotação até que CTCs seguros apareçam, mas
muitos físicos duvidam que isso seja possível.

Um tipo de atalho no espaço-tempo, chamado buraco de minhoca, foi discutido


pelo físico da Universidade de Princeton, John A. Wheeler. Kip S. Thorne, do
Instituto de Tecnologia da Califórnia e outros, mostraram como duas
extremidades de um buraco de minhoca poderiam ser movidas para formar um
CTC. De acordo com um cálculo recente de J. Richard Gott, de Princeton, uma
cadeia cósmica (outro construto teórico que pode ou não existir na natureza) que
passa rapidamente por outro geraria CTCs.

No momento, estamos muito longe de encontrar qualquer um desses CTCs. Eles


podem, no entanto, tornar-se acessíveis a futuras civilizações, que podem muito
bem tentar decretar paradoxos da viagem no tempo. Vamos, portanto, examinar
mais de perto os paradoxos para ver que princípios, se houver, a viagem no
tempo violariam, de acordo com a física clássica e quântica.

A física clássica diz, inequivocamente, que ao chegar ao passado, Sonia deve


fazer as coisas que a história registra que ela está fazendo. Alguns filósofos
acham isso uma restrição inaceitável de seu "livre arbítrio". Mas, como
argumento contra a viagem no tempo na física clássica, essa objeção não é
convincente. Para a física clássica, na ausência de CTCs, é determinístico: o
que acontece a qualquer instante é totalmente determinado pelo que acontece
em qualquer instante anterior (ou posterior). Consequentemente, tudo o que
fazemos é uma conseqüência inevitável do que aconteceu antes mesmo de
termos sido concebidos. Somente esse determinismo é freqüentemente
considerado incompatível com o livre arbítrio. Portanto, a viagem no tempo não
representa mais uma ameaça ao livre arbítrio do que a própria física clássica.

O verdadeiro núcleo do paradoxo do avô não é a violação do livre arbítrio, mas


de um princípio fundamental subjacente à ciência e ao raciocínio cotidiano;
chamamos isso de princípio da autonomia. De acordo com esse princípio, é
possível criar em nosso ambiente imediato qualquer configuração de

importa que as leis da física permitam localmente, sem referência ao que o resto
do universo pode estar fazendo. Quando acertamos uma partida, não
precisamos nos preocupar em ser frustrados porque a configuração dos
planetas, por exemplo, pode ser inconsistente com a partida sendo acesa.
Autonomia é uma propriedade lógica altamente desejável para as leis da física.
Pois ela sustenta toda a ciência experimental: normalmente tomamos como certo
que podemos montar nosso aparato em qualquer configuração permitida pela lei
física e que o resto do universo se encarregará de si mesmo.

Na ausência de CTCs, tanto a física clássica quanto a quântica estão em


conformidade com o princípio da autonomia. Mas, na presença deles, a física
clássica não, por causa do que John L. Friedman, da Universidade de Wisconsin
e outros chamam de princípio da consistência. Isto afirma que as únicas
configurações da matéria que podem ocorrer localmente são aquelas que são
autoconsistentes globalmente. Sob esse princípio, o mundo fora do laboratório
pode restringir fisicamente nossas ações, mesmo que tudo o que fazemos seja
consistente, localmente, com as leis da física. Normalmente, desconhecemos
essa restrição, porque os princípios de autonomia e consistência nunca entram
em conflito. Mas classicamente, na presença de CTCs, eles fazem.

A física clássica diz que há apenas uma história; portanto, por mais que tente
fazer o que dita a história, a consistência exige que Sonia atue com sua parte
nela. Ela pode visitar seu avô. Mas, talvez, quando ele diz à futura avó de Sonia
o que aconteceu, ela fica preocupada com o estado de saúde dele. Ffe é muito
tocada e propõe a ela; ela aceita. Não só isso pode acontecer - sob a física
clássica, algo como isso deve acontecer. Sonia, longe de alterar o passado,
torna-se parte dele.

E se Sonia estiver determinada a se rebelar contra a história? Suponha que ela


viaja de volta para encontrar seu eu anterior. Nessa reunião, seu eu mais jovem
registra o que seu eu mais velho diz e, no devido tempo, depois de se tornar
esse eu mais velho, tenta deliberadamente dizer algo diferente. Devemos supor,
absurdamente, que ela é tomada por uma compulsão irresistível de pronunciar
as palavras originais, contrariamente às suas intenções anteriores de fazer o
contrário? Sonia poderia até programar um robô para falar por ela: seria de
alguma forma forçado a desobedecer a seu programa?

Dentro da física clássica, a resposta é sim. Algo deve impedir que Sonia ou o
robô se desviem do que já aconteceu. No entanto, não precisa ser nada
dramático. Qualquer problema comum será suficiente. O veículo de Sonia
quebra ou o programa do robô acaba contendo um bug. Mas, de um jeito ou de
outro, de acordo com a física clássica, a consistência exige que o princípio da
autonomia fracasse.
Agora, voltemos à história do crítico de arte que viaja no tempo. Chamamos essa
violação do senso comum de paradoxo do conhecimento (o paradoxo do avô é
um paradoxo da inconsistência). Usamos o termo “conhecimento” aqui em um
sentido estendido, segundo o qual uma pintura, um artigo científico, uma peça
de maquinaria e um organismo vivo incorporam conhecimento. Os paradoxos do
conhecimento violam

o princípio de que o conhecimento só pode existir como resultado de processos


de solução de problemas, como evolução biológica ou pensamento humano. A
viagem no tempo parece permitir que o conhecimento flua do futuro para o
passado e para trás, em um loop autoconsistente, sem que ninguém ou nada
tenha que lidar com os problemas correspondentes. O que é filosoficamente
objetável aqui não é que artefatos de conhecimento sejam transportados para o
passado - é o elemento "almoço grátis". O conhecimento necessário para
inventar os artefatos não deve ser fornecido pelos próprios artefatos.

Em um paradoxo de inconsistência, os eventos físicos parecem ser mais


fortemente restringidos do que estamos acostumados. Em um paradoxo do
conhecimento, eles são menos restritos. Por exemplo, o estado do universo
antes da chegada do crítico de arte não determina quem, se alguém, chegará do
futuro ou o que ele trará: as leis geralmente determinísticas da física clássica
permitem que o crítico traga ótimas fotos , imagens ruins ou nenhuma imagem.
Essa indeterminação não é o que geralmente esperamos de

física clássica, mas não constitui impedimento fundamental para a viagem no


tempo. De fato, a indeterminação permitiria que as leis clássicas fossem
complementadas com um princípio adicional, afirmando que o conhecimento só
pode surgir como resultado de processos de solução de problemas.

No entanto, esse princípio nos colocaria no mesmo problema de autonomia que


encontramos no paradoxo do avô. Pois o que impede a Sonia de levar novas
invenções para o passado e mostrá-las aos seus supostos criadores? Portanto,
embora a física clássica possa, afinal, acomodar o tipo de viagem no tempo que
é geralmente considerada paradoxal, ela faz isso à custa de violar o princípio da
autonomia. Portanto, nenhuma análise clássica pode eliminar completamente o
paradoxo.

Tudo isso, no entanto, é em nossa opinião acadêmico. Pois a física clássica é


falsa. Existem muitas situações em que é uma excelente aproximação à verdade.
Mas quando curvas fechadas semelhantes ao tempo estão envolvidas, ela nem
chega perto.

Uma coisa que já sabemos sobre os CTCs é que, se eles existem, precisamos
da mecânica quântica para entendê-los. De fato, Stephen W. Hawking, da
Universidade de Cambridge, argumentou que os efeitos da mecânica quântica
impediriam a formação de CTCs ou destruiriam qualquer viajante do tempo que
se aproximasse de um. De acordo com os cálculos de Hawking, que usam uma
aproximação que ignora os efeitos gravitacionais dos campos quânticos, as
flutuações nesses campos se aproximariam do infinito próximo ao CTC. As
aproximações são inevitáveis até descobrirmos como aplicar totalmente a teoria
quântica à gravidade; mas os tempos espaciais que contêm CTCs levam as
técnicas atuais além dos limites em que podem ser aplicadas com confiança.
Acreditamos que os cálculos de Hawking revelam apenas as deficiências dessas
técnicas. Os efeitos da mecânica quântica que iremos descrever, longe de
impedir a viagem no tempo, realmente a facilitariam.

A mecânica quântica pode exigir a presença de curvas fechadas semelhantes


ao tempo. Embora sejam difíceis de encontrar em grandes escalas, as CTCs
podem ser abundantes em escalas submicroscópicas, onde predominam os
efeitos da mecânica quântica. Ainda não existe uma teoria totalmente satisfatória
da gravidade quântica. Mas, de acordo com muitas versões propostas, o espaço-
tempo, embora pareça suave em grandes escalas, tem uma estrutura
submicroscópica semelhante a espuma contendo muitos buracos de minhoca,
bem como CTCs que atingem cerca de 10 a 42 segundos no passado. Pelo que
sabemos, a viagem no tempo por partículas subatômicas pode estar
acontecendo ao nosso redor.

Mais importante, a mecânica quântica pode resolver os paradoxos da viagem no


tempo. É a nossa teoria física mais básica e constitui um afastamento radical da
cosmovisão clássica. Em vez de prever com certeza o que observaremos, ele
prevê todos os resultados possíveis de uma observação e a probabilidade de
cada uma. Se esperarmos que um nêutron decaia (em um próton, um elétron e
um antineutrino), provavelmente observaremos isso em cerca de 20 minutos.
Mas podemos observá-lo imediatamente ou ser mantido

esperando indefinidamente. Como devemos entender essa aleatoriedade?


Existe algo sobre o estado interno dos nêutrons, atualmente desconhecido, que
difere de um nêutron para outro e explica por que cada nêutron se rompe quando
ocorre? Essa idéia superficialmente atraente acaba por entrar em conflito com
as previsões da mecânica quântica que foram corroboradas experimentalmente.

Outras tentativas foram feitas para preservar nossas intuições clássicas,


modificando a mecânica quântica. Geralmente, nenhum é considerado como
tendo êxito. Portanto, preferimos considerar a mecânica quântica pelo valor de
face e adotar uma concepção da realidade que espelha diretamente a estrutura
da própria teoria. Quando nos referimos à mecânica quântica, entendemos sua
chamada interpretação de muitos universos, proposta pela primeira vez por
Hugh Everett III em 1957. Segundo Everett, se algo pode acontecer fisicamente,
acontece - em algum universo. A realidade física consiste em uma coleção de
universos, às vezes chamada de multiverso. Cada universo do multiverso
contém sua própria cópia do nêutron cuja decadência queremos observar. Para
cada instante em que o nêutron pode decair, existe um universo no qual decai
nesse instante. Visto que a observamos decaindo em um instante específico,
também devemos existir em muitas cópias, uma para cada universo. Em um
universo, vemos o nêutron se romper às 10:30, em outro às 10:31 e assim por
diante. Aplicada ao multiverso, a teoria quântica é determinística - ela prevê a
probabilidade subjetiva de cada resultado prescrevendo a proporção de
universos nos quais esse resultado ocorre.

A interpretação de Everett da mecânica quântica ainda é controversa entre os


físicos. A mecânica quântica é comumente usada como uma ferramenta de
cálculo que, dada uma entrada - informações sobre um processo físico - produz
a probabilidade de cada saída possível. Na maioria das vezes, não precisamos
interpretar a matemática que descreve esse processo. Mas existem dois ramos
da física - a cosmologia quântica e a teoria quântica da computação - em que
isso não é bom o suficiente. Esses ramos têm como objeto todo o funcionamento
interno dos sistemas físicos em estudo. Entre os pesquisadores desses dois
campos, a interpretação de Everett prevalece.

O que, então, a mecânica quântica, pela interpretação de Everett, diz sobre os


paradoxos da viagem no tempo? Bem, o paradoxo do avô, por exemplo,
simplesmente não surge. Suponha que Sonia embarque em um projeto
"paradoxal" que, se concluído, impediria sua própria concepção. O que
acontece? Se o espaço-tempo clássico contém CTCs, então, de acordo com a
mecânica quântica, os universos do multiverso devem ser ligados de uma
maneira incomum. Em vez de termos muitos universos paralelos e disjuntos,
cada um contendo CTCs, temos de fato um espaço-tempo complicado e
complicado, consistindo em muitos universos conectados. Os vínculos forçam
Sonia a viajar para um universo idêntico, até o instante de sua chegada, com o
que ela deixou, mas que é posteriormente diferente por causa de sua presença.

Então, Sonia impede o próprio nascimento ou não? Isso depende de qual


universo se refere. No universo em que ela sai, em que nasceu, o avô se casou
com a avó porque, naquele universo, ele não recebeu nenhuma visita de Sonia.
No outro universo, aquele para quem Sonia viaja, seu avô não se casa com essa
mulher em particular, e Sonia nunca nasce.

Assim, o fato de Sonia estar viajando no tempo não restringe suas ações. E,
segundo a mecânica quântica, acontece que nunca aconteceria. A mecânica
quântica, mesmo na presença de CTCs, está em conformidade com o princípio
da autonomia.

Suponha que Sonia tente ao máximo encenar um paradoxo. Ela decide que
amanhã entrará na máquina do tempo e emergirá hoje, a menos que uma versão
do seu primeiro emerge hoje, partindo de amanhã; e que se uma versão dela
surgir hoje, ela não entrará na máquina do tempo amanhã. Na física clássica,
essa resolução é auto-contraditória. Mas não sob a física quântica. Na metade
dos universos - chame-os de A -, uma Sonia mais velha sai da máquina do
tempo. Consequentemente, assim como ela resolveu, Sonia não entra na
máquina do tempo amanhã, e cada universo A depois contém dois Sonias de
idades ligeiramente diferentes. Nos outros universos (B), ninguém emerge da
máquina do tempo. Então Sonia parte e chega a um universo A, onde conhece
uma versão mais jovem de si mesma. Mais uma vez, ela pode se comportar
como gosta no passado, fazendo coisas que se afastam de suas lembranças
(precisas).

Então, na metade dos universos, há uma reunião entre dois Sonias, e na metade,
não. Nos universos A, uma Sonia mais velha aparece "do nada" e nos universos
B ela desaparece "para o nada". Cada universo A contém dois Sonias, o mais
antigo tendo iniciado a vida no universo B. Sonia desapareceu de cada universo
B, tendo emigrado para um universo A.

Por mais complicados que sejam os planos de Sonia, a mecânica quântica diz
que os universos se vinculam de tal maneira que ela pode executá-los de forma
consistente. Suponha que Sonia tente causar um paradoxo viajando pelo link
duas vezes. Ela quer reaparecer no universo de onde começou e se juntar ao
seu eu anterior para um jantar de espaguete em vez do refogado que ela lembra
de ter. Ela pode se comportar como quiser e, em particular, comer o que quiser,
em companhia de seu eu mais jovem; no entanto, o multiverso, por estar ligado
de uma maneira diferente da do paradoxo anterior, a impede de fazê-lo em seu
universo original. Sonia pode conseguir compartilhar espaguete com uma versão
de si mesma apenas em outro universo, enquanto no universo original ela ainda
está sozinha, comendo salteados.

A viagem no tempo tornaria possível outro fenômeno curioso, que chamamos de


separação assimétrica. Suponha que o namorado de Sonia, Stephen, fique para
trás enquanto ela usa sua máquina do tempo de uma das maneiras que
descrevemos. Na metade dos universos, ela entra e nunca mais volta. Assim, a
partir de Stephen

ponto de vista, existe a possibilidade de ele ser separado dela. Metade das
versões dele verá Sonia saindo, para nunca mais voltar. (A outra metade será
acompanhada por uma segunda Sonia.) Mas, do ponto de vista de Sonia, não
há possibilidade de ela ser separada de Stephen, porque cada versão dela
terminará em um universo contendo uma versão dele - a quem ela terá que
compartilhar com outra versão de si mesma.

Se Stephen e Sonia seguirem um plano semelhante - entrar na máquina do


tempo se e somente se a outra não surgir primeiro - eles podem se separar
completamente, terminando em universos diferentes. Se eles executam
intenções mais complexas, cada um deles pode acabar na companhia de
qualquer número de versões do outro. Se a viagem no tempo fosse possível em
grande escala, as civilizações galácticas concorrentes poderiam usar esses
efeitos de separação assimétricos para ter toda a galáxia para si. Além disso,
uma civilização inteira poderia "se clonar" em qualquer número de cópias, assim
como Sonia. Quanto mais vezes isso acontecia, mais provável era que um
observador o visse desaparecer do universo, assim como Stephen vê Sonia
desaparecer do universo A quando seu "clone" aparece no universo B. (Talvez
isso explique por que ainda não encontramos extraterrestres!)
Na história do crítico de arte, a mecânica quântica permite que eventos, da
perspectiva dos participantes, ocorram da mesma maneira que Dummett
descreve. O universo de onde o crítico vem deve ter sido aquele em que o artista
acabou aprendendo a pintar bem. Nesse universo, as imagens foram produzidas
por esforço criativo, e as reproduções foram posteriormente levadas ao passado
de outro universo. Lá, as pinturas foram realmente plagiadas - se é que se pode
dizer que plagiam o trabalho de outra versão de si mesmo - e o pintor recebeu
“algo por nada”. Mas não há paradoxo, porque agora a existência das imagens
foi causada por genuínas esforço criativo, ainda que em outro universo.

A idéia de que os paradoxos da viagem no tempo poderiam ser resolvidos por


"universos paralelos" foi antecipada na ficção científica e por alguns filósofos. O
que apresentamos aqui não é tanto uma nova resolução, mas uma nova maneira
de chegar a ela, deduzindo-a da teoria física existente. Todas as alegações que
fizemos sobre viagens no tempo são conseqüências do uso da mecânica
quântica padrão para calcular o comportamento dos circuitos lógicos - assim
como os usados em computadores, exceto pela suposição adicional de que as
informações podem viajar pelo passado ao longo dos CTCs. Os viajantes do
tempo neste modelo de computador são pacotes de informações. Resultados
semelhantes foram obtidos usando outros modelos.

Esses cálculos descartam definitivamente os paradoxos da inconsistência, que


acabam sendo apenas artefatos de uma visão de mundo clássica obsoleta.
Argumentamos que os paradoxos do conhecimento também não apresentariam
obstáculos à viagem no tempo. Mas não se pode tornar esse argumento
hermético até que conceitos como conhecimento e criatividade tenham sido
traduzidos com sucesso para a linguagem da física. Só então se pode dizer se
o “almoço sem graça”

O princípio que exigimos - que são necessários processos de solução de


problemas para criar conhecimento - é consistente, na presença de CTCs, com
a mecânica quântica e o restante da física.

Há um argumento final que é frequentemente levantado contra as viagens no


tempo. Como Hawking coloca: "A melhor evidência de que a viagem no tempo
nunca será possível é que não seremos invadidos por hordas de turistas no
futuro". Mas isso é um erro. Pois um CTC chega apenas no momento em que foi
criado. Se o primeiro CTC navegável da Terra for construído em 2054, os
viajantes do tempo subsequentes poderão usá-lo para viajar para 2054 ou mais
tarde, mas não antes. CTCs navegáveis podem já existir em outras partes da
galáxia. Mas, mesmo assim, não devemos esperar “hordas de turistas no futuro”.
Dada a capacidade limitada dos CTCs e que nosso estoque deles a qualquer
momento não pode ser reabastecido neste universo, um CTC é um recurso não
renovável. Civilizações extraterrestres ou nossos descendentes terão suas
próprias prioridades para seu uso, e não há razão para supor que visitar a Terra
no século 20 esteja no topo de sua lista. Mesmo assim, eles chegariam apenas
a alguns universos, dos quais, presumivelmente, esse não é um.
Concluímos que, se a viagem no tempo for impossível, o motivo ainda não foi
descoberto. Um dia, podemos ou não localizar ou criar CTCs navegáveis. Mas
se algo como o quadro de muitos universos é verdadeiro - e na cosmologia
quântica e na teoria quântica da computação nenhuma alternativa viável é
conhecida - todas as objeções padrão à viagem no tempo dependem de modelos
falsos de realidade física. Portanto, cabe a quem ainda deseja rejeitar a idéia de
viajar no tempo apresentar algum novo argumento científico ou filosófico.

Milagres e Maravilhas:

Ficção científica como epistemologia

Richard Hanley

Eu sempre fui atraído pela ficção científica, em parte porque a ficção científica é
muito imaginativa. A visão de mundo de todos ao meu redor sempre parecia a
horrível culinária inglesa / australiana com a qual eu cresci: todos os dias a
mesma velha loja de carne e três legumes, que só parece a melhor coisa
disponível se você se recusar a tentar qualquer coisa outro. Agora eu moro nos
EUA, e algumas coisas não mudaram. A maioria das pessoas ao meu redor
come comida absolutamente nojenta e acredita em coisas absolutamente
ultrajantes sem um bom motivo.

Mas poderia haver um tipo de boa razão - evidência - para crer em coisas
sobrenaturais? Uma indústria filosófica menor surgiu nos últimos anos
defendendo a possibilidade e a utilidade epistêmica dos milagres: intervenções
sobrenaturais no mundo por um Deus cristão. Examinando alguns elementos
básicos da ficção científica, vou encontrar uma maneira de concordar: milagres
são possíveis e podem nos dizer algo sobre a realidade. Mas não fique muito
animado: duvido que minha conclusão ofereça algum conforto ao cristianismo
tradicional.

Nenhuma discussão sobre milagres e maravilhas pode prosseguir sem


mencionar David Hume, então vamos tirar isso do caminho.

Humeans em milagres

Ninguém sabe ao certo o que o próprio Hume pensou, mas há uma tradição
humeana identificável em milagres. Afirma que você nunca seria justificado em
pensar que um milagre ocorreu e faz dois pontos principais.

Detalhes da publicação original: “Milagres e Maravilhas: Ficção Científica como


Epistemologia”, Richard Hanley. Cortesia de R. Hanley.
Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda
edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

Primeiro, por definição, um milagre está em algum sentido relevante além do que
as leis da natureza podem descrever e explicar. Requer que algo aconteça que
seja contrário às leis da natureza, necessitando de explicação sobrenatural.
Suponha que ocorra algo maravilhoso, que é estabelecido como contrário ao
nosso entendimento atual das leis da natureza. Então, temos duas opções: ou
aceitar que é um milagre, exigindo explicação sobrenatural; ou então revisar
nossa compreensão das leis da natureza. Os humeans sustentam que nunca
será mais plausível optar por uma explicação milagrosa. Afinal, sabemos muito
bem, por experiência passada, que nossa compreensão da natureza é limitada;
portanto, qualquer ocorrência, por mais maravilhosa que seja, deve enviar
cientistas de volta à prancheta para obter melhores explicações naturais.

O segundo ponto pretende, em geral, minar as reivindicações de uma maravilha


estabelecida que é contrária ao nosso entendimento das leis da natureza; para
impedir que uma reivindicação milagrosa atinja os limites. Essa crença seria
baseada no testemunho (seja o testemunho de outra pessoa ou o testemunho
de seus sentidos), e nunca é mais provável que o milagre realmente tenha
ocorrido do que o depoimento está errado. Portanto, você nunca seria justificado
em acreditar que um milagre ocorreu.

Essas são considerações poderosas, que eu acho que na maioria dos casos de
alegações reais de milagres vencem com facilidade. Mas o segundo ponto
parece exagerado. Lembre-se da Terceira Lei de Arthur C. Clarke, "qualquer
tecnologia suficientemente avançada é indistinguível da mágica", pelo menos a
princípio. (Entendo que Clarke entende por mágica algo que não é um mero
truque de mágico , por mais impressionante que possa ser.) O que parece
mágica pode estar além do nosso entendimento atual; portanto, certamente deve
haver condições sob as quais é plausível acreditar que de fato ocorreu de
qualquer maneira.

Em geral, quanto mais pessoas parecem ver algo, mais a sério devemos levá-
lo. Nem sempre, é claro - mesmo milhares de pessoas, se estiverem todas sob
o domínio de um fervor religioso ou outro, podem se convencer de que vêem
coisas que não estão lá. Portanto, o tipo de evidência que deveríamos levar mais
a sério seria robusto: relatórios corroborados de pessoas de diversas origens e
crenças, sob diferentes tipos de condições.

(Considere, por exemplo, o fenômeno frequentemente reivindicado da


experiência de quase morte. Não tenho dúvida de que realmente há um
fenômeno comumente vivido aqui - como a visão da “luz” -, mas várias alegações
como encontrar os parentes mortos são muito culturalmente específico e nem de
longe suficientemente robusto.)

Três modernos milagres dos milagres

Que tipo de evidência robusta poderia fazer o trabalho e também derrubar o


primeiro ponto humeano? Aqui está CS Lewis (1986): “Se o fim do mundo
apareceu em todas as armadilhas literais do Apocalipse; se o materialista
moderno via com

Com os próprios olhos, os céus se arregalaram e um grande trono branco


apareceu; se ele tivesse a sensação de ser jogado no lago de fogo, continuaria
para sempre, naquele lago, a considerar sua experiência como uma ilusão e a
encontrar a explicação. em psicanálise ou patologia cerebral ".

Aqui está Peter Heath (1976): “Se as estrelas e as galáxias se deslocassem da


noite para o dia no firmamento, se rearranjando de modo a soletrar, em várias
línguas, slogans como EU SOU O QUE SOU, ou DEUS É AMOR ... alguém
perderia muito tempo admitindo que isso resolvia o problema? ”

Ou considere William Dembski (1994): o “Pulsar Falante Incrível” está a 3 bilhões


de anos-luz de distância, transmite mensagens no Código Morse e responde às
perguntas que colocamos - em apenas dez minutos! As perguntas são difíceis,
mas as respostas são verificáveis e o Pulsar está sempre certo. (Algumas provas
são incontestáveis - como a Conjectura de Goldbach, talvez - mas são pelo
menos verificáveis se falsas.) Como há perguntas que sabemos que estão além
dos recursos computacionais do universo, as respostas para elas seriam,
segundo Dembski, evidência de O divino.

Ok, essas eram três das coisas favoritas do vendedor de milagres. Agora vamos
examinar três minhas e juntá-las.

Três das minhas coisas favoritas de ficção científica: viagem no tempo, outras
dimensões e simulações

A possibilidade de viajar no tempo é algo em que acredito. Mas, na maioria das


vezes, as histórias de ficção científica sobre viagens são impossíveis, uma vez
que caem em um truque de três cartas. Eles descrevem a viagem no tempo como
um meio de anular o passado: por defender que (irrestritamente) algum evento
ocorreu e nunca ocorreu. Mas isso é uma contradição, e nenhuma máquina ou
qualquer outra coisa pode fazer com que uma contradição seja verdadeira.
Portanto, você não precisa ser humiano para concluir que qualquer aparência de
contradição não estabelece realmente que uma contradição seja verdadeira -
nunca será aconselhável revisar as leis da lógica. (Claro, sempre há alguém que
discorda - veja a literatura de lógica de relevância e dialetismo, se você estiver
interessado em negociantes de contradição.)
Uma viagem no tempo consistente pode envolver coisas maravilhosas:
conhecimento muito específico do futuro, tecnologia avançada, pessoas estando
em dois lugares ao mesmo tempo, pessoas sendo pais e assim por diante. Mas
estes não perturbarão os humeanos nem um pouco. Roy Sorenson (1987)
concorda, mas ele aparentemente acha que apenas o segundo ponto humeano
precisa ser feito. Ou seja, Sorenson acha que você nunca poderia ter provas
suficientes de que você ou qualquer outra pessoa viajou no tempo. Estou mais
otimista quanto a isso. Por exemplo, algo como o Almanaque Esportivo de Volta
ao Futuro II poderia, a meu ver, estabelecer que as informações, se não o próprio
almanaque, viajaram no tempo. Mas também acho que o primeiro ponto
humeano permanece.

Os visitantes do futuro podem, como observamos acima, parecer possuidores


de poderes mágicos, uma vez que nossa física não pode dar conta deles, e há
físicos suficientes por perto que acreditam de qualquer maneira que a viagem no
tempo é fisicamente impossível. Mas certamente devemos dar credibilidade à
possibilidade de que os físicos estejam errados e que sua compreensão da
natureza precise de revisão.

Então, por que Dembski não dá credibilidade à viagem no tempo como uma
possível explicação do incrível pulsar de fala? Talvez a troca incrivelmente rápida
de informações entre nós e o pulsar ocorra de maneiras fisicamente possíveis,
porque a viagem no tempo está envolvida. Por que pular tão rapidamente para
a conclusão sobrenatural? Resposta: porque essa é a hipótese que Dembski é
favorável antes de considerar as evidências.

Hipóteses de outras dimensões aumentam ainda mais nossos horizontes.


Considere Flatland, de Edwin Abbott , a história de seres bidimensionais,
percebendo bidimensionalmente, habitando um mundo bidimensional em um
universo que é de fato tridimensional. Suponha que um Flatlander inteligente
conceba a terceira dimensão e construa uma casa na forma de um hiperespaço
desdobrado (nós chamaríamos de cubo). Ou seja, ele constrói uma casa de seis
quadrados, quatro seguidos, com mais dois anexados um de cada lado ao
segundo da fila. Mas ele o constrói em uma linha de falha e (por analogia com o
infeliz protagonista de And Fie Built a Crooked House, de Robert Heinlein ), sua
casa se dobra em um cubo, com uma face em Flatland. Agora ele entra em sua
casa e, quando muda de quarto (os quartos estão em ângulo reto, graças à
dobra), parece que o resto de Flatland desapareceu no ar. Se ele continuasse
pela casa, poderia reaparecer em Flatland, em um local diferente.

Sem dúvida, seus colegas planlandeses suspeitariam que a magia está


funcionando, mas se forem imaginativos o suficiente, terão que considerar
seriamente a possibilidade de uma terceira dimensão em ângulo reto com os
dois familiares. Da mesma forma, a hipótese de uma quarta dimensão espacial
em ângulo reto com nossos três familiares deve ser levada a sério quando somos
confrontados com qualquer ocorrência maravilhosa. Isso envolverá mais do que
aparência e desaparecimento. Por exemplo, a casa do cubo aparece para os
nossos Flatlanders como um quadrado, mas assumirá outras aparências
bidimensionais se for girada em um plano ortogonal a Flatland. Da mesma forma,
se somos seres tridimensionais em um mundo quadridimensional, também
contendo seres quadridimensionais, teremos apenas a perspectiva mais
distorcida e distorcida da realidade mais abrangente, mesmo que estejamos
cientes de sua existência. (Talvez já tenhamos essas evidências, como o
experimento de duas fendas.)

E não devemos apenas assumir que somos nós mesmos meramente


tridimensionais. Pode ser que alguns Flatlanders sejam de fato tridimensionais,
mas suas percepções sejam limitadas a Flatland; portanto, eles apenas veem a
perspectiva distorcida de Flatland sobre si mesmos.

Uma maneira óbvia de entender a viagem no tempo é envolver uma hipótese de


outra dimensão, com a quarta dimensão sendo temporal e não espacial. Nesse
caso, podemos de fato ser estendidos em quatro dimensões, mas apenas
perceber nossa extensão nas três espaciais. Olhando para mim agora, você vê
apenas uma pequena parte temporal de um verme espaço-temporal que se
estende por mais (muito mais, espero) que cinquenta anos. A viagem no tempo
seria, então, um meio alternativo de atravessar essa dimensão (isto é, de uma
maneira que não seja a passagem comum do tempo).

E não precisamos parar por aí. Talvez exista uma dimensão adicional do tempo
- chame de hipertempo - e nosso universo quadridimensional é apenas um dos
muitos ramos de um inverso. A viagem no hipertemporal envolveria a mudança
de cronogramas e, portanto, é possível encontrar todo tipo de maravilhas
inesperadas. Um viajante do tempo pode parecer fazer o impossível e mudar o
passado, por exemplo. Mas isso não é milagre, nem ameaça para os humeanos.
Adicione quantas dimensões espaciais e temporais desejar, e o mundo fica mais
maravilhoso, mas não mais milagroso.

Agora, a terceira das minhas coisas favoritas: simulações. Levo a sério (a) a
possibilidade de simulações e (b) a probabilidade não desprezível de ocuparmos
uma (veja o capítulo 2 de Nick Bostrom neste volume). Aqui está outra
possibilidade: as simulações podem ter o que chamarei de falhas. As falhas
podem ser acidentais, sistêmicas ou deliberadas. Uma falha acidental não é
intencional e é difícil de antecipar, porque não possui explicação sistemática.
Isso acontece de tempos em tempos. (Meu exemplo fictício favorito é o "déjà vu"
que vemos em Matrix.) Uma falha sistêmica não é intencional, mas surge como
uma característica da implementação da simulação. (Meu exemplo fictício
favorito é o limite da simulação completa no décimo terceiro andar, onde os
detalhes acabam - é um pouco como assistir a uma animação incompleta.) Uma
falha deliberada é aquela que os simuladores pretendem. (Não tenho um
exemplo fictício favorito, porque não tenho um exemplo fictício. Mas acho que o
recurso de "resgate") nas simulações descritas na Permutation City de Greg
Egan se aproxima.) Como será uma falha no simulação se manifesta? Como
uma ocorrência maravilhosa, aparentemente contrária às leis do mundo virtual.

Simulação Epistemologia e Metafísica


As hipóteses de simulação geralmente são interpretadas como hipóteses
céticas, como observa Chalmers (capítulo 5 deste volume). O argumento cético
é mais ou menos assim:

1. Se você sabe que está nos EUA, sabe que não está em uma simulação.

2. Como você não sabe que não está em uma simulação, não sabe que está nos
EUA.

3. De fato, mesmo que você não esteja em uma simulação, qualquer coisa que
você acredite sobre o mundo fora da sua mente não é conhecimento, mesmo
que seja verdade, porque você pode estar em uma simulação.

Dan Dennett (1991) argumentou que o ceticismo pode ser derrotado porque
sabemos que não estamos em uma simulação. Os recursos computacionais
necessários para manter uma simulação interativa semelhante a um mundo
sofrem explosão explosiva - eles estão extraordinariamente além de nossas
capacidades atuais. No entanto, esse argumento não funciona, pois (a) nossa
evidência de explosão combinatória pode ser parte do que é simulado, de modo
que superestimamos drasticamente o que é necessário; e (b) nossa evidência
dos limites dos recursos de uma simulação pode faça parte do que é simulado,
para que subestimamos drasticamente o que está disponível!

Dembski ou falha em considerar a possibilidade de simulação (meu diagnóstico


preferido) ou comete exatamente o mesmo erro que Dennett. Se isso é uma
simulação, então, como as coisas estão, simplesmente não temos idéia se o
mundo dos simuladores tem ou não os recursos para calcular coisas que não
podemos. E se o Incredible Talking Pulsar de Dembski fosse real, deveríamos
considerar seriamente que estamos sendo simulados; nesse caso, poderemos
afinal ter evidências de que os simuladores são capazes de calcular coisas que
não podemos.

Deixe-me repetir a acusação contra os milagres. Eles são sem imaginação,


simplesmente falhando completamente em permitir à oposição recursos
intelectuais razoáveis. Portanto, é irônico que CS Lewis, por exemplo, acuse o
"materialista moderno" de fechar dogmaticamente sua mente para as gloriosas
possibilidades que o cristianismo oferece. Lewis imagina que a única
racionalização possível para a negação é a explicação em termos de
"psicanálise ou patologia cerebral". Mas descrevi três alternativas diferentes à
interpretação cristã de ocorrências maravilhosas, nenhuma das quais envolve a
hipótese de aberração mental. Assim, mesmo se seria dogmático insistir que ele
(o fenômeno maravilhoso) era uma ilusão, que é um caminho muito longo de
demonstrar que isso é evidência para o divino. No entanto ...

Um argumento para milagres


Se os eventos que Lewis imagina realmente ocorrerem e forem observados com
robustez, como um não-cristão como eu deve reagir? A hipótese da simulação
parece bem adequada aqui, especialmente a hipótese de uma falha deliberada
. Considero a crença cristã típica como incluindo muitas histórias obviamente
óbvias, até tolas, sobre o que podemos esperar em nosso futuro. Se os
simuladores sabem o que os cristãos acreditam e têm uma visão sombria
semelhante, talvez eles

vai mexer conosco, dando-nos as experiências que os cristãos esperam. (A


propósito, a suposição otimista de Lewis é que os materialistas serão lançados
no lago, mas, na hipótese da simulação, não há razão para que as coisas tenham
que ser assim!)

A simulação com uma hipótese deliberada de falha parece uma boa resposta
geral a qualquer comerciante de milagres. Nossos simuladores obteriam um
ROFL particularmente bom ao produzir o fenômeno de Heath. Qual a melhor
maneira de fazer uma piada à custa de um monte de sims que têm a arrogância
de supor que são as coisas mais importantes já criadas?

Observe que os sims acertam algo - eles são criados. E por algo muito mais
poderoso, experiente e geralmente impressionante do que eles são. Mas isso
significa Deus? Bem, isso depende bastante.

David Chalmers (capítulo 5 deste volume) argumenta que, se você sempre


esteve em uma simulação, o fato de estar em uma simulação não é uma grande
ameaça para você saber muito bem o que pensou que fez. Não é só que você
não tem crenças falsas sobre a sua situação, mas também que você faz tem um
monte de crenças verdadeiras sobre ele, porque um sim '% crenças são em
grande parte sobre as coisas virtuais - outros sims e similares - e não sobre a
realidade subjacente do mundo dos simuladores. Em outras palavras, quando
você pensa que está nos EUA, pode estar correto, porque os EUA fazem parte
da simulação e não fazem parte do mundo dos simuladores. (Mesmo que isso
seja, em algum sentido bastante íntimo, uma simulação do mundo dos
simuladores, nossos EUA não são os EUA deles , e nossas crenças são sobre
as nossas, não as deles. Portanto, mesmo que eu não esteja nos Estados Unidos
agora no entanto, eu realmente acredito que estou no nosso.)

Como essa hipótese metafísica ajuda os milagres? É tentador dizer que isso não
muda nada: os humeanos ainda podem responder que aparentes milagres
(falhas), incluindo os do tipo deliberado, são no máximo evidência de que o
mundo natural é muito maior do que normalmente pensamos. Mas considere
duas definições recentes do filósofo da religião Paul Draper (2005: 277-8):

uma. x é sobrenatural = df x não faz parte da natureza ex afeta a natureza.


b. natureza = df do universo espaço-temporal das entidades físicas, juntamente
com quaisquer entidades que sejam ontológica ou causalmente redutíveis a
essas entidades.

Quais são exatamente as entidades físicas, se for uma simulação? Eles são
aquilo a que nossa física se refere com sucesso e, pelo argumento de Chalmers,
eles fazem parte da simulação. Por isso, afirmo que, se Chalmers e Draper
estiverem corretos, o mundo dos simuladores é sobrenatural, pois não faz parte
da simulação e afeta causalmente a simulação. Portanto, o tipo certo de falha na
simulação será uma evidência para o sobrenatural.

Talvez se oponha que os simuladores não sejam benevolentes (eu concordo isso
prontamente), mas é melhor os cristãos não dizerem isso, se insistirem na
alegação tradicional de que não temos evidências contra a benevolência de
Deus. Talvez se oponha que os simuladores não sejam onipotentes. Mas qual é
a evidência contrária? Sem dúvida, os simuladores estão vinculados à lógica e
à matemática relevante, mas apenas um cristão louco nega que Deus não esteja
igualmente vinculado à necessidade lógica. Talvez se afirme que os simuladores
não precisam controlar todos os aspectos da existência de um sim, pelo menos
não diretamente. Melhor configurar uma programação relativamente
autodirigida, delegando grande parte da tomada de decisão aos próprios sims.
Isso pode ser considerado uma ameaça à onipotência e à onisciência dos
simuladores. Mas, novamente, é melhor não ouvirmos nenhum cristão alegando
que esse dom de livre arbítrio para os sims faz com que os simuladores sejam
diferentes de Deus. Talvez se afirme que existe apenas um Deus - ou um e três
ao mesmo tempo - mas talvez haja apenas um simulador, ou um e três ao mesmo
tempo.

(Argumentei antes que o Deus cristão está no negócio de simulação: em Hanley,


2005, 1 argumentam que apenas uma hipótese de simulação muito específica
pode atender aos critérios padrão para o céu cristão. Deus teria que estar de
acordo com suas axilas divinas. outros argumentos de ficção científica
também.Eu argumento em Hanley, 1997, que o Deus cristão teria que estar no
negócio de teletransporte, a fim de explicar a sobrevivência da morte
corporal.Uma outra possibilidade que eu gostaria de explorar é que o próprio
Deus é uma simulação ... ei - talvez sejam simulações até o fim!)

Apesar do fato de que a hipótese do simulador aparentemente atende a todos


os critérios padrão de Deus (pelo menos, dado que os cristãos aplicam os
critérios de forma consistente, definitivamente não viola nenhum deles), duvido
que a hipótese seja encontrada com algo diferente de horror pelos cristãos
tradicionais. Portanto, curiosamente, as definições de Draper podem
decepcionar teístas e humeanos. A escolha desconfortável para ambos é (a)
apresentar definições alternativas plausíveis, (b) eliminar a hipótese da
simulação, (c) eliminar a hipótese metafísica de Chalmers ou (d) garantir que é
possível ter evidências do sobrenatural, apenas concebido um pouco mais
imaginativamente.
Referências

Dembski, WA (1994). Sobre a Possibilidade do Design Inteligente. Em Moreland,


JP (ed.), The Hypothesis de Criação: Evidência Científica para um Designer
Inteligente. Downers Grove, IL: Inter Varsity Press, 113-38.

Dennett, D. (1991). Consciência explicada. Boston, MA: Little, Brown & c


Company.

Draper, P. (2005). Deus, ciência e naturalismo. Em Wainwright, WJ (ed.), The


Oxford Handbook of Philosophy of Religion. Oxford: Oxford University Press,
272-303.

Hanley, R. (1997). A Metafísica de Jornada nas Estrelas. Nova York: Livros


Básicos.

Hanley, R. (2005). Nunca os Twain se encontrarão: reflexões sobre a primeira


matriz.

Em Grau, C. (ed.), Philosophers Explore The Matrix. Oxford: Oxford University


Press, 115-31.

Heath, P. (1976). O Incrível Hume. American Philosophical Quarterly 13: 159-63.

Lewis, CS (1986). O Grande Milagre. Nova York: Ballantyne.

Sorenson, R. (1987). Viagem no Tempo, Para-História e Hume. Philosophy 62:


227-36.

Apêndice: Filósofos recomendam ficção científica

Eric Schwitzgebel

Considere duas visões possíveis da relação entre filosofia e ficção científica.

Na primeira visão, a ficção científica simplesmente ilustra, ou torna mais


acessível, o que poderia ser dito tão ou melhor em um ensaio filosófico
discursivo. Aqueles que não conseguem suportar discussões puramente
abstratas sobre a natureza do tempo, por exemplo, podem ser atraídos para uma
história emocionante; mas filósofos experientes podem ignorar tais
entretenimentos e prosseguir diretamente para os argumentos abstratos que são
a base do empreendimento filosófico.
Na segunda visão, a narrativa de ficção científica tem mérito filosófico por si só
que não é redutível à argumentação abstrata. Pelo menos para alguns tópicos
filosóficos, um não pode substituir o outro, e uma dieta de apenas um tipo de
escrita corre o risco de deixá-lo filosoficamente desnutrido.

Um argumento para a segunda visão sustenta que exemplos e experimentos de


pensamento desempenham um papel ineliminável no pensamento filosófico.
Nesse caso, podemos ver os exemplos em miniatura e os experimentos de
pensamento em ensaios filosóficos como pontos médios de um continuum, de
proposições puramente abstratas de um lado a narrativas de romances do outro.
Qualquer que seja o papel dos exemplos curtos no pensamento filosófico, as
narrativas mais longas também podem desempenhar um papel semelhante.
Talvez a prosa inteiramente abstrata deixe a imaginação e as emoções com
fome; experimentos de pensamento bem desenhados os envolvem um pouco; e
filmes e romances os envolvem mais plenamente, trazendo quaisquer benefícios
(e riscos) cognitivos decorrentes do envolvimento vívido da imaginação e das
emoções. A ficção literária comum envolve uma cognição imaginativa e emotiva
sobre as possibilidades dentro da corrente comum da experiência humana;
ficção especulativa envolve cognição imaginativa e emotiva sobre possibilidades
fora

Ficção científica e filosofia: viagem no tempo do baile à superinteligência ,


segunda edição. Editado por Susan Schneider.

© 2016 John Wiley Sc Sons, Inc. Publicado 2016 por John Wiley & Sons, Inc.

a corrida comum da experiência humana. Ambos os tipos de ficção merecem


potencialmente um papel central na reflexão filosófica sobre tais possibilidades.

Com esses pensamentos em mente, decidi construir uma lista de obras


filosoficamente interessantes de ficção científica, ou "ficção especulativa" (SF),
mais amplamente interpretadas. Reuni recomendações de trinta e nove filósofos
profissionais e de dois autores proeminentes do SF com formação em filosofia.
Cada colaborador recomendou dez obras de ficção especulativa e escreveu um
breve “discurso”, apontando para o interesse da obra. Nem todos os
colaboradores compartilharão minha visão do valor do SF: pedi apenas que
listassem dez “favoritos pessoais” filosoficamente interessantes.

Listados abaixo estão todos os escritores, diretores e séries de TV mencionados


por pelo menos dois colaboradores, juntamente com os trabalhos recomendados
específicos e as seleções editadas liberalmente (em alguns casos, totalmente
reescritas) dos argumentos dos contribuidores. Eu mesmo, apenas (até agora!),
Li ou vi cerca de metade desses trabalhos, e, nessa medida, confio na precisão
dos argumentos dos contribuidores. As listas completas e campos estão
disponíveis em http: //www.faculty.ucr . edu / ~ eschwitz / SchwitzAbs /
PhilosophicalSF.htm.
Muito obrigado aos colaboradores: David John Baker, Scott Bakker, Steve Bein,
Sara Bernstein, Ben Blumson, Rachael Briggs, Matthew Brophy, Ross Cameron,
Joe Campbell, Mason Cash, David Chalmers, Stephen Clark, Ellen Clarke, Helen
De Cruz, O filme é baseado no livro de mesmo nome, escrito por John De Smedt,
Josh Dever, Kenny Easwaran, Simon Evnine, Simon Fokt, Keith Frankish,
Steven Horst, Troy Jollimore, Eric Kaplan, Jonathan Kaplan, Brian Keeley, Brian
Keeley, David Killoren e Derrick Murphy, Amy Kind, Pete Mandik e Ryan Nichols.
Oppenheimer, Adriano Palma, Lewis Powell, Ina Roy-Faderman, Susan
Schneider, Meghan Sullivan, Christy Mag Uidhir, Jonathan Weinberg, Dylan
Wittkower e Audrey Yap.

Romances e contos

Um autor recomendado por onze colaboradores diferentes

Ursula K. Le Guin

• A mão esquerda da escuridão (1969) Primeira história de contato sobre alguém


que encontra uma sociedade com manifestações radicalmente diferentes de
papéis de gênero, sexualidade e normas sociais. (Recomendado por De Cruz,
Evnine e Powell)

• “Nove vidas” (1969) Como é ser um clone? E, mais especificamente, como é


ter uma conexão com outros clones cortada depois de ter sido criada com eles?
(Tipo)

• “A Palavra para o mundo é floresta” (1972) Um campo de exploração em outro


mundo usa as espécies nativas como trabalho escravo. O que é ser uma
pessoa? Como as sociedades (e como) devem mudar? (J. Kaplan)

• “Os que se afastam de Ornelas” (1973) Uma suposta redução do utilitarismo.


(Blumson, Dever, Weinberg)

• “O autor das sementes de acácia e outros extratos do Journal of the Association


of Therolinguistics” (1974) Sempre agradável quando a ficção científica se
lembra que a linguística é uma ciência. (Dever)

• Os despossuídos (1974) seguem um físico de uma sociedade "anarquista".


Reflexões sobre sistemas políticos, moralidade, organização política. Todos os
grandes sonhos falham? É da natureza de todos os sistemas políticos decair em
burocracias, ou pior? (J. Kaplan, Oppenheimer, Powell)

• Always Coming Home (1985) Um futuro humano em potencial, situado no norte


da Califórnia, no qual os seres humanos retornaram a um estado de existência
amplamente primitivo e pacífico, dando as costas ao consumismo e, na maior
parte, à tecnologia. (Jollimore)
• Mudança de avião (2003) Os aeroportos hospedam pessoas que desejam
mudar de dimensão entre a mudança de voo; inclui uma dimensão em que tudo
o que é desnecessário para a vida humana foi removido ("The Nna Mmoy
Language"). (Bernstein)

Recomendado por Nine

Ted Chiang

• Histórias de sua vida e de outros (2002) Uma coleção de histórias curtas sobre
tópicos como: E se a aritmética realmente fosse inconsistente; estrangeiros cuja
linguagem é visual e não linear em vez de linear e temporal; pessoas que
desabilitam a parte do cérebro que faz julgamentos de beleza sobre outras
pessoas; como seria desenvolver superinteligência; evidência concreta da
existência de um Deus arbitrário (várias histórias recomendadas por Bein,
Keeley, Mandik, Nichols, Powell, Schwitzgebel, Sullivan, Yap).

• “A verdade dos fatos, a verdade dos sentimentos” (2013) examina a falta de


confiabilidade da memória e suas consequências sociais e emocionais. (Padeiro)

Recomendado por Oito

Philip K. Dick

• “Os defensores” (1953) Como as máquinas podem aplacar o desejo dos


humanos de destruir o planeta sem pensar? (Wittkower)

• “Autofac” (1955) Uma pequena história sobre o problema da gosma cinzenta


na nanotecnologia, que é, hum, uma coisa bastante interessante para encontrar
alguém escrevendo nos anos 50. (Wittkower)

• Time out of Joint (1959) Uma demonstração clara de como seria descobrir que
toda a vida e os arredores são falsos! (Clark)

• Os andróides sonham com ovelhas elétricas? (1968) Os andróides


escravizados são biologicamente quase indistinguíveis dos seres humanos, mas
carecem de empatia instintiva - quanto isso importa? (Sullivan, Wittkower)

• Ubik (1969) Um mundo perturbador, onde aparências e realidade parecem


desmoronar e, dentre várias versões potenciais da realidade, não está claro o
que é real, se é que existe alguma coisa. (Cameron)

• Flow My Tears, o policial disse (1974) Se Dick não o deixa paranóico, você
provavelmente não é real. Aqui ele explora celebridade e identidade por meio de
uma droga que arrebata os alvos dos pensamentos de um usuário em uma
realidade paralela. (Clarke, J. Kaplan)

• Radio Free Albemuth (escrito em 1976, publicado postumamente em 1985) O


tempo parou no século I dC e recomeçou em 1945. Crie uma teoria do tempo
para tornar isso consistente! (Dever)

• Um scanner sombrio (1977) Um agente secreto da polícia perde contato com a


realidade. Quem somos quando fingimos ser quem não somos? (J. Kaplan)

• "Impostor" (1986) Dick lutando para entender o eu e o auto-entendimento.


(Bein)

Recomendado por Seven

Greg Egan

• “Aprendendo a ser eu” (1990) Sobre consciência e identidade. (Chalmers)

• “The Infinite Assassin” (1991) Como nos relacionamos com nossos colegas em
todo o multiverso? (Tipo)

• Axiomatic (1995) Histórias sobre tópicos como: um método para enviar


mensagens ao passado para que todos aprendam a história futura e a história
passada; alteração computacional ou substituição de cérebros biológicos e suas
conseqüências para responsabilidade moral e sobrevivência e identidade
pessoais. (Easwaran)

• Diáspora (1997) (também Permutation City [1994]) Se pudéssemos carregar


nossas mentes em computadores gigantes, incluindo duplicar a nós mesmos,
nos apoiar, alterar radicalmente nossas experiências sensoriais e
personalidades, quais seriam as conseqüências para a identidade pessoal e o
significado da vida? (Frankish, Mandik, Schwitzgebel)

• “Razões para ser alegre” (1997) O protagonista ganha a capacidade de ajustar


seu bem-estar mental momento a momento. (Nichols)

Recomendado por Six

Stanislaw Lem

• The Diaries Star , "The Twentieth Voyage" (1957, trad. 1976) Viagem no tempo,
repleta de problemas de causalidade e problemas de si mesmo. (Bein)
• Solaris (1961, trad. 1970) Um ser alienígena enorme e inescrutável que podem
ou não podem estar tentando se comunicar com as pessoas através de
reproduções de pessoas do passado. (Jollimore, Oppenheimer)

• Return from the Stars (1961, trad. 1980) Qual é o valor do sofrimento, perigo e
risco, e o que pode acontecer se forem removidos? (Fokt)

• The Cyberiad (1965, trad. 1974) Histórias filosoficamente temáticas sobre os


engenheiros construtores Trurl e Klapaucius tentando superar um ao outro. (Mag
Uidhir)

• His Master's Voice (1968, trad. 1983) Uma história de “primeiro contato”
exibindo profundo pessimismo sobre a possibilidade de transcender os limites
conceituais estabelecidos pela natureza de uma espécie. (Jollimore, Palma)

• O Congresso Futurológico (1971, trad. 1974) Sobre a distinção entre realidade


e alucinação. (Fokt, Mag Uidhir)

• Golem XIV (1981, trad. 1985) Do ponto de vista de um AI que atinge a


consciência, levantando questões em filosofia da mente e da ética. (Fokt)

• Fiasco (1986, trad. 1987) As limitações linguísticas e cognitivas na


compreensão e comunicação com formas de vida alienígenas. (Fokt)

Recomendado por Five

Isaac Asimov

• "Evidence" (1946) Sondas a plausibilidade do Teste de Turing. (Tipo)

• I, Robot (1950) contos clássicos sobre a relação entre os seres humanos e


inteligências não-humanas, incluindo as Três Leis da Robótica. (Schneider, Yap)

• O fim da eternidade (1955) Uma estrutura complexa de viagem no tempo, com


a polícia do tempo saindo no tempo. (Chalmers)

• Os próprios deuses (1972) O que é a identidade pessoal? (E. Kaplan)

Robert A. Heinlein

• “Jerry was a Man” (1947) O que significa alguém ser humano, com o
protagonista um chimpanzé geneticamente modificado. (De Cruz)
• “All You Zombies-” (1959) Uma história de viagem no tempo incestuosa e
contagiante. (Blumson, Cameron, Campbell)

• A lua é uma sociedade lunar libertária severa (1966), e não existe almoço grátis.
(De Cruz)

• Jó: Uma comédia de justiça (1984) Uma interpretação literalista do livro de Jó


que se desenrola em vários mundos possíveis. (De Smedt)

China Mieville

• The City & The City (2009) Um exemplo particularmente aventureiro da


metafísica exploratória. (Dever)

• Embassytoum (2011) Uma sociedade alienígena que não pode falar falsamente
primeiro aprende com os seres humanos como fazer símiles e, finalmente,
aprende a mentir, mudando-os irrevogavelmente. (Cameron, Dever,
Oppenheimer, Powell, Weinberg)

Charles Stross

• Accelerando (2005) Descreve como seria viver a singularidade tecnológica;


"Choque futuro alucinante" é um superlativo insuficientemente hiperbólico.
(Chalmers, Easwaran, Mandik, Oppenheimer, Schwitzgebel)

Recomendado por quatro

Jorge Luis Borges

• “On Rigor in Science” (1946, trad. 1970) A elaboração de mapas “avançou” de


tal forma que o único mapa aceitável do império é exatamente da mesma escala
que o próprio império. (Yap)

• Labirintos (coleção de histórias em inglês de 1962, publicada principalmente na


década de 1940). Toda história é filosoficamente estranha e interessante de
várias maneiras, com temas repetidos de infinitude, temporalidade, repetição e
idealismo metafísico. (Blumson, Kind, Schwitzgebel)

Ray Bradbury

• “A Sound of Thunder” (1952) Os viajantes do tempo no safari mudam o passado


por serem preguiçosos e se afastarem do caminho. (Roy-Faderman, Schneider)
• Fahrenheit 451 (1953), queima de livros administrada pelo Estado, vida
anestesiada, um hino eloqüente ao poder da idéia escrita. (Clarke)

• Dandelion Wine (1957) Uma reflexão sobre o que significa realmente viver,
amar e ser feliz inclui uma tentativa de construir uma “máquina da felicidade” de
realidade virtual, uma trágica história de amor sobre um amante reencarnado,
um pronto para morrer pensamentos da bisavó sobre a imortalidade e engarrafar
todas as alegrias de um dia de verão em uma garrafa de vinho-leão. (Dinheiro)

PD James

• Filhos dos homens (1992) Como seria a vida na Terra se os seres humanos de
repente perdessem a capacidade de ter filhos? Este romance é uma imaginação
convincente e perturbadora da extinção da raça humana. (De Cruz, Easwaran,
Jollimore, Powell)

Neal Stephenson

• Diamond Age (1995) Um mundo pós-escassez (tipo de) no qual qualquer


material pode ser construído por nanotecnologia; explora o papel da educação,
economia e estrutura de classes de uma Terra pós-escassez, inteligência
artificial e realidade virtual. (Dinheiro)

• O Ciclo Barroco (2003-2004) Romances históricos, desenvolvidos em torno de


interações entre Newton e Leibniz, explorando as origens da ciência e das
finanças modernas em contraponto com os memes alquímicos. (Horst)

• Anathem (2008) Um livro de aventura sci-fi estrelada por um herói filósofo-


tamboril, onde grandes reviravoltas envolvem a interpretação de muitos mundos
da mecânica quântica, e debates sobre o platonismo na metafísica. Não mesmo.
(Dinheiro, Easwaran, Horst, Weinberg)

Kurt Vonnegut, Jr.

• Player Piano (1952) A tecnologia tornou a maioria dos seres humanos


supérfluos. (Jollimore)

• As Sereias de Titã (1959) A starkly bela espiral através de solidão, onisciência


e do sentido da vida. (Clarke)

• “Bem-vindo à casa dos macacos” (1968) Controle populacional, suicídio


assistido, atitudes variáveis em relação ao sexo e à sexualidade. (Roy-
Faderman)
• Matadouro-Cinco (1969) enfeitado com problemas de ética, causalidade e livre-
arbítrio vs. determinismo. (Bein)

Gene Wolfe

• A Quinta Revolta de Cerberus (1972) Aborda a questão da identidade pessoal


através das lentes colonialistas. (Mag Uidhir)

• “O herói como lobisomem” (1975) O que é o mal? Qual é o papel da


universalização da ética? (E. Kaplan)

• O Livro do Novo Sol (1980-1987) Um trabalho assustador sobre a experiência


da finitude. (Evnine, Mag Uidhir)

Recomendado por três

Edwin Abbott

• Planície (1884) Escrita do ponto de vista de seres bidimensionais em um mundo


bidimensional (o "autor" do livro é "Um quadrado") após a interação com a
terceira dimensão. (Blumson, Keeley, Oppenheimer)

Douglas Adams

• Guia do Mochileiro das Galáxias (“trilogia” de cinco volumes, 1979-1992) O


peixe babel desmente Deus; a vaca quer ser comida; a perspectiva total do
vórtice; o tempo é uma ilusão, a hora do almoço duplamente; e 42. (Cash,
Chalmers, Nichols)

Margaret Atwood

• A Handmaid's Tale (1985) Surgiu uma ditadura teocrática, na qual as mulheres


são severamente reprimidas e precisam lutar para ganhar agência e
comunidade. (Cameron, Roy-Faderman)

• Oryx e Crake (2003) O engenheiro genético brilhante destrói a raça humana e


cria uma substituição superior, como dito pelo último humano sobrevivente.
(Briggs)

R. Scott Bakker

• Prince of Nothing (trilogia, 2003-2006) Alta fantasia no espírito, mas não no


estilo, de Tolkien, em dívida com Tucídides e Camus.
(Wittkower)

• Neuropath (2008) Horror em neurociência. Apocalipse Semântico. Seu cérebro


não é seu amigo. (Bakker, Wittkower)

• “Reinstalando o Eden” (com Eric Schwitzgebel, 2013) Sobre o relacionamento


dos “deuses” humanos com as inteligências artificiais que eles criam. (Schneider)

Iain M. Banks

• O estado da arte e os detalhes da superfície (1989 e 2010)

explorações dos limites da utopia, a beleza da humanidade defeituosa, o papel


da escassez, dos riscos e da fragilidade na vida humana, paraísos e infernos
virtuais e guerras reais e a possibilidade de que aspectos importantes da vida
possam ser perdidos quando se pode ter e fazer o que alguém quiser. (Dinheiro,
Nichols)

Octavia E. Butler

• "Bloodchild" (1984) Os homens são forçados a suportar a descendência de


estrangeiros em uma analogia sangrenta e poderosamente emocional da
maternidade, retratada como uma forma de abuso paradoxalmente agradável.
(Clarke, Tipo)

• Parábola do semeador (1993) Os papéis de gênero e o significado da empatia


no desempenho de nossas responsabilidades um pelo outro. (Evnine)

Italo Calvino

• Cosmicomics (1965, trad. 1968) O velho Qfwfq conta histórias de sua


juventude, quando ele e seus parentes testemunharam o Big Bang, a formação
das galáxias, o momento em que a lua estava tão perto da Terra que você
poderia pular de uma para o outro, a evolução dos animais terrestres e outros
eventos históricos. (Bernstein, Briggs)

• Se em uma noite de inverno um viajante (romance, 1979; trad. 1981) É difícil


superar o início dessa metaficção filosófica de segunda pessoa, mas você pode
chegar ao fim. (Blumson)

Orson Scott Card

• “Kingsmeat” (1978) Um problema clássico do utilitarismo, com uma ordem


lateral de deliciosos bifes humanos. (Bein)
• Enderis Game (1985) Crianças na escola militar no espaço, aprendendo a lutar
a guerra para acabar com todas as guerras alienígenas. Governos totalitários.
Xenofobia. Táticas militares. Blogging ... O que mais você poderia querer?
(Sullivan, Wittkower)

William Gibson

• “Johnny Mnemonic” (1981) Como regular a modificação de humanos e outros


organismos inteligentes? (Roy-Faderman)

• Neuromancer (1984) O romance Watershed foi creditado com a eutanásia do


Mito do Progresso na ficção científica. (Padeiro)

• “The Winter Market” (1985) Um produtor trabalha diretamente com as emoções


dos artistas. Sobre a natureza da arte, consciência e talvez imortalidade. (J.
Kaplan)

Daniel Keyes

• Flores para Algernon (1959/1966) Sobre identidade pessoal, deficiência mental


e nossas responsabilidades para com pessoas que não são neurotípicas. (Bein,
De Cruz, Roy-Faderman)

George RR Martin

• “With Morning Comes Mistfall” (1973) Uma expedição científica chega a


desmascarar um mito local. Existe valor em permanecer intencionalmente
ignorante do que poderíamos aprender facilmente? (J. Kaplan)

• Uma Canção de Gelo e Fogo (1996-presente) Uma meditação prolongada


sobre a natureza do poder, ambientada em um mundo medieval / mágico.
(Dinheiro, Easwaran)

Larry Niven

• Mundo dos anéis e sequelas (1970-2004) Um mundo enorme de engenharia


fornece um contexto para a exploração da variabilidade do fenótipo humano e
de três espécies exóticas. (Horst)

• Um buraco no espaço (1974) O teletransporte age como um fluido social mais


leve, permitindo a formação de "flash mobs" perigosamente voláteis, além de
acrescentar novas profundidades ao assassinato de um desafio misterioso.
(Clarke)
• O mote aos olhos de Deus (com Jerry Pournelle, 1974) Primeiro contato, não
tanto entre espécies, como entre inteligências técnicas (correspondendo aos
anjos e demônios de nossa própria natureza científica). (Padeiro)

George Orwell (Eric A. Blair)

• Mil novecentos e oitenta e quatro (1949) Em um estado stalinista sombrio, o


pensamento é controlado, a história é reescrita e as mentes dos não-
conformistas impiedosamente remodeladas. (Clarke, Frankish, Palma)

Recomendado por dois

/. G. Ballard

• “Os mil sonhos de Stellavista” (1962) Um homem leva sua esposa a matá-lo,
também inadvertidamente (mas previsivelmente) programando sua casa
“psicotrópica” para depois tentar matar seus novos donos. (Wittkower)

• The Disaster Area (1967) Coleção de histórias. O que acontece se desligarmos


o sono? Como é viver em um bloco de torre de altura e largura infinitas? Como
seria a vida ao contrário? (Clarke)

David Brin

• Kiln People (2002) E se você pudesse temporariamente colocar sua


consciência em uma cópia descartável e autodestrutiva de si mesma, que
poderia então executar várias tarefas para você, e cuja consciência seria
reabsorvida pela sua após 24 horas? (Easwaran, Weinberg)

C. J. Cherryh

• Sequência de Chanur (1981-1992) Raízes biológicas ou culturais do


comportamento, com espécies inteligentes bem imaginadas em um compacto
interestelar e multiespécies. (Clark)

• Cyteen (1988) Questões sobre identidade, clonagem, escravidão, promulgadas


em parte do universo da Aliança / União de Cherryh. (Baker, Clark)

Arthur C. Clarke

• Fim da infância (1953) O preço da utopia, saltos evolutivos. Poderia uma


humanidade inalterada estar em casa no cosmos? (Clark)
• “Os nove bilhões de nomes de Deus” (1953) Deus poderia ter um propósito
para nós, dar sentido à nossa vida? (Tipo)

Neil Caiman

• The Sandman: A Game of You (1993) Uma jovem e suas amigas em uma
jornada que as leva a examinar sua identidade como amigas e como mulheres.
(Cameron)

• Murder Mysteries (conto 1992, graphic novel 2002) Quando o Céu entra nos
estágios finais do planejamento da Criação, um anjo é despertado para investigar
o primeiro assassinato de todos os tempos. (Weinberg)

Daniel F. Galouye

• Universo Escuro (1961) Percepção em um mundo subterrâneo pós-apocalíptico


sem luz (algumas culturas usam ecolocalização, outras se adaptaram à visão
infravermelha). (De Cruz, De Smedt)

• Simulacron-3 (1964) A mais recente história de demônios de cérebros em um


tanque / mal, anterior a Matrix. (De Cruz, De Smedt)

David Gerrold

• O homem que se dobrou (1973) Exploração exaustiva da autoindulgência


narcísica habilitada para viajar no tempo: encontrar, cumprimentar e * palavrões
excluíram * seus colegas temporais. (Easwaran, Mandik)

Joe Haldeman

• The Forever War (1974) Guerra contra inimigos desconhecidos com uma
psique incompreensível e soldados que sofrem distanciamento relativista. (De
Smedt, Mag Uidhir)

Russell Hoban

• Riddley Walker ( 1980) Pessoas que tentam entender seu passado distante
(nós), contadas em um dialeto inventado que torna igualmente um problema para
nós compreendê-las. (Dever, Evnine)

Fred Hoyle
• A Nuvem Negra (1957) Uma história iminente de desastre para a Terra com
uma reviravolta: a nuvem gigante que se aproxima da Terra é consciente e fica
surpresa ao encontrar outros seres conscientes no universo. (Bernstein, Elorst)

Aldous Huxley

• Admirável mundo novo (1932) O nobre selvagem encontra o futuro racional


científico tecnologicamente aprimorado e sai mal. (Clarke, Roy-Faderman)

Kazuo Ishiguro

• Never Let Me Go (2005) Crônica a situação dos seres humanos clonados (que
não sabem que são clones) criados com o único objetivo de doar seus órgãos a
seres humanos "comuns". (Jollimore, Roy-Faderman)

Ann Leckie

• Justiça Auxiliar (2013) Apresenta uma IA composta por várias pessoas,


espacialmente distribuídas, e não totalmente unificadas. (Evnine, J. Kaplan)

Doris Lessing

• Os casamentos entre as zonas três, quatro e cinco (1980): essencialismo de


gênero; comunicação entre os sexos. (Oppenheimer)

• The Fifth Child (1988) Como lidamos com o intolerável quando temos a
obrigação de cuidar dele? (Evnine)

C. S. Lewis

• Trilogia espacial (1938-1945) Explora idéias cristãs da queda, alienígenas


inteligentes, anjos, inteligências celestes, magia e os perigos do totalitarismo
envolvidos no manto da ciência. (Clark, Horst)

Cormac McCarthy

• The Road (2006) Os esforços que um pai fará para preservar um sentimento
de esperança em seu filho, mesmo quando o mundo ao seu redor desmorona.
(Bakker, Sullivan)

Alan Moore e Dave Gibbons


• Watchmen (1986-1987) Um super-herói quase onipotente cuja percepção do
tempo levanta questões sobre o livre arbítrio e evitabilidade, boas intenções vs.
boas conseqüências. (Bein, Cameron)

Mike Resnick

• "Kirinyaga" (1988) Raça e gênero, justiça e relativismo moral. (Nichols)

• Sete visões do desfiladeiro de Olduvai (1994) A humanidade, subindo e


descendo, como uma praga cruel e maligna sobre o universo. (Mag Uidhir)

Joanna Russ

• O homem feminino (1975) Uma mulher é apresentada a seus colegas de três


mundos possíveis diferentes, nos quais o feminismo tomou três cursos históricos
diferentes. (Bernstein, Briggs)

Mary Doria Russell

• O Pardal (1996) Os jesuítas enviam uma missão secreta a uma civilização


alienígena antes que a ONU possa chegar, terminando em desastre. (Dinheiro,
Sullivan)

Robert J. Sawyer

• Hominídeos (2002) No universo paralelo, os neandertais se tornaram


dominantes em vez de nós. Cada um tem dois parceiros, um homem e uma
mulher. (Yap)

• Mindscan (2005) Um sujeito com um tumor cerebral inoperável tenta carregar


seu cérebro em um computador e aprende da maneira mais difícil que carregar
não é um meio de sobrevivência. (Schneider)

Dan Simmons

• Fases da gravidade (1989) Um astronauta da Apollo que andou na lua,


enquanto se move por um mundo que não parece mais estar avançando. (J.
Kaplan)

• Hyperion (1989) Ver “Conto do Scholar” dentro para alguma filosofia


interessante de religião. (Padeiro)

Olaf Stapledon
• Star Maker (1937) O narrador explora o propósito da vida e da história, através
da exposição a muitos tipos de mentes em toda a galáxia. (E. Kaplan)

• Sirius (1944) Um cão dotado de inteligência humana luta para dar sentido ao
amor, à irracionalidade humana e ao significado da vida. (Schwitzgebel)

Bruce Sterling

• “Enxame” (1982) Um grupo de cientistas encontra uma espécie de


superorganismo aparentemente não inteligente que se assemelha a insetos
sociais terrestres. (Keeley)

• Schismatrix Plus (1996) Turbulência política e econômica em um sistema solar


infestada por facções pós-humanas (engenharia genética vs cyborgs) e,
eventualmente, investidores extraterrestres. (Mandik)

Theodore Sturgeon

• Maturidade (histórias de 1947-1958, coletadas em 1979) Histórias que


exploram o propósito da vida e a vida bem vivida. (E. Kaplan)

• Venus Plus X (1960) O que é gênero e precisa ser binário? (Roy-Faderman)

Daniel Suarez (Leinad Zeraus)

• Daemon, Freedom ™ e Influx (2006,2010,2014) Suspenses de Cyberpunk com


IA, drones, impressão em 3D, guerra de máquina autônoma auto-replicante,
videogames e realidade virtual. (Keeley, Nichols)

James Tiptree Jr., (Alice Bradley Sheldon)

• “O amor é o plano, o plano é a morte” (1973) Um artrópode senciente contempla


o livre arbítrio, mas tudo o que ele deseja coincide com o ciclo de vida típico de
sua espécie. (Briggs)

• “Um gosto momentâneo de ser” (1975) Biologia e o propósito da vida, um


planeta que pode ser a morte ou o paraíso. (E. Kaplan)

Jack Vance

• The Dying Earth (1950) Defina milhões de anos no futuro em que a matemática
se tornou mágica e a Terra uma coisa de terrível beleza. (Mag Uidhir)
• The Languages ofPao (1957) Esboça um universo no qual diferenças na
linguagem causam diferenças radicais na cognição. (De Smedt)

Vernor Vinge

• Um fogo sobre as profundezas (1992, também Children of the Sky, 2011) Uma
história envolvendo uma variedade de tipos de mentes, incluindo mentes
transcendentes, mentes humanas infundidas por mentes transcendentes e
mentes de grupo. (Evnine, Schwitzgebel)

Peter Watts

• Blindsight (2006) A história de Cogsci, em que vários transumanos e


extraterrestres se dão muito bem sem consciência fenomenal - ou não? (Franco,
Mandik)

HG Wells

• “O caso notável dos olhos de Davidson” (1895) O contra-exemplo definitivo da


imunidade ao erro através da identificação incorreta do eu. (Dever)

• “O país dos cegos” (1904) Como convencer um grupo de cegos extremamente


funcionais, vivendo em um ambiente que eles adaptaram às suas necessidades,
da existência do mundo visual? (Keeley)

Connie Willis

• O Livro do Dia do Juízo Final (1992) Como a doença afeta nossos padrões
morais e éticos? (Roy-Faderman)

• Não Dizer Nada do Cão (1998) Uma brincadeira de viajar no tempo com um
final surpreendentemente sofisticado filosoficamente. (Mag Uidhir)

John C. Wright

• A Era de Ouro e sequelas (2002-2003) Uma utopia capitalista de futuro muito


distante; identidade, humanidade, controle social. (Baker, Clark)

Roger Zelazny

• “Por um tempo, respiro” (1966) A busca de uma máquina para entender como
é ser humano. (Tipo)
• Lord of Light (1967) Apresenta versões naturalistas de deuses hindus e
reencarnação. O status quo pode ser desafiado com a introdução do budismo?
(De Cruz)

Filmes e Televisão

Uma série de TV recomendada por sete colaboradores diferentes

Jornada nas Estrelas: A Próxima Geração

• “A medida de um homem” (1989) Um andróide é forçado a ir a julgamento para


provar que tem direito à autodeterminação e não é apenas propriedade.
(Recomendado por Cameron, Horst, Keeley)

• “Quem observa os observadores” / “Primeiro contato” / “Seu próprio eu” (1989,


1991, 1994) A ética da não interferência em civilizações alienígenas, incluindo a
retenção de avanços benéficos. (Powell)

• “Sarek” (1990) Demência, papel social, telepatia, telemopatia, estoicismo,


pietas, dever, honra. (Oppenheimer)

• “The Inner Light” (1992) Uma sonda alienígena faz com que um capitão de nave
estelar experimente a vida em uma civilização há muito morta. Identidade,
memória, sobrevivência e representação do tempo. (Franco)

• “Ship in a Bottle” (1993) Uma criatura senciente do holodeck exige que seja
livre para viver fora do holodeck e gera inteligentemente simulações de
computador em simulações. (Schneider)

Recomendado por Five

Christopher Nolan

• Memento (2000) O protagonista tenta superar a amnésia drástica através de


notas, fotos e tatuagens. (Chalmers, Palma)

• The Prestige (2006) Duas maneiras diferentes de executar o mesmo truque de


mágica levantam preocupações muito diferentes sobre a identidade pessoal e
as obrigações morais de cada um. (Brophy, Easwaran, Yap)

• Batman: O Cavaleiro das Trevas (2008) Os quebra-cabeças clássicos da teoria


da decisão e da ética recebem o toque da falta de confiabilidade. (Easwaran)
• Inception (2010) Um vigarista atravessa camadas de sonhos compartilhados
neste filme "assalto". (Brophy)

Recomendado por Four Ridley Scott

• Blade Runner (1982) “replicantes” de inteligência artificial projetados


biologicamente são indistinguíveis dos seres humanos em quase todos os
aspectos. Mas eles não são vistos como “pessoas”. Os humanos os temem e os
usam como trabalho escravo fora do mundo. Vagamente baseado em Do
Androids Dream of Electric Sheepi , de Philip K. Dick (Cash, Easwaran,
Schneider, Weinberg)

Recomendado por três

Futurama

• “Universidade de Marte” (1999) Um macaco se torna super-inteligente, mas não


pode mais se encaixar na sua comunidade de macacos. (Yap)

• “O inferno é outros robôs” (1999) A religião é uma criação humana e, em caso


afirmativo, a que propósito serve? (E. Kaplan)

• “Por que devo ser um crustáceo apaixonado?” (2000) Qual é a relação entre
ética e sociobiologia? (E. Kaplan)

• "Roswell que acaba bem" (2001) O paradoxo do avô da viagem no tempo, com
tons de Robert-Heinlein, "All You Zombies-" (Campbell)

Duncan Jones

• Moon (2009) Um trabalhador lunar solitário descobre que ele é apenas um sinal
de um tipo de pessoa. Ou ele é do tipo? (Easwaran, franco)

• Código-fonte (2011) Um soldado acorda repetidamente em um trem como outro


homem que tem poucos minutos para encontrar e desarmar uma bomba-relógio
que matará todos eles. (Brophy)

Andrew Niccol

• Gattaca (1997) Uma sociedade futura infundida com engenharia genética pré-
nascimento estratifica-se geneticamente com azar e geneticamente com sorte.
Bioética, livre arbítrio. (Bernstein, Campbell, Palma)

Paul Verhoeven
• Total Recall (1990) O protagonista pode ser um espião que teve sua memória
apagada, erroneamente acreditando que ele é um cara comum; ou a coisa toda
está acontecendo em férias virtuais? Basicamente baseado em “We Can
Remember It For You Wholesale” (de Philip K. Dick) (Cameron, Cash)

• Starship Troopers (1997) Os tropos fascistas das narrativas militares


americanas falsificaram demais para serem apreciados pelos críticos ou pelo
público americano. (Padeiro)

Andy e Lana Wachowski

• Matrix e sequelas (1999-2003) O clássico filme de cérebro-em-tanque e


realidade virtual, levantando quase todos os problemas da filosofia. (Campbell,
Chalmers, Horst)

Recomendado por dois

Battlestar Galactica

• Ao longo de seis temporadas (2003-2009), uma dialética cada vez mais


complicada sobre os Cylons metálicos originais, os “trabalhos de pele” de Cylon
e, por implicação, a natureza da humanidade e da pessoa, reencarnando clones
concorrentes; também incursões na realidade virtual compartilhada. (De Smedt,
Horst)

David Cronenberg

• eXistenZ (1999) Um jogo de realidade virtual no qual você participa de uma


história sobre uma trama para assassinar o criador de um jogo de realidade
virtual. (Keeley, Weinberg)

Terry Gilliam

• Brasil (1985) Um filme distópico sombrio e engraçado que explora o indivíduo


versus o estado. (Jollimore)

• Twelve Monkeys (1995) Um exemplo da visão ininterrupta da viagem no tempo,


onde as pessoas viajam para o passado, mas não há alterações de eventos
passados. (Campbell)

Michael Gondry
• Brilho eterno da mente sem mancha (2004) Clementine apaga as memórias de
seu relacionamento com Joel, para que Joel tente seguir o mesmo procedimento.
Mas quando suas memórias começam a desaparecer, ele muda de idéia.
(Jollimore, Schneider)

Spike Jonze

• Ser John Malkovich (1999) O protagonista descobre um portal que permite


experimentar o mundo da perspectiva do ator John Malkovich. (Keeley)

• Her (2013) O retrato cinematográfico mais crível das conseqüências cotidianas


da Inteligência Geral Artificial. (Padeiro)

Andrei Tarkovsky

• Stalker (1979) As pessoas são levadas a um lugar em que o pensamento


positivo é bem-sucedido, guiado pelo "perseguidor". (Palma)

• Sacrifício (1986) Um homem faz um sacrifício pessoal irracional a fim de impedir


uma guerra nuclear. (Franco)

Joss Whedon

• Buffy the Vampire Slayer, Estação 5 (2000-2001) Personagens lidar com o que
fazer quando o dever parece puxá-lo em uma direção e agindo de acordo com
sua natureza outro. (Cameron)

• Serenidade (2005) Em que medida o governo pode avançar para impor seus
ideais a seus cidadãos? (De Smedt)

Índice

As referências às notas são inseridas como, por exemplo, 329n. As referências


às tabelas estão em negrito, por exemplo, 326. Os livros e contos são inseridos
com o nome do autor entre colchetes, por exemplo: Animal Farm (Orwell);
"Autofac" (Dick). Filmes e programas de TV são exibidos como, por exemplo: De
volta ao futuro (filme, 1985); Jornada nas Estrelas: A Próxima Geração
(programa de TV). Os títulos de episódios individuais de TV não foram
indexados.

2001: A Space Odyssey (Clarke), 250 2001: A Space Odyssey (filme, 1968),
2 , 12

Abbott, Edwin, 387, 399 Accelerando (Stress), 398 Adams, Douglas, 399 vida
após a morte, 25, 71, 215, 222n, 223n Era das máquinas inteligentes (Kurzweil),
161 Era das máquinas espirituais (Kurzweil), 161

agência, 294, 296-297, 300-301, 306n, 308-310

AI Inteligência Artificial (filme, 2001), 3,9,12

aviões de passageiros, controle por computador de sistemas de vôo, 137-138


Albert, David, 112n Aldrin, Buzz, 259 inteligência alienígena, 9-10, 225-239
consciência, 225-226, 230-234 “All You Zombies” (Heinlein),

368n, 397

Sempre voltando para casa (Le Guin), 395 Anathem (Stephenson), 399 anatta
(sem auto-visão, identidade pessoal), 93, 264, 274n Justiça complementar
(Teckie), 403 Anderson, M., 294, 306n Anderson, Susan, 12 , 294, 301, 306n
andróides, veja robôs Animal Farm (Orwell), 255-256 direitos dos animais, 293,
297, 304,

306n, 307n

Ficção científica e filosofia: da viagem no tempo à superinteligência, segunda


edição. Editado por Susan Schneider.

© 2016 John Wiley & Sons, Inc. Publicado em 2016 por John Wiley & Sons, Inc.

animalismo, 72, 76, 84-85 Anissimov, Michael, 149 Annas, George, 10-11
captura antrópica, 308, 315-317, 326

antropomorfismo, 154.192, 225, 226-227, 328n Aristóteles, 292 Armen, C., 294,
306n Armstrong, Neil, 248-249, 259 paradoxo do crítico de arte, 372, 376-378,
382-383

inteligência artificial, 3, 8 inteligência alienígena, 9-10, 225-239 problema de


controle, 12, 189-190, 196-199, 218n, 240n, 308-326, 327n-329n, 196 questões
éticas, 11-12, 190-196,

Agentes de software 219n, 290-305, 329n, superinteligência 142-143, 159-170,


171- 217, 218n, 260-273, 274n, 279-289, 290-305, 308-326, 327n-329n
upload, 11, 25, 266-272 Asimov, Isaac, 8-9,11-12,193, 279-289, 290-305, 321,
329n, 369n, 397

"Homem Bicentenário", 12, 290-293, 296, 298-300, 302, 303-305, “A última


pergunta”, astrofísica 279-289, 160-161 Atwood, Margaret, Margaret-, aumento
399-400, 324-325, 326 Austin, JL, 113n

“Autor das sementes de acácia e outros extratos do Journal of the Association of


Therolinguistics, The” (Le Guin), 395 “Autofac” (Dick), 395 sistema nervoso
autônomo, 131, 132, 143-145

princípio da autonomia, 375-378 aviônicos, 137-138 Axiomatic (Egan), 396 Ayer,


AJ, 85

Baars, B., 233, 238 De Volta para o Futuro (filme, 1985), 353-354

Regresso ao Futuro II (filme, 1989), 386

Bainbridge, WS, 261 Baker, L. R, 70, 72, 84 Bakker, R. Scott, 4, 20-21, 400
Ballard, J. G, 401 ^ 102 Banks, Iain M., 400 Barroco Cycle, The ( Stephenson),
399 Batman: O Cavaleiro das Trevas (filme, 2008), 407

Battlestar Galactica (programa de TV), 408

Behan, D., 75, 78

Sendo John Malkovich (filme,

1999), 409

Bentham, Jeremy, 298 Berkeley, George, 37-38, 52-53 Berra, Iogue, 153

"Homem Bicentenário" (Asimov), 12, 290-293, 296, 298-300, 302, 303-305

implantes bioeletrônicos, 132-137.140 naturalismo biológico, 231-233,

234, 240n biologia, 154-155

empresas de biotecnologia, 255-259 Biotronic, 140 BISAs (alienígenas


superinteligentes de inspiração biológica),

236-239
Black Cloud, The (Hoyle), 403 buracos negros, 160-161 Blackford, Russell, 11
Blackmore, Susan, 231 Blade Runner (filme de 1982), 9, 407 Blakeslee, S., 237
Blindsight (Watts), 405 Block, Ned, 9.177-178, 220n, 232 "Bloodchild" (Butler),
400 Livro do Novo Sol, The (Wolfe), 399

Borges, Jorge Luis, 250, 398 Bostrom, Nick, 4, 5, 11, 12, 36.176, 217n, 221n,
229, 234-236, 240n, 260-261, 262, 263, 266-267, 272-273, 274n

métodos de boxe (métodos de controle de capacidade), 310, 311-312, 327n,


328n, 329n

Bradbury, Ray, 13, 333-342, 398

cérebros em cubas, 5, 35-54 consciência, 44M5, 57-68 Hipótese matricial, 36-


37, 43-54 identidade pessoal, 57-68, 271-272 tempo de ramificação (teoria de
muitos mundos), 14, 368, 379- 383

Admirável Mundo Novo (Huxley), 10, 403

Brasil (filme, 1985), 408

Brickell, Edie, 99

David Brin, 402

Broderick, Damien, 162

Brueckner, A., 84

Bruno, M., 78

visões físicas brutas (pessoais

identidade), 76, 77-78, 83, 84-85, 206.264.265, 266, 268, 274n-275n

Buda, 93, 95, 96, 264 Buffy, a Caçadora de Vampiros (programa de TV), 409
Buford, C., 84 bullying, 292, 303-305 Teoria dos Pacotes (identidade pessoal),
92-98, 264, 274n Butler, Octavia E ., 400 “By His Bootstraps” (Heinlein), 368n

Calculando Deus (Sawyer), 219n Calvino, Italo, 400 Campbell, John, 217n
Campbell, T., 72, 73 métodos de controle de capacidade (problema de controle),
310-319, 326, 327n-328n, 329n capitalismo, 254-257 carbono vida baseada em
153, 154, 154-155 Card, Orson Scott, 400 Carter, Brandon, 277 experimentos de
pensamento cartesiano, 30-34 dependência causal, 79-80, 350, 353-355, 361-
368 Cernam, Gene, 249 Chalmers, David J., 5, 9.181, 204, 219n, 220n, 221n,
230-231, 328n, 390

Trocando de avião (Le Guin), sequência Chanur 395 (Cherryh), 402

Hipótese do caos, 54 trapaça, química 110, 113n, 153 Cherryh, CJ, 402 Chiang,
Ted, 395 Fim da infância (Clarke), 402 filhos dos homens (James), 398 sala
chinesa (experimento de pensamento), 9, 231-232 Chisholm , R., 70 filosofia
cristã, 385-386, 389-391 ver também God Churchland, P., 272 Cirkovic, Milar, 11
City & The City, The (Mieville), 397 Clark, Andy, 9.181 Clarke, Arthur C. , 2,14,
239, 250, 385, 402 clonagem, 251, 254 curvas cronológicas fechadas (CTCs),
374-383

teorias do continuador mais próximo, 206 Clynes, Manfred, 130,131,132, 138,


142-143

implantes cocleares, 132-133, 134,136 Collins, S., 69

Columbus, Christopher, 246, 247 Hipótese de combinação, 42 Hipótese


computacional,

40-41,43

teorias computacionais da mente, 7, 15n, 40-41,125-129,163, 177-178, 231-239,


265-267, 274n-275n

simulações de computador, 3-5,19-54, 166, 315-317, 326, falhas 328n-329n,


388, 389-391 Hipótese de matriz, 36-37, 43-54, 388-391

implicações morais, independência de 25 substratos, 11,15n, 22-23

requisitos do sistema, 23 upload, 11, 25, 199-216 connectonomics, 237


conquistadores, 246-247 awareness, 9-10,11,12, 15n, 22-23,177-178, 201-205,
209-210, 220n-223n inteligência alienígena, 225-226, 230-234 cérebros em
cubas, 44-45, 57-68 robôs, 119-124, 298-299, 306n problema de cérebro
dividido, 91-92, 96-98 problema de pensar em animais, 82 -84
consequencialismo, 322-323 problema de controle (superinteligência), 12, 189-
190,196-199, 218n, 240n, 308-326

corporações, 255-259 Cosmicomics (Calvino), 400 “País dos Cegos, O”

(Poços), 406
criação, 19-20, 44, 279-289 Hipótese da Criação, 39-40, 43, 45 Crichton,
Michael, 256 Cronenberg, David, 408 crueldade, 292, 303-305 Cruzada na
Europa (Eisenhower), 247-248

Cruzadas, 245-246

CTCs (curvas temporais fechadas),

374-383

Cyberiad, The (Lem), 397 cibernética, 131, 133 cyberpunk, 8

cyborgs, 8, 9.130-145.149.159,

161-170,181-182,193,199-216, 227-228,250, 260-261 Cyteen (Cherryh), 402

Daemon (Suarez), 405 Dainton, B., 222n Dandelion Wine (Bradbury), 398 Dark
Universe (Galouye), 402 DARPA (Agência de Projetos de Pesquisa Avançada
em Defesa), 227 Davies, Paul, 225, 227 De Marse, TB, 5 “ Defensores, The
”(Dick), 395 visão deflacionária (persistência

questão), 214-215, deísmo 222n-223n, 32-34, 39 Dembski, William, 386, 387

Dennett, Daniel, 7.113n, 220n,

230, 389 deontologia, 329n

Descartes, Rene, 1, 4, 30-34, 41, 46, 53 determinismo, 7-8, 104-112 Deutsch,


David, 14 d'Holbach, Baron, 112n problema de identidade diacrônica

(questão de persistência), 63-68, 70-71, 74-88, 91-98, 205-216, 220n-223n,


240n, 250, 261-273, 274n-275n

Diamond Age (Stephenson), 398 Diáspora (Egan), 396 Dick, Philip K., 9, 395-
396, 407, 408 Dick, S., 227, 229 especificação direta, ética da máquina, 321-323,
326

Área de Desastre, The (Ballard), 402 Despossessed, The (Le Guin), 395 DNA,
154-155

Os andróides sonham com ovelhas elétricas (Dick), 9, 396.407 Dockendorf, K.P,


5 Dolly (ovelha), 251 abordagem de domesticidade (problema de controle), 323-
324, 326 Dompier, Steven, 327n “argumento do dia do juízo final” 11 , 176, 277-
278
Doomsday Book, The (Willis), 406 Draper, Paul, 390, 391 hipótese dos sonhos,
31-32, 53-54 sonhos, 119-124 Dreyfus, Hubert, 177 Driscoll, Kevin, 327n
dualismo (divisão alma / corpo), 41 42, 46, 63-64, 73, 92 Dummett, Michael, 372
Dying Earth, The (Vance), 405 distopias, 10

Eccles, John, 113n

Sobrevivência edênica (questão da persistência), 215, 222n, 223n Egan, Greg,


388, 396 Ego Theory, 92

Teoria do Ego (identidade pessoal), 92, 93-94, 97

Einstein, Albert, 1, 372-375 Eisenhower, Dwight D., projeto 247-248 ElectRx


(DARPA), 227 Ellis, Warren, 136 Embassytown (Mieville), 398 emoções, 301-
302 End of Eternity, The (Asimov), 397 EndeEs Game (Card), 400 entropia, 279-
289 ambiente, ver cérebros em cubas Epicurus, 110

epistemologia, 3-5,15, 19-54,166, 384-391

teoria de muitos mundos, 14, 368, 379-383, 387-388 Hipótese matricial, 36-37,
43-54, 388-391

essencialismo (essendalismo da pessoa), 76 Luz Eterna da Mente Sem


Lembranças (filme, 2004), 271.408 relativismo ético, 295 ética, 10-12

direitos dos animais, 293, 297, 304,

306n, 307n

inteligência artificial, 190-196, 219n, 290-305, 308-326, 329n As leis da robótica


de Asimov, 12, 119-124, 290-305 cyborgs, 250, 260-261 “argumento do dia do
juízo final”, 11, 176, 277- 278

engenharia genética, 245, 250-259 direitos humanos, 112, 247-259, 292-293,


299-301, 306n metaética da máquina, 293-305 agência moral, 294, 296-297,
300-301, 306n, 308-310 deveres morais, 303-305, 306n e precognição, 104-105,
112 e religião, 245-247, 249 ética em pesquisa, 248, 256-259 robôs, 12,119-124,
250, 290-305, 306n-307n, 321- 322 superinteligência, 189-190,196-199, 218n,
240n, 308-326 transumanismo, 167-170, 245, 250-259.260-273 valores, 192-
196, 219n, 252-259, 319-325

eugenia, 248, 252, 253 Everett, Hugh, III, 379 “Evidence” (Asimov), 397 questão
de evidência (identidade pessoal), 71,77
Hipótese do gênio do mal, evolução 5 3, 153-159,163-167, 178-179

eXistenZ (filme, 1999), 408 mudanças exponenciais, tecnologia, 146-170,171-


217 Hipótese de matriz local extensível, 51-52

ceticismo mundial externo, 3-5, 19-54 Hipótese matricial, 36-37, 43-54, 388-391

Fahrenheit 451 (Bradbury), 398 fatalismo, 366-368 Homem, The (Russ), 404
Fiasco (Lem), 397 Quinta Criança, The (Lessing), 403 Quinta Cabeça de
Cerberus, The (Wolfe), 399

Fire Upon the Deep, A (Vinge), problema de fissão 405 (identidade pessoal), 82-
84

Flatland (Abbott), 387, 399 Flow My Tears, o policial disse (Dick), 396

fluxo de tempo, 343-346, 349-350 Flores para Algernon (Keyes), 401 sistemas
fly-by-wire, 137-138 Flynn, JR, 218n Fodor, J., 233 foglets, 166

“Respiro por um tempo” (Zelazny), 406

Forever War, The (Haldeman), 403

Francisco de Assis, Santo, 99

Frankenstein (Shelley), 251

Franklin, Benjamin, 100

Fredkin, Ed, 40

livre arbítrio, 3, 7-8, 104-112, 375

robôs, 119-124 Freedom ™ (Suarez), 405 Friedman, John L., 376 Fukuyama, F.,
273

decomposição funcional, 9.125-129, 232.238-239 funcionalismo, 202, 233 visão


de fatos adicionais (questão da persistência), 213-214, 220n, 221n-222n, 223n
Futurama (programa de TV), 407 Instituto Futuro da Humanidade,

228, 273n

Congresso Futurológico, O (Lem), 397


Caiman, Neil, 402 Galouye, Daniel F., 402 Garreau, Joel, 11, 260, 261 Garrold,
David, 402 Gates, Bill, 327n Gattaca (filme, 1997), 408 engenharia genética, 10,
130, 245, 250- 259

ver também genocídio do transhumanismo, 246-247, 252, 255 Gibbons, Dave,


404 Gibson, William, 8, 401 Gilliam, Terry, 408

falhas, em simulações, 388, 389-391 riscos catastróficos globais, 11,176, 257-


259, 277-278

Deus, 32-34, 39, 52-53,106, 249, 386, 389-391 Godel, Kurt, 375 máquinas
Godel, 218n deuses em si, The (Asimov), 397 Era de Ouro, The (Wright), 406
Golem XIV (Lem) ), 397 Gondry, Michael, 408 Good, Irving John,
160,161,171,173, 175,182, 217n Gott, J. Richard, 375 Grandfather Paradox, 13-
14,

363-368, 370-372, 375-376, 378, 379-382

Grau, Christopher, 306n Greene, Kate, 327n Grice, Paul, 274n

Haldeman, Joe, 403 Handmaid's Tale, A (Atwood), 399 Hanley, Richard, 14, 391
Hanson, R., 219n Haraway, Donna, 132 determinismo rígido, 105-107,

110 - 111 , 112 Havel, Vaclav, 256 Hawking, Stephen W., 378, 383 Hawkins, J.,
237 Heath, Peter, 386 Heavens and the Earth, The (McDougall), 249-250
hedonism, 322-323 Heinlein, Robert A., 368n, 397 Her (filme, 2013), 409
Heráclito, 6 “Herói como lobisomem, o”

(Wolfe), 399 Hirsch, E., 86

Sua voz de mestre (Lem), 397 História da conquista do México, The (Prescott),
246 Guia do Mochileiro das Galáxias (Adams), 399 Hoban, Russell, 403
Hofstadter, DR, 217n, 218n,

219n

Buraco no Espaço, A (Niven), 401 Holocausto (Shoah), 247, 248, 252


Hominídeos (Sawyer), 404 Hoyle, Fred, 403 Hudson, H., 73, 86 Huemer,
Michael, 8 Hughes, James, 274n Human Projeto Genoma, 256 direitos humanos,
112, 247-259, 292-293, 299-301, 306n

Hume, David, 73.195.196, 264, 384-385, 386, 388 Hutchins, Ed, 137 Huxley,
Aldous, 10, 403 Huxley, Julian, 273n mentes híbridas, 8.138-143.181-182,
193.199-216, 227-228 Hyperion ( Simmons), 404 hypertime, 344-345, 388
I, Robot (Asimov), 397 I, Robot (filme, 2004), 3 Se em uma noite de inverno um
viajante (Calvino), 400

imortalidade, 11.191, 216, 229, 250, 253.255-259, 279-289 “Imposter” (Dick),


396 métodos de controle de incentivo (métodos de controle de capacidade), 310,
312-317, 326, 327n

Inception (filme, 2010), 407 normatividade indireta (problema de controle), 324,


326

"Infinito Assassino, The" (Egan), 396 Influx (Suarez), 405 pattemism


informacional, 6-7, 11, 40 ^ 11, 99-103,153,159, 177-179, 204-205, 264-273,
274n-275n

Tese de Convergência Instrumental, 235 Tribunal Penal Internacional, 254, 258


direito internacional, 257-259 Ishiguro, Kazuo, 403

Jackson, Frank, 201 Jackson, Robert, 252 James, PD, 398

“Jerry era um homem” (Heinlein), 397 Jinpa, T., 69

Trabalho: Uma Comédia da Justiça (Heinlein), 397

“Johnny Mnemonic” (Gibson), 401

Johnston, M., 72, 84

Jones, Duncan, 407

Jonze, Spike, 409

Joy, Bill, 151, 219n

Carl Jung 99

Kant, Immanuel, 195-196, 299, 303-305, 306n, 307n Kasparov, Gary, 148 Kass,
Leon, 253 Kay, Alan, 141 Kelly, Kevin, 138 Kennedy, John F., 249 Keyes, Daniel,
401 Kiln Pessoas (Brin), 402 “Kingsmeat” (cartão), 400 “Kirinyaga” (Resnick), 404
Kline, Nathan, 130.131.132.138, 142-143

paradoxos do conhecimento, 372, 376-378, 382-383


Kubrick, Stanley, 12 Kurzweil, Ray, 6, 9.161.162.173, 175, 217n, 219n, 260, 261,
264, 266, 268, 274n

Labirintos (Borges), 398 linguagem e pensamento, 238 Linguagem do


pensamento, The (Schneider), 233

Línguas de Pao, The (Vance), 405 “Last Evolution, The”

(Campbell), 217n “Última pergunta, The” (Asimov), 279-289

Le Guin, Ursula K., 394-395 singularidade à prova de vazamentos, 196-199


“Aprendendo a Ser Eu” (Egan), 396 Leckie, Ann, 403 Mão Esquerda da
Escuridão, The (Le Guin), 394

Lem, Stanislaw, 396-397 Leslie, John, 11 Lessing, Doris, 403 LeVay, Simon, 133
Lewis, CS, 385-386, 389-390, 403 Lewis, David, 14, 73, 81, 82 libertarianismo,
109,112 Local Hipótese da matriz, 50-51 Locke, John, 6, 60, 75, 85, 264, 274n
Lockwood, Michael, 14 voltas (voltas causais), 362-363 Senhor da Luz (Zelazny),
406 “O amor é o plano, o plano é a morte ”(Tiptree), 405 Lowe, EJ, 84 Lucas, JR,
113n, 177 Ludwig, AM, 70 mentindo, 110,113n

Machan, Tiboi; 300-301, inteligência de máquina 306n, ver metaética de


máquina de inteligência artificial, 293-305 MacKay, Donald, 91, 92 Mackie, D.,
76

Hipótese da matriz macroscópica, 52 Maes, Pattie, 142 Mailer, Norman, 249


Homem que se dobrou, O (Garrold), 402

teoria de muitos mundos, 14, 368, 379-383,

387- 388

Marooned in Realtime (Vinge), 161 Casamentos entre as zonas três, quatro e


cinco, The (Lessing), 403 Martin, George RR, 401 Martin, R., 73

materialismo, 264, 265, 266, 268, 274n-275n, 385-386, 389 matemática, 160
Hipótese de matriz, 36-37, 43-54,

388- 391

Trilogia Matrix (1999 e c 2003), 2, 22, 35-54.197, 388, 408 Maturidade (esturjão),
405 McCarthy, Cormac, 403 McCreery, Douglas, 132-133 McDougall, Walter,
249-250 McDowell, J., 79 84 McGinn, Colin, 15 McLaren, Bruce, 305n McLuhan,
Marshall, 153 McMahan, J., 72, 73 significado da vida, 252-259 tecnologia
médica, 132-133,134–136 Meditações sobre a Primeira Filosofia (Descartes),
30- 34 Meiland, Jack W, 369n Memento (filme, 2000), 407 critério de memória
(identidade pessoal), 75-76, 77, 78-79 Merricks, T., 78 metaética, 293-305
metafísica, 5, 6-7, 35-54, 384-391 Hipótese matricial, 36-37, 43-54, 388-391

Mieville, China, 397-398 Mill, John Stuart, 302 Miller, Mark, 159

Miller, R., 229 mente, 8-10, 57-115

inteligência alienígena, 9-10, 225-239 sistema nervoso autônomo, 131,

132, 143-145

teorias computacionais de, 7, 15n, 44-45,125-129,163,177-178, 231-239, 265-


267, consciência 274n-275n, 9-10,11,12, 15n, 22-23, 44-45, 57-68,125 -129,

177- 178, 201-205, 209-210, 220n-223n, 225-226, 230-234

cyborgs, 8, 9.130-145.149.159, 161-170.181-182.193.199-216, 227-228

evolução, 153-159, 163-167,

178- 179

decomposição funcional, 9, 125-129.232.238-239 mentes híbridas, 8.138-143,


181-182, 193.199-216, 227-228 e linguagem, 238 plasticidade neural,
134.143.145, 164-165

robôs, 3, 8-9,119-124 problema de cérebro dividido, 7, 65-68, 72, 80-82, 91-92,


96-98,208 superinteligência, 3, 9-10,11-12,

15,146-170,171-217,226-229, 260-273, 274n carregando, 11, 25,199-216, 220n-


223n, 229, 240n, 266-272 Hipótese mente-corpo, 41 ^ 12, 43 Crianças da mente
(Moravec), 161 Mindscan (Sawyer), 6, 262,

267-272, 404

Minority Report (filme, 2002), 8, 104-105,109-110,111-112 milagres, 384-386,


389-391 Mod is, Theodore, 157 “Gosto momentâneo de ser, A” (Tiptree), 405
Moon (filme, 2009 ), 407 Moon Is a Harsh Mistress, The (Heinlein), 397 pousos
na lua, 248-250 Moore, Alan, 404

Moore, G., 274n


agência moral, 294, 296-297, 300-301, 306n, 308-310 deveres morais, 303-305,
306n Moravec, Hans, 161-162 Mote aos olhos de Deus, The (Niven), movimento
401, 343-344, 350-353 métodos de seleção de motivação (problema de
controle), 319-325, 326, 329n realização múltipla, consulte Multivacs de
independência de substrato, 11-12 teoria do multiverso (teoria de muitos
mundos), 14, 368, 379-383, 387-388

Mistérios do Assassinato (Gaiman), 402

nanotecnologia, 165-166, 200, 203, 271-272

Natural Born Cyborgs (Clark), 9 plasticidade neural, 134, 143, 145, 164-165

Neuroética, 10-12 Neuromancer (Gibson), 401 Neuropath (Bakker), 400


neurociência, 231-234 Never Let Me Go (Ishiguro), 403 New Kind of Science, A
(Wolfram), 40 New Matrix Hypothesis, 49-50 Newton's leis do movimento, 106
Niccol, Andrew, 408 Nichols, S., 78 Nietzsche, Friedrich, 264 “Nove bilhões de
nomes de Deus, The” (Clarke), 402

“Nove Vidas” (Le Guin), 394 Mil novecentos e oitenta e quatro (Orwell), 401
Niven, Larry, 401

Não Auto-visualização (identidade pessoal), 93, 264,274n

Nolan, Christopher, 407 tecnologia ciborgue não penetrante, 137-143

Noonan, H., 74, 81, 84 Norman, Don, 141 Nozick, R., 82 Código de Nuremberg,
248

De um incêndio na lua (Mailer), 249 Olson, Eric, 7, 72, 76, 78, 84, 265 “Sobre o
rigor na ciência” (Borges), 398 “Quem se afasta de Ornelas, o” (Le Guin ), 395
invariantes organizacionais, 204-205 Tese de ortogonalidade, 235 Orwell,
George, 255-256, 401 Oryx e Crake (Atwood), 400 Out of the Silent Flanet:
Space Trilogy vol. 1 (Lewis), 403

Parábola do Semeador (Butler), 400 paradoxos, viagem no tempo, 333-342, 353-


355, 356n, 357-368, 370-372, 375-383 Parfit, Derek, 7, 73, 82, 208, 221n, 222n
272

reconhecimento de padrões, 163-164 Pearce, David, 262 Penelhum, T., 71, 79


Penrose, Roger, 177 Pereboom, Derek, 112n Perelandra: Space Trilogy vol. 2
(Lewis), 403 Perlis, Alan, 179 Permutation City (Egan), 388 Perry, J., 78, 81
identidade pessoal, 3, 6-7, 11, 57-103 cérebros em cubas, 57-68, 271-272
visualizações físico-brutas, 76, 77-78, 83, 84-85.206.264.265.266.268, 274n-
275n

Teoria dos Pacotes, 92-98, 264, 274; teorias do continuador mais próximo, 206
Teoria do Ego, 92, 93-94, 97 essencialismo, 76 questão de evidência, 71, 77
pattemismo informacional, 6-7, 11, 40-41, 99- 103

critério de memória, questão de persistência 75-76, 77, 78-79, 63-68, 70-71, 74-
88,91-98,205-216, 220n-223n, 240n, 250, 261-273, 274n-275n

visões de continuidade psicológica, 77-84.206.264.265-272, 274n

problema de reduplicação, 267-270, 271-272

teoria da alma, 7, 63-64, 73, 92, 264-265, 268, 270, 272, 274n problema de
cérebro dividido, 7, 65-68, 72, 80-82, 91-92, 96-98, 208 ontologia de partes
temporais, 81, 86 problema de muitos pensadores, 82-84 enviando, 11, 25, 199-
216, 220n-223n, 229, 240n, 266-272 personalidade, 70, 75, 250, 257-259 , 260-
273, 290-305 Pkaedo (Platão), 71 fases da gravidade (Simmons), 404 física,
princípio da autonomia 153-154, 375-378 Leis do movimento de Newton, 106
mecânica quântica, 14, 39, 41, 48, 107,113n, 153,154, 370-383 Pigliucci,
Massimo, 233 Pizarro, Francisco, 246 Platão, 2, 4, 26-29, 71 Player Piano
(Vonnegut), 399 Plutarco, 399 Plutarco, 275n política, 10-11, 245-259 Popper,
Karl, 113n questão populacional, 71-72 civilizações pós-biológicas, 226, 227-
229, 239n-240n pós-humanos, 227-228, 239n-240n, 253-259, 260-273 pós-
modernismo, 247, 253 pré-cognição, 104-105.106.109-110 , 111-112,114-115
Prescott, William, 246 Prestige, The (filme, 2006), 407 teorias primitivistas do
self, 221n Prince of Nothing (Bakker), 400 teses de proporcionalidade, 183-184
teoria da continuidade psicológica,

6-7, 77-84, 206, 264, 265-272, 274n

Puccetti, R., 71-72

mecânica quântica, 14, 39, 41, 48, 107,113n, 153, 154, 370-383 Quinto, Anthony,
274n

Radio Free Albemuth (Dick), 396 racionalismo, 30-34 racionalidade, 195-196,


298-299 Reading, Universidade de, 133 realidade, natureza, 3-5, 19-54, 166,
346-348, 384-391 teoria de muitos mundos, 14, 368, 379-383, 387-388 Hipótese
matricial, 36-37, 43-54, 388-391

razão e posição moral, 298-299 Razões e Pessoas (Parfit),


221n, 222n

“Razões para ser alegre” (Egan), 396 Hipótese de matriz recente, 50 upload
reconstrutivo, problema de reduplicação 212-213, 267-270, 271-272

ver também problema de cérebro dividido Reid, Thomas, 93

“Reinstalando o Éden” (Schwitzgebel e Bakker), 19-21, 400 relatividade, 372-375


religião, 245-247.249, 384-386 “Caso notável dos olhos de Davidson, The”
(Wells), República 405 (Platão), 2, 26-29 Resnick, Mike, 404 Return from the
Stars (Lem), 397 causas reversas, 362-368 Riddley Walker (Hoban), 403
Rigterink, R., 80 Ringworld (Niven), 401 Road, The (McCarthy), 403 “Sonhos de
robô” (Asimov), 8-9 Robô: mera máquina para a mente transcendente (Moravec),
161-162 robôs, 3, 8-9.105.161-162 consciência, 119-124, 298-299 questões
éticas, 12.122-124, 250, 290-305, 306n-307n,

321-322, nanobots 329n, 165-166, 271-272 Roco, MC, 261 Ross, WD, 295
Rovane, C., 72 Rucker, Rudy, 6

abordagem baseada em regras, ética de máquinas, consulte Três Leis da


Robótica Russ, Joanna, 404 Russell, Bertrand, 49, 73, 321-322 Russell, Mary
Doria, 404

Sacrifício (filme, 1986), 409 Sandberg, A., 176 Sandman: A Game of You
(Gaiman), 402

Sawyer, Robert J., 6, 219n, 262, 267-272, 404

Scanner Darkly, A (Dick), 396 Schechtman, M., 80 Scbismatrix Plus (Sterling),


405 Schmidhuber, J., 218n Schneider, Susan, 8, 9-10,11, 227-228, 233, 234,
237, 238, 240n Schopenhauer, Arthur, 146 Schrodinger, Erwin, 1 Schwitzgebel,
Eric, 4,14, 19-20 Scott, Ridley, 407 Searle, John, 9,177-178, 220n, 231-232, 240n
autoconsciência, 299, 306n self, definição, 69 senciência, 298-299 Serenity
(filme, 2005), 409 SETI (Busca de Inteligência Extraterrestre), 225, 226, 239
Seung, S., 237

Sete vistas do desfiladeiro de Olduvai (Resnick), 404 Shakespeare, William, 317


Shalizi, C., 218n

Sheldon, Alice Bradley, ver Tiptree, James Jr.

Shelley, Mary, 251

Navio de Teseu (experimento mental), 210-211, 275n


Shoah (Holocausto), 247, 248, 252 Sapateiro, Sydney, 71, 72, 73, 78, 79, 80, 84

Shulman, Carl, sistemas baseados em silício 328n Sideg Theodore, 13, 86, ver
inteligência artificial

Simmons, Dan, 404

Simulacron-3 (Galouye), 402

simulações, consulte simulações de computador

Peter Singer, 297, 298

singularidade, 9.146-170.171-217, 274n

Singularidade é ouvir, (Kurzweil),

9.173

Sirenes de Titã (Vonnegut), 399

Sirius (Stapledon), 404

ceticismo (ceticismo do mundo externo),

3-5,19-54

Hipótese da matriz, 36-37, 43-54, 388-391

Matadouro-Cinco (Vonnegut), 399

escravidão, 292-293, 300

Smart, John, 162, 217n

Snowdon, P., 72, 85

integração social, 313-314, 326, 327n

determinismo suave, 107-109, 112

agentes de software, 142-143,


300-301, 305n Software (Rucker), 6 Solaris (Lem), 397 Solomonoff, Ray, 172,
217n Canção de gelo e fogo, A (Martin), 401 Sorenson, Roy, 386

teoria da alma, 7, 63-64, 73, 92, 264-265, 268, 270, 272, 274n “Sound of
Thunder, A” (Bradbury), 13, 333-342, 398

Código Fonte (filme, 2011), exploração espacial 407, 130-131, teoria do espaço-
tempo 248-250, 346-355, Trilogia Espacial (Lewis), 403 Sparrow, The (Russell),
404 continuidade espaço-temporal, 269 -272, 346-347, 348-349, 372 ver
também especismo de ontologia de partes temporais, 297, 306n Spielberg,
Steven, 9,12,104-105, 109-110,111-112 Spike, The (Broderick), 162 problema
de cérebro dividido , 7, 65-68, 72, 80-82, 91-92, 96-98, 208 ver também problema
de reduplicação Stace, WT, 113n Stalker ( film, 1979), 409

Stapledon, Olaf, 404 Star Diaries, The (Lem), 396 Star Maker (Stapledon), 404
Star Trek: The Next Generation (programa de TV), 4, 406

Tropas Estelares (filme, 1997), 408 Estado da Arte, Os (Bancos), 400


Stephenson, Neal, 398-399 Sterling, Bruce, 8, 404-405 Histórias de sua vida e
outros (Chiang), 395 Stross, Charles , 398 nanismo, 317-318, 319, 326 Esturjão,
Theodore, 405 Suarez, Daniel, 405 idealismo subjetivo, 37-38, 52-53
independência de substrato, 11,15n, 22-23 sofrendo, 298-299 superinteligência,
3, 9-10,11-12,15, 146-170,171-217, 274n, 279-289 inteligência alienígena, 9-10,
225-239 problema de controle, 189-190,196-199, 218n, 240n, 308-326, 327n-
Questões éticas de 329n, 190-196, 219n, 260-273, 290-305, 329n
Superinteligência: caminhos, perigos,

Estratégias (Bostrom), 12, 308-326 Detalhe da superfície (bancos), 400


sobrevivência (questão de persistência), 63-68, 70-71, 74-78, 91-98, 205-216,
220n-223n, 240n “Swarm ”(Sterling), 404 Swinburne, R., 73, 78 problema de
identidade sincrônica, ver problema do cérebro dividido

Tarkovsky, Andrei, 409 Taylor, Richard, 351 mudança tecnológica, 146-170, 171-
217, 227-229

teletransporte (teleporte), 94-95, 205, 269-270

ontologia de partes temporais, 81, 86 ver também continuidade espaço-temporal


Terminator 2: Judgement Day (filme, 1991), 354-355

Terminator (1984), 354-355

Aquela força hedionda: Space Trilogy vol. 3 (Lewis), 403 teodicéia, 20


teoria do conhecimento, veja epistemologia problema animal-pensamento, 82-
84 Décimo Terceiro Andar, The (filme, 1999),

50, 388

Thomson, JJ, 85 Thorne, Kip, 13, 375 experimentos de pensamento, 1-15


cérebros em cubas, 5,35-38,57-68,

271-272

Experimentos de pensamento cartesiano, 30-34

Sala Chinesa, 9, 231-232 Caverna de Platão, 2, 26-29 precognição, 114-115


Navio de Teseu, 210-211, 275n “Mil Sonhos de Stellavista, The” (Ballard), 401

Três leis da robótica, 12, 119-124, 290-305, 321-322, 329n Time Machine, The
(Wells), 3,

255, 369n

Tempo esgotado (Dick), 395 viagens no tempo, 3,13-14, 333-383, 386-387

hypertime, 344-345, 388 teoria de muitos mundos, 14, 368, 379-383, 387-388
paradoxos, 333-342, 353-355,

356n, 357-368, 370-372,

375-383

mecânica quântica, 370-383 teoria do espaço-tempo, 346-355,

372-375

Tiptree, James, Jr., 405 Para não dizer nada do cão (Willis), 406 Tonini, G., 233

problema de muitos pensadores, 82-84 Tooley, Michael, 299-300 Total Recall


(filme, 1990), 408 transumanismo, 3, 8, 9, 10-12,15,

149,167-170,181-182, 227-228, 274n-275n

questões éticas, 245.250-259.260-273


Transmetropolitan (Ellis), 136 tripwires, 318-319, 320 , 326 Truman Show, The
(filme, 1998), 51-52 verdade, 110,113n

"Verdade dos fatos, A verdade dos sentimentos" (Chiang), 395 Tsien, Joe, 251-
252 Twelve Monkeys (filme, 1995), 408 seres bidimensionais, 387

Ubik (Dick), 396 Ulam, Stanislaw, 217n Unger, P., 73, 80, 222n Nações Unidas,
248, 254, 257 Declaração Universal dos Direitos Humanos (1948), 248 envios,
11, 25,199-216,

220n-223n, 229, 240n, 266-272 utilitarismo, 298-299, 302

Vale dos Cegos (Wells), 255 valores, 192-196, 219n, 252-259, 319-325 ver
também ética de Inwagen, P., 72, 80 Vance, Jack, 405 Venus Plus X (Esturjão),
405 Verhoeven , Paul, 408 Vinge, Vernor, 159-160,161,172-173, 175, 217n,
274n, 405 realidade virtual, 3-5,19-54, 166, 315-317, 326, 328n-329n falhas, 388,
389-391 Hipótese da matriz, 36-37, 43-54, 388-391

implicações morais, 25 independência de substrato, 11,15n, 22-23 requisitos do


sistema, 23 carregamento, 11, 25,199-216 von Braun, Werner, 249 Von
Neumann, John, 149-150,161 Vonnegut, Kurt, Jr., 399

Wachowski, Andy e Lana, 408 Warren, Mary Ann, 301-302

Warwick, Kevin, 133-135 Watchmen (Moore e Gibbons), 404 Watson, James,


151, 259 Watts, Peter, 405 “Podemos lembrar disso por você por atacado” (Dick),
408 Weiseg Mark, 141 “Welcome to the Monkey House ”(Vonnegut), 399

Poços, HG, 3.255, 369n, 405 ^ 106

Whedon, Joss, 409

Wheeler, John A., 375

“Onde estou?” (Dennett), 7

Wiener, Norbert, 100

Wiesel, Elie, 252

Wiggins, D., 70, 84, 85, 98

Wilkes, K., 72
Williams, B., 71

Timothy Williamson, 113n

Willis, Connie, 406

Wilmut, Ian, 251

“Winter Market, The” (Gibson), 401 “Com a manhã vem a névoa” (Martin), 401
Wittgenstein, L., 73 Wolfe, Gene, 399 Wolfram, Stephen, 40 Wollheim, R., 85 “A
palavra mundo é floresta , O"

(Le Guin), 394

Associação Transhumanista Mundial, 262-263

Segunda Guerra Mundial, 247-248 buracos de minhoca, 374, 375, 378 Wright,
John C., 406

xenoenxertos, 257

Yudkowsky, Eliezer, 172, 175, 195, 217n, 218n, 219n, 327n

Zelazny, Roger, 406

Zeraus, Leinad, ver Suarez, Daniel

Zimmerman, D., 78

S pode fazer X = Se S tentou fazer X, então S teria sucesso. 5

[1]

Potrebbero piacerti anche