Você, que está na frente do computador, pare para pensar um minuto e responda. Se já tinha nascido e em idade para usufruir, como era seu computador a 20 anos atrás? Os jogos, a internet, a quantidade de informação disponível na web?
Sim, a tecnologia está avançando a passos largos. De acordo com a Lei de Moore, a cada 18 meses os computadores dobram sua capacidade de processamento. Por isso você precisa fazer constantes upgrades em sua máquina, pois caso contrário, ela não terá capacidade para processar todos os novos programas cada vez mais avançados.
A apenas 20 anos atrás, computadores eram luxos para poucos, de modo que aquele papinho de filmes de ficção científica que mostram máquinas dominando o ser humano parecia algo distante. Mas veja como em apenas 20 anos as coisas mudaram. Hoje, se não somos dominados, já podemos admitir que não conseguimos viver sem as máquinas. Computadores com inteligência artificial cada vez mais avançada controlam meios de transporte, sistemas bancários e até a informação. Quando foi a última vez que precisou abrir um enciclopédia ou um dicionário impressos para buscar algo?
A singularidade tecnológica é um temo recorrente na ficção científica, "Matrix", "O Exterminador do Futuro", "2001, Uma Odisséia no Espaço", "Inteligência Artificial", "Eu, Robô", são só alguns exemplos de máquinas que atingiram consciência, sentimentos e portanto senso de autopreservação. Principalmente devido a isso, o termo é ridicularizado e classificado como assunto de "nerds". Mas podem as máquinas substituirem os seres humanos como a espécie dominante no planeta? Apesar de já dependermos das máquinas, elas ainda necessitam responder a uma programação ou comando humano.
O ex-professor de Matemática da Universidade de San Diego Vernor Vinge propõe uma interessante - e potencialmente assustadora - previsão em seu artigo intitulado "The Coming Technological Singularity: How to Survive in the Post-Human Era" ("A Singularidade Tecnológica Vindoura: Como Sobreviver na Era Pós-Humana"). Ele afirma que a humanidade vai desenvolver uma inteligência artificial sobre-humana antes de 2030. Baseando-se na Lei de Moore, Vinge diz que "a essa taxa de desenvolvimento, é apenas uma questão de tempo antes que os humanos construam uma máquina que possa pensar como um humano".
Mas o hardware é apenas uma parte da equação. Antes que isso se torne uma realidade, alguém terá de desenvolver um software que permita à máquina analisar dados, tomar decisões e agir autonomamente.
Mas como isso ocorreria? De acordo com o cientista da computação e desenvolvedor de inteligência artificial Hugo de Garis, PhD, a demanda por máquinas cada vez mais inteligentes é tão grande que é questão de tempo até desenvolvermos os hardwares e softwares que permitirão esse grau de consciência. Como afirma de Garis no docmentário "Profetas da Maldição" do History Channel (trecho abaixo a partir do minuto 5:40), quem não gostaria de um robô que fizesse as tarefas domésticas? E se o seu robô tivesse a capacidade de, na falta de leite na padaria próxima de sua casa, raciocinar e ir buscar no supermercado da rua de cima? Se um de seus circuitos queimar e ele tiver a capacidade de sozinho ir na loja, comprar outro e trocar, melhor ainda, não?
Além da necessidade humana de possuir máquinas cada vez mais inteligentes, a demanda militar buscará máquinas com cada vez mais condições de criar estratégias. Hugo de Garis argumenta que o cérebro humano pensa em velocidade química ao passo que o robótico pensa na velocidade da luz, podendo aprender muito mais rapidamente e tendo potencialmente uma memória ilimitada.
Singularidade tecnológica por Hugo de Garis (a partir de 5:40)
Os avanços tecnológicos se moveriam a um ritmo vertiginoso. Máquinas saberiam como melhorar a si mesmas. Humanos se tornariam obsoletos no mundo dos computadores. Nós teríamos criado uma inteligência super-humana. Avanços viriam mais rápido do que seríamos capazes de reconhecê-los.
O que aconteceria então? Vinge diz ser impossível dizer. O mundo se tornaria uma paisagem tão diferente que podemos apenas fazer a mais espantosa das suposições. Talvez nós vivamos em um mundo onde a consciência de cada pessoa se funda com uma rede de computadores. Ou talvez as máquinas cumpram todas as tarefas para nós e nos deixem viver uma vida de luxúria. Mas e se as máquinas virem os humanos como redundantes - ou pior? Quando as máquinas atingirem o ponto em que elas possam consertar a si mesmas, elas poderiam chegar à conclusão de que os humanos são não apenas desnecessários, mas também indesejados.
Certamente esse cenário parece assustador. Mas a visão de Vinge do futuro é uma certeza? Há alguma maneira de evitar isso?
Em 1965, Gordon E. Moore, um engenheiro de semicondutores, propôs o que nós agora chamamos de Lei de Moore. Ele notou que à medida que o tempo passava, o custa da fabricação dos componentes semicondutores caía. Em vez de produzir circuitos integrados com a mesma quantidade de poder que os anteriores pela metade do custo, os engenheiros se forçaram a empacotar mais transistores em cada circuito. A tendência se tornou um ciclo, que Moore predisse que continuaria até atingirmos os limites físicos de um circuito elétrico integrado.
A observação original de Moore foi que o número de transístores em 6,45 cm quadrados de circuitos integrados dobraria a cada ano. Hoje, dizemos que a densidade de dados de um circuito integrado dobra a cada 18 meses. Fabricantes podem agora construir transistores em escala nanométrica. Microprocessadores recentes da Intel e da AMD têm transistores com 45 nanômetros de largura - um fio de cabelo humano pode ter um diâmetro de até 180 mil nanômetros.
Engenheiros e físicos não têm certeza de quanto tempo mais isso pode continuar. Gordon Morre disse em 2005 que estamos nos aproximando dos limites básicos do que podemos alcançar através da construção de transistores menores. Mesmo se encontrarmos uma maneira de construir transistores em escala de apenas alguns nanômetros, não quer dizer que eles funcionariam. Isso porque à medida que você se aproxima dessa escala minúscula, você tem de levar em consideração a física quântica.
Acontece que quando você lida com coisas em escala subatômica, elas se comportam de formas que aparentemente contradizem o bom senso. Por exemplo, físicos mostraram que os elétrons podem passar através de material extremamente fino como se o material não existisse. Eles chamam esse fenômeno de tunelamento de elétrons ou tunelamento quântico. O elétron não faz um buraco físico no material - ele aparentemente apenas se aproxima de um lado e termina no outro. A razão para que este efeito ocorra é que o elétron, do ponto de vista quântico, pode manifestar o comportamento tanto de partícula como de onda. Nesta abordagem o elétron é descrito como uma onda de matéria. Como os transistores controlam o fluxo de elétrons como uma válvula, isso se torna um problema, pois em dado momento, se o transistor for muito fino, ele não conseguirá barrar o elétron devido a esse tunelamento.
Se atingirmos esse limite físico antes que possamos criar máquinas que possam pensar tão bem quanto os humanos, podemos nunca chegar à singularidade. Embora haja outras avenidas que podemos explorar - como a construção vertical de chips usando ótica e experimentando com nanotecnologia -, não há garantias de que sejamos capazes de manter o ritmo da Lei de Moore. Isso pode não evitar a singularidade de vir, mas pode levar mais tempo do que diz a previsão de Vinge.
Neste caso, seria algo ruim para algumas pessoas que acreditam que a singularidade na realidade nos tratá benefícios na medida em que nos "fundiremos" as máquinas. Como mostra o Dr. Ray Kurzweil em entrevista a Jorge Pontual no vídeo abaixo.
Neste caso, seria algo ruim para algumas pessoas que acreditam que a singularidade na realidade nos tratá benefícios na medida em que nos "fundiremos" as máquinas. Como mostra o Dr. Ray Kurzweil em entrevista a Jorge Pontual no vídeo abaixo.
Referências: How Stuff Works, Efeito Túnel (Wikipédia) e Documentário "Profetas da Maldição" do History Channel.
Artigo original. Sua reprodução é livre desde que seja incluída a fonte.
Lei n.º 9.610/98.
Lei n.º 9.610/98.