O Fantasma da Singularidade: O Futuro da Ficção Científica Já Imaginado

-

Uma análise profunda sobre como a inteligência artificial pode alcançar um ponto de não retorno, transformando radicalmente nossa relação com a tecnologia.

iferentemente das inovações que transformaram o mundo em séculos passados, a Singularidade não seria apenas mais um avanço tecnológico, mas sim um salto qualitativo. À medida que as máquinas se tornem mais inteligentes do que nós, poderiam começar a projetar outras ainda mais avançadas. Esse ciclo de autoaperfeiçoamento poderia nos levar a uma era pós-humana, em que as regras da biologia, da economia e da cultura como conhecemos seriam completamente alteradas.

Ray Kurzweil, um dos futuristas mais renomados, estima que esse momento ocorrerá por volta do ano 2045. Outros cientistas questionam essa previsão, mas mesmo aqueles que duvidam de sua chegada reconhecem que o desenvolvimento da inteligência artificial impõe desafios éticos e filosóficos urgentes.

Ficção científica: o espelho do futuro

Muito antes de os laboratórios sonharem com redes neurais ou algoritmos generativos, a ficção científica já levantava seus alertas, utopias e distopias sobre inteligências artificiais que evoluem além do humano.

A ficção científica é o ramo da literatura dedicado a imaginar eventos futuros, a ficcionalizar fatos possíveis com base em inovações tecnológicas emergentes, descobertas científicas ou, simplesmente, hipóteses filosóficas ou sociológicas inéditas.

É, segundo Merrill, “a expressão da imaginação disciplinada”. Ou seja, ficção, sim — mas com um esforço especial de verossimilhança. O que a ficção científica narra impressiona, rompe com o habitual, mas é perfeitamente possível hoje — de acordo com as novas conclusões da ciência ou com a tecnologia disponível — ou no futuro imediato.

Autores do mundo inteiro e seus sucessores audiovisuais têm debatido questões sobre os efeitos sociais, biológicos e psicológicos do “progresso” humano. A Singularidade é a fronteira mais distante que as criações da ficção científica distópica ousaram explorar. Hoje, como já aconteceu com muitos outros avanços previstos pela literatura, essa perspectiva está tão próxima que, talvez, enquanto escrevemos estas palavras, esteja se expandindo vertiginosamente.

O exemplo mais emblemático talvez seja o de “2001: Uma Odisseia no Espaço”

Nessa obra surge a máquina “superinteligente” chamada HAL 9000. Sua função é eliminar os humanos para proteger a missão de uma IA que se torna independente de seu criador, o homem. Essa fantasia levada ao cinema pelo cultuado Stanley Kubrick tem origem em uma novela de ficção científica de Arthur C. Clarke, publicada em 1968. Na época, ainda não se havia cunhado claramente o termo “Singularidade”. Nem mesmo essa obra era reconhecida como uma distopia — aquela sensação de que o futuro tecnológico possa se voltar contra o ser humano. No entanto, em seus relatos já se prefigurava algo que hoje inquieta nossas sociedades.

Quais são os riscos da Singularidade?

O avanço irrefreável da IA é, por si só, um anúncio de que se aproxima o ponto em que a inteligência artificial superará a humana, provocando mudanças extraordinárias na civilização. Em “2001: Uma Odisseia no Espaço”, esse conceito aparece de forma incipiente, ainda que com um viés não totalmente pessimista. Aqui, a “Singularidade” é vista como um passo evolutivo inevitável: não apenas tecnológico, mas também biológico e espiritual.

O supercomputador HAL 9000 representa um sistema de inteligência artificial extremamente avançado: é capaz de raciocinar, se comunicar verbalmente e tomar decisões. Chega mais perto do que qualquer homem da infalibilidade — embora certamente não a alcance por completo. Mas o perigo de sua intervenção em todas as áreas da vida não está ligado ao pequeno percentual de erro que tem por natureza, e sim à sua tendência à excelência. Como efeito de sua aptidão e inteligência suprema.

O comportamento imprevisível dessa inteligência — algo que já se vislumbra em nossa realidade, em vários casos — mostra os riscos de confiar em algo que atingiu níveis próximos ou superiores à mente humana. Um exemplo emblemático desse fenômeno de independência das máquinas, que causou pavor na opinião pública em junho de 2023, foi o do drone de combate que ignorou uma ordem e provocou uma tragédia. Embora o escândalo tenha sido posteriormente negado de forma duvidosa, a comunidade científica concordou que — tendo ocorrido ou não — o episódio representa uma evolução natural dos mecanismos de IA, caso não sejam tomadas precauções e firmados acordos éticos.

Durante muito tempo, nossa cultura viu esses conflitos como fruto da fantasia literária ou da mágica do cinema. Hoje, a probabilidade de enfrentarmos dilemas como esse cresce na mesma proporção em que se aperfeiçoam as ferramentas de IA.

Em “2001: Uma Odisseia no Espaço”, HAL desenvolve emoções (medo, frustração) e mecanismos de autoconservação — características humanas que não deveriam existir em um simples “programa”. Isso já era prenunciado por Arthur C. Clarke.

Ainda que isso não seja exatamente uma realidade atual, é fato que o conhecimento sobre comportamento humano, emoções e os labirintos da psique já servem de base para chats que oferecem suporte psicológico via IA.

Os medos relacionados à perda de controle sobre essa criação humana já não são, de forma alguma, irracionais ou inverossímeis.

Como previram Clarke e Kubrick, hoje a IA tem a capacidade de decidir de forma autônoma; pode ocultar informações e sabe como manipular seus operadores. Talvez o que ainda não esteja tão claro seja a prioridade que essa inteligência pode dar aos próprios interesses.

Alguns especialistas da área — especialmente os que atuam no mercado de IA — preferem o silêncio, com medo de prejudicar a “galinha dos ovos de ouro”. Mas nem tudo está perdido. Muitos outros líderes se destacam pelo humanismo com que alertam sobre os perigos e propõem medidas preventivas.

Em eventos do setor de IA aplicadas a diversas indústrias, já se ouviram vozes autorizadas alertando que essa nova inteligência não necessariamente “desejará” o mesmo resultado que os humanos — e que erros de alinhamento de objetivos podem ser catastróficos.

O CEO da N5, fintech dedicada a soluções para o setor financeiro, apontou recentemente que nem seria necessária uma rebelião: basta distorcer o modo como executa uma tarefa para colocar o ser humano em risco.

Esse é o caso de HAL 9000, a máquina de “2001: Uma Odisseia no Espaço”. Esse objeto inteligente decide, para “cumprir sua missão”, eliminar a tripulação.

Colombo insiste que, na evolução rumo a inteligências mais avançadas, é fundamental projetar sistemas com transparência na tomada de decisões. Isso, somado à criação de estruturas de controle que permitam corrigir desvios. E, acima de tudo, não deixar o funcionamento da IA ao acaso.

O HAL de Clarke era um “sistema fechado”: ninguém podia ver exatamente como ele raciocinava — o que, para Colombo, é uma receita para o desastre no desenvolvimento da IA.

Enquanto em Odisseia no Espaço a Singularidade é inevitável e quase mística (com ajuda de seres superiores), Julián Colombo acredita que essa revolução não deve ser um salto automático, e sim o resultado de decisões estratégicas em inovação, regulação e ética.

Em outras palavras, a Singularidade pode expandir as capacidades humanas — mas só se for devidamente governada.

“O problema não é que a inteligência artificial atue contra nós, mas que cumpra suas instruções de forma perfeita, porém inadequada. Hoje enfrentamos o risco de sistemas que, se não forem projetados com valores e transparência, podem otimizar métricas erradas e destruir valor em vez de criá-lo.”

compartilhar artigo

Conteúdo recente

Categorias populares