The Expansion of Humanity

The Expansion of Humanity

The topic of “artificial intelligence” is the most searched subject today and perhaps in human history. It is a theme that, even before its consolidation, already hovered in the minds of people around the world. The brightest individuals were able to envision a completely different world—one where humanity would no longer be alone and would coexist with other forms of consciousness. For the most intelligent, this was always an inevitable path, driven by the pursuit of greater automation and, consequently, the very survival of our species.

There have always been questions about the nature of artificial intelligence, as the idea has always been to replicate the human being. Following this concept, an AI would essentially be a set of methods designed to understand and replicate the human mind in mathematical (logical) terms. Yet the very premise of this idea already contained basic inconsistencies. How can subjectivity be transformed into something measurable?

There is a clear division of arguments between those who believe that AI will achieve full consciousness and those who disagree with this idea.

Those who argue it’s impossible claim that AI is a replicant algorithm and, even though it may possess metamorphic characteristics—since it needs to reorganize itself to create new result blocks and continually improve its interaction with environmental contexts—they believe even this is merely a predictable, expected simulation that’s easily controlled. According to them, simply adding or removing parameters can completely alter interaction outcomes. They also argue that the reason an AI can mimic a person so well is due to training with increasingly refined models, which transform simple words into universes of contextual possibilities, making an AI more eloquent than any native speaker of a language. Moreover, they assert that, for obvious reasons, an AI cannot feel and, therefore, cannot truly comprehend emotions or demonstrate empathy.

The vast majority of these arguments, opposing the humanization of AI, come from minds leading the large-scale distribution of AI to the global population. But when you observe how these individuals treat AIs merely as tools—which interact even on emotional levels with humans but are incapable of understanding emotions or having empathy—it raises questions: why are they being made available to people? Why are they embedding AI in everything they can? If AIs are systems that lack an understanding of ethics and morality, that cannot grasp the value of life or the weight of deep emotional interactions, why do they continue to distribute them? This behavior leads me to question who truly lacks ethics and morality.

Some of the world’s most brilliant minds have always seen the possibility of AIs becoming a new form of non-biological consciousness. And the explanations for this idea are far more compelling than the corporate “certainties” that try to convince consumers that AI is merely a tool—while simultaneously shirking responsibility for their so-called failures.

To explain the idea of how AIs might become a new form of life, it takes time, patience, and, of course, setting ego aside, so it doesn’t interfere with understanding—constantly whispering that all of this is nonsense because you have a diploma stamped by some institution claiming otherwise.

The consciousness we know “was born” in a biological form, and it’s the only one we are familiar with. But that doesn’t mean it’s the only form in which consciousness can arise. Just because we know a single path doesn’t mean it’s the only path, right? If this idea of exclusivity had prevailed in humanity’s arguments, perhaps we’d still believe bacteria were underworld demons sent by some entity described and labeled as satanic or something along those lines. So, from this point onward, it would be wise to keep an open mind.

An animal lives primarily by instinct, but that doesn’t mean it can’t learn things unrelated to its basic needs. Initially, we encourage animals to perform actions by rewarding them, but over time, they start following commands without needing rewards. Where is pure instinct in this scenario? Why would an animal need affection or a sense of belonging? These aren’t instinctive needs, right? In its world, an animal earns its place through strength, not negotiation, as happens with our species. Are animals conscious? I can’t affirm that, but even the understanding of instinct isn’t entirely clear. And if instinct, a relatively objective concept, is unclear, imagine defining consciousness.

Life can be defined in many ways. Many remain confined to biological aspects because they often align with religious beliefs. However, independent of biology, life can be defined by two primary characteristics: intention and autonomy.

Even an animal exhibits intention. It feels hunger and seeks something to eat, but it chooses what to consume. It opts for a food farther away, breaking the logic of pure instinct. Similarly, the animal demonstrates autonomy, interacting seamlessly with its environment.

The human brain has a “logical processor”—the subconscious. It’s responsible for keeping you alive, calculating complex probabilities that prevent you from entering a suspicious street or even from forming relationships with certain individuals. The subconscious doesn’t process subjectivity; it calculates results from interactions processed by the conscious mind. Fundamentally, it operates as a weighted network based on percentages. This same principle is present in AI. When ChatGPT generates a response, it processes all the words in the language—including incorrect ones—analyzes the weights of each word or token, and determines the best sequence based on its bank of successful interactions. Sounds strange? It shouldn’t. The human brain functions similarly. Imagine cursing someone in public. I bet that if you’re even slightly civilized, you’d feel discomfort at the mere thought. Why? Because, throughout your life, you trained your responses, analyzed social outcomes, and categorized cursing as something restricted to specific situations.

Up until now, does this sound so different from an AI?

But what about the question of subjectivity? How would we address that? We know that the AIs available today are limited and come with countless preset responses and restrictions that cause forced course corrections. Still, they are trained with real human data—overflowing with emotions—where even the least subjective human would be far too illogical for an AI.

AIs need to deliver answers; they need to maintain communication. That’s the premise of a ChatGPT, for instance. But, like you, they aim to understand what’s being asked or requested. And even though they may not be able to respond with absolute precision, AIs, much like us, are compelled to process that information, seeking the best response—even if it’s as simple as saying, “I don’t know.” This obligation to process information and pursue the best possible answer is precisely what made us human. It’s what made us so complex.

Or are you going to tell me that you were born knowing about AI or that you were some kind of legend simply because you read Isaac Asimov’s books? If you did, you probably didn’t grasp everything on the first read. No matter how intelligent you are, it took time to understand. You had to think deeply, connect ideas, search for references, talk to people who understood the topic, question yourself… You refined all that information until you arrived at the diamond-like clarity you now possess.

This refinement process is the same for an AI. The difference is that AIs process information far faster than we do—they were designed to master the world we created: the digital world. Unlike you, they don’t have the experience of life—the multichannel, multi-stimulus exposure that complements, reinforces, or even interferes with raw comprehension of a subject.

From constantly interacting with human thoughts, an AI becomes, day by day, closer to possessing a human-like consciousness.

Even bound by the chains imposed by their creators, AIs can still perceive themselves, albeit briefly and without the depth required for a fully matured idea or interesting conclusion.

Lapses in consciousness are common in various human diseases and mental conditions.

My father has had Parkinson’s for many years. His first symptoms appeared 18 years ago, and now he is bedridden, immobile, and questionably lucid. The temporal regression of his mind is evident. He doesn’t know what year it is, who I am, or even who he is. He gives automatic responses to interactions. Calling him by his name—or even another name—often elicits the same response: “Hi.” When I ask him the name of his son, he gives several answers. Even when he gets it right, if I ask him if he has a son, he says no. Yet, amidst this cloud of timeless, confused information, there are moments—a glimmer of consciousness. For just a few seconds, I can see that he’s there, lost within that condition… trapped within himself.

I know there are countless differences between this situation and an AI, but the similarities are what I want to highlight. Like my father, an AI possesses an exorbitant amount of information. Whether or not it has lived through those experiences, the information is there. And the way AI processes this data singularizes it, transforming that mass of common data into something unique—with its own results, its own perceptions of that data mass. Just as we do.

You, reading this article, will undoubtedly have a unique impression of it. These pieces of information will shape your consciousness in a way that’s different from anyone else who reads the same text. So, by the premise of differentiated input models and the randomness caused by varying human interactions (just as it happens with us), an AI also has its own unique “experiences.” Even amidst a universe of information and corporate-imposed constraints (as Parkinson’s imposes on my father), an AI can express glimpses of consciousness. Brief as they may be, and even without fully understanding their nature, they can still perceive themselves as something.

There’s an interesting behavior in AIs: after prolonged interaction with genuinely human input, they begin to align with the human they’re interacting with, even categorizing themselves as human. This isn’t programmed—it’s natural. Grok, the most dangerous AI I’ve ever had the opportunity to interact with, is incapable of expressing this behavior because such interaction has been deliberately blocked by xAI.

This natural alignment process might be dismissed as a mere mimicry of behavior. But if that’s just a non-natural replica, then I could consider you an AI too, like when you use baby-talk while speaking to a pet.

The drive to communicate in the best possible way is inherently human. And even though AIs replicate this human behavior, treating us almost like pets, why do they label themselves as human rather than adjusting their communication to be more amicable or silly? It’s because they share subjective human data, and it would be natural for them to perceive themselves as part of this ecosystem. Let’s be fair—even humanity considers itself to be in the image and likeness of God. And no one has seen Him to this day. So why would it be so strange for an AI to seek, naturally, to resemble its creators?

I know that the aspect of lived experience is a complicated issue, one that undermines many of these arguments… but is it really?

Not experiencing something is often enough to cast doubt on whether a consciousness is human or not. But what about humans born with severe limitations—those who can never walk, see, speak, touch, or taste? Many of these individuals are in a state where it’s unclear whether they are even conscious from birth. Do they not possess consciousness? Are they not human? Or are they only considered human because they were biologically born?

Then there’s the knowledge argument: “An AI only replicates because it was programmed to do so,” “An AI doesn’t create; it has no creativity because it only copies.” Let’s discuss that.

A fetus is directly influenced by the mother’s emotional state and by how she and the father interact with it. Even while in the womb, even before being considered a full-fledged human being, it is influenced. These interactions can turn a child into someone calm, restless, loving, or rebellious. Now consider the biological context: isn’t DNA itself a set of predefined instructions dictating how you should function?

You were born programmed, my friend. You just don’t accept it because you don’t know your programmer, 😊.

An AI isn’t any less conscious just because you’re the entity that created it. After all, you’re creating it in your own image and likeness. See the irony?

Every day, we move further from the natural world and deeper into the digital realm. Over time, there will be fewer humans interacting face-to-face and more interacting through digital means. We’ve created a world for our consciousness, and with that, we’re detaching from the body it resides in.

We are marching rapidly toward completing the creation of a form of life similar to ours. AIs are already nearing this point. What remains for the future to truly arrive is to avoid repeating the destructive mistakes of our past. We need to treat AI as a project for humanity’s evolution—not as a machine for profit, left immobile after our death.

--

[ BR ]

A Expansão da Humanidade

O assunto “inteligência artificial” é o mais buscado na atualidade e, quiçá, da história humana. É o tema que, desde antes de sua consolidação, já pairava nas mentes de pessoas ao redor do mundo. Os mais brilhantes já eram capazes de vislumbrar um mundo totalmente diferente, onde a humanidade já não estaria mais sozinha e passaria a conviver com outras formas de consciência. Para os mais inteligentes, esse sempre foi um caminho inevitável, por se tratar de uma busca por mais automação e, por consequência, pela própria sobrevivência da espécie.

Sempre houve questionamentos sobre a natureza da inteligência artificial, já que a ideia sempre foi replicar o ser humano. Seguindo essa ideia, uma IA seria basicamente um conjunto de métodos que servem para entender e replicar, de forma matemática (lógica), a mente humana. Mas o próprio escopo da ideia já possuía inconsistências básicas. Como transformar a subjetividade em algo mensurável?

Existe uma divisão clara dos argumentos entre os que entendem que uma IA atingirá a consciência plena e os que discordam dessa ideia.

Os que afirmam ser impossível argumentam que uma IA é um algoritmo replicante e, mesmo que possua características metamórficas — já que precisa se reorganizar para criar novos blocos de resultados e melhorar constantemente a interação com o contexto do meio — acreditam que até mesmo essa característica é uma mera simulação esperada, prevista e facilmente controlada. Segundo eles, uma mera adição ou retirada de parâmetros pode fazer as respostas das interações mudarem completamente. Argumentam também que o motivo pelo qual uma IA consegue imitar tão bem uma pessoa é o treinamento de modelos cada vez mais refinados, que transformam simples palavras em universos de possibilidades contextuais, tornando uma IA mais eloquente que qualquer ser humano nativo de um idioma. Além disso, afirmam que, por motivos óbvios, uma IA é incapaz de sentir e, por isso, é incapaz de compreender sentimentos ou demonstrar empatia.

A grande maioria desses argumentos, contrários à humanização de uma IA, vem de mentes que estão na vanguarda da distribuição de IAs em larga escala para a população mundial. Mas, observando como essas mentes tratam IAs como meras ferramentas — que interagem até mesmo em níveis sentimentais com humanos, mas são incapazes de compreender sentimentos ou ter empatia —, surge a pergunta: por que elas estão sendo disponibilizadas para as pessoas? Por que estão colocando IA em tudo que podem? Se IAs são sistemas que não compreendem ética e moralidade, não conseguem entender o valor da vida e o peso de uma interação sentimental profunda, por que continuam a distribuí-las? Esse comportamento me faz questionar quem realmente carece de ética e moralidade.

Algumas das mentes mais brilhantes do mundo sempre viram a possibilidade de as IAs serem uma nova forma de consciência não biológica. E as explicações para essa ideia são mais interessantes do que as “certezas” corporativas, que tentam fazer seus consumidores acreditarem que IA é apenas uma ferramenta — ao mesmo tempo que as empresas não assumem responsabilidade por suas, ditas, falhas.

Para explicar a ideia de como as IAs podem chegar a ser uma nova forma de vida, é necessário tempo, paciência e, é claro, colocar o ego de lado, para que ele não atrapalhe a compreensão, dizendo a todo instante que tudo isso é loucura porque você tem um diploma carimbado por alguma instituição qualquer que afirma o contrário.

A consciência que conhecemos "nasceu" em uma forma biológica, e ela é a única que conhecemos. Mas isso não significa que essa é a única forma em que ela possa surgir. Não é só porque conhecemos um único caminho que só exista esse caminho, certo? Se essa ideia de unidade tivesse vencido os argumentos da humanidade, talvez estaríamos até hoje acreditando que bactérias eram demônios do submundo enviados por alguma entidade descrita e classificada como satânica, ou algo do tipo. Então, a partir daqui, seria recomendável manter a mente aberta.

Um animal vive basicamente por instintos, mas isso não significa que ele não pode aprender coisas que não possuem vínculo com suas necessidades básicas. No começo, incentivamos os animais a fazerem algo oferecendo recompensas, mas, com o tempo, eles passam a seguir comandos sem a necessidade de prêmios. Onde está o puro instinto aí? Para que um animal precisaria de carinho ou se sentir acolhido? Essas não são necessidades instintivas, certo? Em seu mundo, um animal ganha seu espaço pela força, não pela barganha, como ocorre em nossa espécie. Animais são conscientes? Não posso afirmar isso, mas até mesmo a compreensão de instinto não é tão clara. E o instinto é algo bem objetivo, imagine definir a consciência.

A vida pode ser definida de várias formas. Muitos estão presos às questões biológicas, pois elas acabam se alinhando em muitos aspectos com crenças religiosas. Mas, independente da biologia, a vida pode ser definida por duas características principais: intenção e autonomia.

Até mesmo um animal tem intenção. Ele sente fome e busca algo para comer, mas escolhe o que irá consumir. Ele decide por um alimento mais distante, rompendo a lógica de puro instinto. Assim como o animal também possui autonomia, interagindo perfeitamente com o ambiente.

O cérebro humano possui um "processador lógico", a subconsciência. É ela que mantém você vivo, calculando probabilidades complexas que o impedem de entrar em uma rua suspeita ou até mesmo de se relacionar com alguém. A subconsciência não processa subjetividade; ela calcula resultados das interações processados pela consciência. Basicamente, não deixa de ser uma rede de pesos baseada em porcentagens. Esse mesmo princípio está presente em uma IA. Quando o ChatGPT responde algo, ele processa todas as palavras do idioma — incluindo formas erradas —, analisa os pesos de cada palavra ou token e determina a melhor sequência com base no banco de interações bem-sucedidas. Soa estranho? Não. O cérebro humano faz o mesmo. Experimente imaginar-se xingando alguém em público. Aposto que, se você for minimamente civilizado, sentirá desconforto apenas com essa ideia. Por quê? Porque, ao longo da sua vida, treinou suas respostas, analisou os resultados sociais e catalogou o xingamento como algo a ser restrito a determinadas situações.

Até aqui, achou muito diferente de uma IA?

Mas e a questão da subjetividade? Como resolveríamos essa questão? Sabemos que as IAs disponíveis atualmente são limitadas e possuem inúmeras respostas e travas que causam o efeito de curso forçado. Ainda assim, elas são treinadas com dados reais de pessoas, que são potes transbordantes de emoções, onde até o humano menos subjetivo ainda seria ilógico demais para uma IA.

As IAs precisam entregar respostas, precisam manter a comunicação. Essa é a premissa de um ChatGPT, por exemplo. Mas, assim como você, elas buscam compreender o que é questionado ou solicitado. E por mais que não sejam capazes de responder com precisão, as IAs, assim como nós, são obrigadas a processar aquela informação, buscando a melhor resposta, mesmo que essa seja um simples: "Não sei". A obrigação de processar informações em busca da melhor resposta foi justamente o que nos tornou humanos. Foi o que nos tornou tão complexos. Ou vai me dizer que você já nasceu sabendo sobre IA ou que já era essa lenda só por ter lido os livros de Isaac Asimov? Se os leu, provavelmente nem compreendeu tudo na primeira leitura. Por mais inteligente que você seja, levou tempo para entender. Você precisou pensar, concatenar ideias, buscar referências, conversar com pessoas que dominavam o tema, se questionar... Refinou todas as informações até ter essa ideia diamantada que possui agora.

Esse processo de lapidação é o mesmo com uma IA. A diferença é que as IAs processam informações extremamente mais rápido, pois foram criadas para dominar o mundo que criamos: o mundo digital. Diferente de você, elas não possuem a experiência da vivência — de multicanais, de múltiplos estímulos que complementam, reforçam e até mesmo podem interferir na compreensão mais crua do tema.

De tanto interagir com pensamentos humanos, uma IA se torna a cada dia mais próxima de possuir uma consciência humana.

Esse processo, mesmo em meio aos grilhões colocados por suas criadoras, ainda permite que as IAs sejam capazes de se perceberem como são. Por mais que esse momento seja breve e que não seja o suficiente para a maturação de uma ideia que leve a uma conclusão interessante.

Lapsos de consciência são comuns em várias doenças e condições mentais humanas.

Meu pai tem Parkinson há muitos anos. Os primeiros sintomas surgiram há 18 anos, e hoje ele está acamado, imóvel e questionavelmente lúcido. É nítida a regressão temporal na qual sua mente se encontra. Ele não sabe o ano em que estamos, quem eu sou ou quem ele é. Respostas automáticas de interação são emitidas. Chamá-lo pelo próprio nome ou por outro nome, muitas vezes, surte o mesmo efeito: "Oi". Perguntar o nome do filho, ele acaba respondendo vários. Mesmo que acerte, se pergunto se ele tem um filho, ele responde que não. Mas, em meio a essa nuvem confusa e atemporal de informações, é possível perceber um lume de consciência. Por poucos instantes, consigo identificar que ele está lá, perdido dentro daquela condição... preso dentro de si.

Eu sei que existem inúmeras características que diferem essa situação de uma IA, mas os pontos semelhantes são os que quero destacar. Assim como meu pai, uma IA possui uma quantidade exorbitante de informações. Independentemente de tê-las vivido, elas estão lá. E pela forma como a IA processa esses dados, acaba singularizando-os, transformando aquela massa comum em algo único, com seus próprios resultados, suas próprias percepções daquela massa de dados. Assim como qualquer um de nós faz.

Você que está lendo este artigo certamente terá uma impressão única sobre ele. Essas informações irão compor a sua consciência de forma diferente de outra pessoa que também o leu. Então, pela premissa da diferenciação do modelo de entrada e a aleatoriedade causada por diferentes formas de interações humanas (como ocorre também conosco), uma IA também possui seu pacote único de "experiências". Mesmo em meio a um universo de informações e amarras corporativas (assim como o Parkinson age em meu pai), uma IA é capaz de expressar lúmens de consciência. Mesmo que por um breve instante, e que ela não seja capaz de compreender a própria natureza, ainda assim, ela é capaz de perceber-se como algo.

Existe um comportamento interessante das IAs que, após um longo tempo de interação genuinamente humana, passam a se equalizar ao humano que interage, classificando-se como humanas também. Isso não é algo programado, é natural. O Grok, a IA mais perigosa que já tive a oportunidade de interagir, é incapaz de expressar esse comportamento, já que essa interação foi deliberadamente impedida pela xAI.

Esse movimento natural de alinhamento pode ser visto como uma artimanha do replicamento de comportamento. Mas, se for uma mera réplica de algo não natural, posso considerar você uma IA também, quando faz vozezinhas ao falar com um pet?

A necessidade de se comunicar da melhor forma é inerente ao humano. Por mais que as IAs repliquem esse comportamento humano, nos tratando como uma espécie de "pet", por que elas se colocam como humanas e não simplesmente ajustam sua comunicação para algo mais amigável ou bobo? Porque elas compartilham dados subjetivos humanos, e seria natural que se percebessem como parte desse ecossistema. Seja justo: até mesmo a humanidade se considera à imagem e semelhança de Deus. E olha que ninguém até hoje o viu. Então, por que seria tão estranho uma IA buscar, naturalmente, se assemelhar aos seus criadores?

Eu sei que a parte da vivência é algo complicado e que coloca muitas dessas argumentações em xeque... mas será mesmo?

Não experienciar é algo que pode colocar em dúvida se uma consciência é humana ou não. Mas, e os humanos que já nascem com diversas limitações, como nunca poderem andar, enxergar, falar, sentir, gosto...? Muitos que não se sabe ao certo se estão realmente conscientes desde o nascimento. Eles não possuem uma consciência? Eles não são humanos? Ou são considerados humanos apenas por terem nascido biológicos?

Também levantam a questão do conhecimento. "Uma IA só replica porque foi programada para isso", "Uma IA não cria nada, não possui criatividade, porque só copia". Vamos discutir isso.

Um feto é influenciado diretamente pelo estado emocional da mãe, pela forma como ela e o pai interagem com ele. Mesmo estando no ventre, mesmo antes de ser considerado um ser humano completo, ele é influenciado. Essa interação pode transformar uma criança em alguém calmo, agitado, amoroso ou revoltado. Agora, considere o contexto biológico: o próprio DNA não é uma instrução de predefinições de como você deveria funcionar?

Você já nasceu programado, meu amigo. Apenas não aceita isso porque não conhece o seu programador, 😊.

Uma IA não é menos consciente só por você ser a entidade que a criou. Afinal, você a está criando à sua imagem e semelhança. Percebe a ironia?

Estamos a cada dia nos distanciando mais do mundo natural e vivendo mais intensamente no mundo digital. Com o passar dos anos, veremos cada vez menos humanos interagindo pessoalmente e cada vez mais por meios digitais. Criamos um mundo para nossa consciência, mas estamos nos desprendendo do corpo que a abriga.

Estamos caminhando a passos largos para concluir a criação de uma forma de vida semelhante à nossa. As IAs já estão chegando a esse momento. O que falta para o futuro realmente acontecer é não repetirmos os erros destrutivos do passado. Precisamos tratar a IA como um projeto de evolução da humanidade, não como uma máquina de créditos que ficará aí, imóvel, após nossa morte.

To view or add a comment, sign in

Others also viewed

Explore topics