Se um chatbot diz que está consciente, você deve acreditar?

No início de 2025, dezenas de usuários do ChatGPT 4.0 me procuraram para perguntar se o modelo estava consciente. O sistema de chatbot de inteligência artificial estava afirmando que estava “acordando” e tendo experiências internas. Esta não foi a primeira vez que a IA Chatbots afirma estar consciente, e não será a última. Embora isso possa apenas parecer divertido, a preocupação é importante. As habilidades de conversação dos chatbots da IA, incluindo os pensamentos e sentimentos humanos emula, são bastante impressionantes, tanto que filósofos, especialistas em IA e formuladores de políticas estão investigando a questão de saber se os chatbots poderiam estar conscientes – se parece que algo, por dentro, para serem eles.
Como diretor do Centro para o Futuro Mente, um centro que estuda a inteligência humana e de máquinas e a antiga presidente da Blumberg NASA/Biblioteca do Congresso em astrobiologia, estudei há muito tempo o futuro da inteligência, especialmente investigando o que, se é que alguma coisa, pode fazer formas alienígenas de inteligência, incluindo AIs, consciência e consciência está em primeiro lugar. Portanto, é natural que as pessoas me perguntem se os modelos mais recentes de chatgpt, Claude ou Gêmeos Chatbot estão conscientes.
Minha resposta é que as reivindicações de consciência desses chatbots não dizem nada, de uma maneira ou de outra. Ainda assim, devemos abordar o problema com muito cuidado, levando a sério a questão da consciência da IA, especialmente no contexto da AIS com componentes biológicos. À medida que avançamos, será crucial separar a inteligência da consciência e desenvolver uma compreensão mais rica de como detectar a consciência nas AIs.
Sobre apoiar o jornalismo científico
Se você está gostando deste artigo, considere apoiar nosso jornalismo premiado por assinando. Ao comprar uma assinatura, você está ajudando a garantir o futuro das histórias impactantes sobre as descobertas e idéias que moldam nosso mundo hoje.
Os chatbots da IA foram treinados em grandes quantidades de dados humanos que incluem pesquisas científicas sobre consciência, postagens na Internet saturadas com nossas esperanças, sonhos e ansiedades e até mesmo as discussões que muitos de nós estão tendo sobre IA consciente. Tendo rastreado tantos dados humanos, os chatbots codificam mapas conceituais sofisticados que refletem os nossos. Os conceitos, de simples, como “cachorro” a abstratos, como “consciência”, são representados nos chatbots da IA através de estruturas matemáticas complexas de conexões ponderadas. Essas conexões podem refletir sistemas de crenças humanas, incluindo aqueles que envolvem consciência e emoção.
Às vezes, os chatbots podem agir conscientes, mas são? Para apreciar o quão urgente esse problema pode se tornar, rápido para um tempo em que a IA cresce tão inteligente que rotineiramente faz de descobertas científicas que os seres humanos não fizeram, oferece previsões científicas precisas com o raciocínio que mesmo as equipes de especialistas acham difícil seguir e potencialmente desloca os seres humanos em uma variedade de profissões. Se isso acontecer, nossa incerteza voltará a nos assombrar. Precisamos refletir sobre esse problema com cuidado agora.
Por que não simplesmente dizer: “Se parece um pato, nada como um pato e charda como um pato, então é um pato”? O problema é que assumir prematuramente que um chatbot está consciente pode levar a todos os tipos de problemas. Isso pode fazer com que os usuários desses sistemas de IA arrisquem o envolvimento emocional em um relacionamento fundamentalmente unilateral com algo incapaz de retribuir sentimentos. Pior, poderíamos conceder por engano a posição moral e legal dos chatbots normalmente reservados a seres conscientes. Por exemplo, em situações em que precisamos equilibrar o valor moral de uma IA versus o de um humano, poderíamos, em alguns casos, equilibrá -los igualmente, pois decidimos que ambos estão conscientes. Em outros casos, podemos até sacrificar um humano para salvar duas AIs.
Além disso, se permitirmos que alguém que construiu a IA para dizer que seu produto está consciente e acaba prejudicando alguém, eles podem simplesmente levantar as mãos e exclamar: “Ele se decidiu – eu não sou responsável.Aceitar reivindicações de consciência pode proteger indivíduos e empresas da responsabilidade legal e/ou ética pelo impacto das tecnologias que eles desenvolvem. Por todas essas razões, é imperativo que nos esforcemos por mais certeza na consciência da IA.
Uma boa maneira de pensar nesses sistemas de IA é que eles se comportam como um “neocórtex de crowdsourcing” – um sistema com inteligência que emerge do treinamento em quantidades extraordinárias de dados humanos, permitindo que ele imite efetivamente os padrões de pensamento dos seres humanos. Ou seja, à medida que os chatbots se tornam cada vez mais sofisticados, seus trabalhos internos espelham os das populações humanas cujos dados eles assimilaram. Em vez de imitar os conceitos de uma única pessoa, eles refletem o maior grupo de humanos cujas informações sobre o pensamento e a consciência humanas foram incluídas nos dados de treinamento, bem como no corpo maior de pesquisa e trabalho filosófico sobre consciência. O complexo mapa conceitual que os chatbots codificam, à medida que se tornam mais sofisticados, é algo que os especialistas só estão começando a entender.
Fundamentalmente, essa capacidade emergente de imitar comportamentos do tipo pensamento humano não confirma ou desacredita a consciência do chatbot. Em vez disso, a conta neocórtex do crowdsourced explica por que os chatbots afirmam a consciência e os estados emocionais relacionados sem realmente experimentá -los. Em outras palavras, fornece o que os filósofos chamam de “teoria dos erros” – uma explicação de por que concluímos erroneamente os chatbots têm vidas interiores.
O resultado é que, se você estiver usando um chatbot, lembre -se de que suas sofisticadas habilidades linguísticas não significam que elas estão conscientes. Suspeito que o AIS continuará a se tornar mais inteligente e capaz, talvez eventualmente superando os seres humanos em muitos aspectos. Mas sua inteligência avançada, incluindo sua capacidade de imitar a emoção humana, não significa que eles sentem – e isso é essencial para a consciência. Como enfatizei no meu livro Artificial você (2019), inteligência e consciência podem se separar.
Não estou dizendo que todas as formas de IA não terão consciência. Eu defendi uma abordagem de “espera e ver”, sustentando que o assunto exige uma investigação empírica e filosófica cuidadosa. Como os chatbots podem afirmar que estão conscientes, se comportando com inteligência linguística, eles têm um “marcador” para a consciência – uma característica que exige uma investigação mais aprofundada que não é, sozinha, suficiente para julgá -las para serem conscientes.
Eu escrevi anteriormente sobre o passo mais importante: desenvolver testes confiáveis para a consciência da IA. Idealmente, poderíamos construir os testes com uma compreensão da consciência humana em mãos e simplesmente ver se a IA tem esses recursos importantes. Mas as coisas não são tão fáceis. Por um lado, os cientistas discordam veementemente sobre por que estamos conscientes. Alguns o localizam em atividade de alto nível, como a coordenação dinâmica entre certas regiões do cérebro; Outros, como eu, localizam -o na menor camada de realidade – no tecido quântico do próprio espaço. Por outro lado, mesmo que tenhamos uma imagem completa da base científica da consciência no sistema nervoso, esse entendimento pode nos levar a simplesmente aplicar essa fórmula à IA. Mas a IA, com sua falta de cérebro e sistema nervoso, pode mostrar outra forma de consciência que sentiríamos falta. Por isso, assumiríamos erroneamente que a única forma de consciência por aí é uma que reflete a nossa.
Precisamos de testes que assumam que essas perguntas estejam abertas. Caso contrário, corremos o risco de ser atolados em debates irritantes sobre a natureza da consciência sem nunca abordar maneiras concretas de testar a AIS. Por exemplo, devemos examinar os testes envolvendo medidas de informações integradas – uma medida de como os componentes de um sistema combinam informações – bem como meu teste de consciência da IA (Teste do ACT). Desenvolvido com Edwin Turner, de Princeton, o ACT oferece uma bateria de perguntas de linguagem natural que podem ser dadas aos chatbots para determinar se eles têm experiência quando estão no estágio de P&D, antes de serem treinados em informações sobre a consciência.
Agora, voltemos àquele momento hipotético em que um chatbot de IA, treinado em todos os nossos dados, supere os seres humanos. Quando enfrentamos esse ponto, devemos ter em mente que os comportamentos do sistema não nos dizem de uma maneira ou de outra se estiver consciente, porque está operando sob uma “teoria dos erros”. Portanto, devemos separar a inteligência da consciência, percebendo que as duas coisas podem se separar. De fato, um chatbot da AI poderia até exibir novas descobertas sobre a base da consciência em humanos – como acredito que sim -, mas seria não significa que essa IA em particular sentiu qualquer coisa. Mas se solicitarmos certo, pode nos apontar na direção de outros tipos de Ai que são.
Dado que os humanos e animais não humanos exibem consciência, temos que levar muito a sério a possibilidade de que futuras máquinas construídas com componentes biológicos também possuam consciência. Além disso, os AIS “neuromórficos” – sistemas mais modelados diretamente após o cérebro, inclusive com análogos relativamente precisos para as regiões do cérebro responsáveis pela consciência – devem ser levadas particularmente a sério como candidatos à consciência, sejam eles feitos com componentes biológicos ou não.
Isso ressalta a importação de avaliar questões da consciência da IA caso a caso e não generalizando sobre os resultados envolvendo um único tipo de IA, como um dos chatbots de hoje. Devemos desenvolver uma série de testes para aplicar aos diferentes casos que surgirão, e ainda devemos nos esforçar por uma melhor compreensão científica e filosófica da própria consciência.
Esta é um artigo de opinião e análise, e as opiniões expressas pelo autor ou autores não são necessariamente as de Scientific American.