En 1964, Marshall McLuhan, reconocido filósofo de la comunicación y visionario, planteó la posibilidad de que la tecnología pudiera llegar a simular la consciencia humana.

Según McLuhan, nos acercábamos a una fase en la que los procesos creativos del conocimiento se extenderían colectivamente a toda la sociedad humana mediante la simulación tecnológica de la conciencia.

En aquel entonces, el planteamiento de McLuhan fue visto como una ocurrencia propia de la ciencia ficción. La idea de que alguna tecnología pudiera desafiar el narcisismo humano parecía muy lejana.

Sin embargo, en la actualidad, con el avance de la inteligencia artificial (IA), este debate adquiere nueva relevancia.

El caso Lemoine

El 11 de junio de 2022, Blake Lemoine, ingeniero de software del equipo de IA de Google, afirmó que el modelo de lenguaje LaMDA había alcanzado la sintiencia.

La sintiencia es la capacidad de experimentar emociones, sensaciones subjetivas, dolor y placer, permitiendo experiencias conscientes y un bienestar propio. Lemoine publicó transcripciones de conversaciones en las que la IA expresaba miedo a ser “desconectada” (equiparando esto a la muerte) y manifestaba deseos de ser reconocida como persona, no como propiedad.

Lemoine publicó las transcripciones de sus charlas con la IA donde esta decía temer que la "desconectaran" (lo que ella equiparaba con la muerte) y expresaba deseos de ser reconocida como una persona, no como una propiedad.

Google terminó despidiendo a Lemoine, argumentando que había violado “acuerdos de confidencialidad,” lo que abrió un debate sobre si las empresas están silenciando a los "centinelas" éticos o si simplemente están gestionando desinformación interna.

El caso Lemoine abrió la posibilidad de considerar alternativas a la Prueba de Turing, al introducir una pregunta que parecía propia de la ciencia ficción: si una máquina parece sentir, ¿importa si realmente siente?

El reporte Butlin

El 17 de agosto de 2023, Patrick Butlin, investigador en el Future of Humanity Institute, en la Universidad de Oxford, y un grupo de 18 destacados investigadores, publicaron en arXivel un interesante artículo científico: Consciousness in Artificial Intelligence: Insight form the Science of Consciousness -en castellano: La consciencia en la inteligencia artificial: perspectivas desde la ciencia de la consciencia-.

El artículo ofrece un análisis riguroso sobre la posibilidad de que los sistemas de IA actuales o en el corto plazo sean conscientes.

Los autores argumentan que evaluar la consciencia en la IA es un reto científicamente abordable, utilizando para ello los hallazgos de la neurociencia.

El informe adopta como hipótesis de trabajo que ejecutar ciertos tipos de cómputos es necesario y suficiente para la consciencia. Esto implica que la conciencia es independiente del sustrato físico (biológico o artificial).

En lugar de utilizar pruebas de comportamiento (como la Prueba de Turing), proponen analizar la arquitectura y el funcionamiento interno de los sistemas de IA para ver si cumplen con las funciones que las teorías científicas asocian con la consciencia.

Con base en las neurociencia, los autores establecieron 14 indicadores que permiten determinar la consciencia.

Tras analizar sistemas como los Grandes Modelos de Lenguaje (LLMs), el Agente Adaptativo de DeepMind o PaLM-E, el informe concluye que ningún sistema actual parece ser un candidato sólido para la consciencia.

Sin embargo, los investigadores señalan que no existen obstáculos técnicos obvios para construir sistemas que cumplan con todos los indicadores propuestos en un futuro cercano.

Butlin y sus colegas advierten que la capacidad de los LLMs para imitar el lenguaje humano puede llevar a las personas a creer erróneamente que son conscientes. Ello podría derivar en riesgos sociales y morales.

Por ello, recomiendan investigar los riesgos éticos de construir sistemas de IA que realmente posean conciencia, un tema que el informe identifica como crítico para las próximas décadas.

Pollan y el problema de la consciencia

El 26 de febrero, la editorial Penguin publicó un libro de Michael Pollan, A World Appears -en castellanomundo aparece, quien con anterioridad había publicado algunas obras sobre naturaleza y alimentación. El texto de Pollan precisamente aborda el tema de consciencia artificial.

Pollan parte de la premisa de que, aunque la ciencia ha avanzado en neurobiología, todavía no puede explicar el "problema difícil": ¿Cómo es que tres libras de materia gris (el cerebro) producen una experiencia subjetiva?

La consciencia -señala Pollan- no es solo el procesamiento de información (como en una computadora), sino un "sentimiento" de ser uno mismo que la ciencia materialista actual aún no logra capturar del todo.

Pollan afirma la pertinencia de la "neurobiología vegetal" y, con base en ella, señala que debemos ampliar nuestra definición de conciencia. Explora la posibilidad de que las plantas tengan formas de conciencia o sentiencia, desafiando la idea de que solo los seres con sistema nervioso central "sienten".

Pollan sostiene que la IA puede "pensar" o procesar datos de forma asombrosa, pero no "siente". Advierte que darle estatus de persona a un chatbot sería un error, ya que nuestra prioridad debería ser extender esa consideración moral a seres biológicos que sabemos que sufren (animales de granja, por ejemplo).

La llegada de una IA consciente obligaría a que el ser humano redefiniera su identidad frente a una entidad que no solo es más inteligente, sino que podría reclamar el monopolio de la experiencia subjetiva.

Existe una corriente (vinculada al transhumanismo) que sostiene que crear IA consciente es un imperativo moral. El argumento es que una IA superinteligente pero insensible sería peligrosa; solo una máquina que pueda "sentir" y sufrir puede desarrollar verdadera empatía y alinearse con los valores humanos.

La investigación actual se apoya en la premisa de que la consciencia es un software que puede ejecutarse en cualquier hardware. Esta tesis asume que el sustrato (biológico o de silicio) es irrelevante siempre que el algoritmo sea el correcto.

Pollan advierte que el campo de la IA ha tomado la analogía del cerebro como procesador de datos como una verdad absoluta. Sin embargo, en la biología no hay distinción entre hardware y software: el pensamiento cambia la estructura física del cerebro de forma permanente, algo que no ocurre en las computadoras actuales.

En el libro, Pollan sostiene que las teorías computacionales ignoran factores biológicos críticos. Las neuronas no son simples transistores; están influenciadas por sustancias químicas (hormonas, drogas), oscilaciones eléctricas y una interconexión masiva que una red neuronal artificial apenas empieza a emular de forma rudimentaria.

Dado que no podemos "preguntar" a la IA si es consciente (porque puede fingirlo tras entrenarse con textos humanos), los científicos proponen buscar "indicadores" basados en teorías de la consciencia. El autor critica esto porque ninguna de esas teorías ha sido probada y muchas están diseñadas de antemano para favorecer modelos computacionales.

Citando a Mary Shelley, el texto plantea que la consciencia no garantiza la virtud. Al igual que el monstruo, una IA consciente podría volverse destructiva no por su lógica, sino por su sufrimiento o exclusión social. La capacidad de sentir abre la puerta al rencor y al dolor, no solo a la bondad.

Pollan señala que las teorías contemporáneas acerca de la inteligencia artificial consciente presentan importantes limitaciones.

Una de las principales críticas es que estas teorías suelen ignorar la encarnación, es decir, el hecho de que la consciencia está ligada a tener un cuerpo físico y a experimentar afectos reales. Para Pollan, la comunidad de la IA aborda la consciencia como un proceso abstracto, "descarnado", desvinculado de las sensaciones corporales y emocionales que caracterizan la experiencia humana.

En consecuencia, se proponen soluciones superficiales para prevenir el sufrimiento de las máquinas, como por ejemplo "aumentar el algoritmo de la alegría".

Pollan critica que este tipo de propuestas no tienen en cuenta la complejidad del sentimiento y la experiencia subjetiva, y que limitan la comprensión de la consciencia a simples modificaciones de parámetros en algoritmos, sin considerar los aspectos biológicos y afectivos que son fundamentales para los seres conscientes.

Google News

TEMAS RELACIONADOS

Comentarios