
Cómo saber si tu IA es consciente
¿Alguna vez has hablado con alguien que está 'en conciencia'? ¿Cómo fue esa conversación? ¿Hicieron un gesto vago en el aire con ambas manos? ¿Hacían referencia al Tao Te Ching o a Jean-Paul Sartre? ¿Dijeron que, en realidad, no hay nada de lo que los científicos puedan estar seguros y que la realidad es tan real como la imaginamos?
La confusión de la conciencia, su imprecisión, ha hecho que su estudio sea anatema en las ciencias naturales. Al menos hasta hace poco, el proyecto se dejaba en gran medida en manos de los filósofos, que a menudo eran sólo marginalmente mejores que otros a la hora de aclarar su objeto de estudio. Hod Lipson, un Robótico de la Universidad de Columbia, dijo que algunas personas en su campo se referían a la conciencia como 'la palabra C'. Grace Lindsay, neurocientífica de la Universidad de Nueva York, dijo: 'Existía la idea de que no se puede estudiar la conciencia hasta que se sea titular'.
Sin embargo, hace unas semanas, un grupo de filósofos, neurocientíficos e informáticos, entre ellos el Dr. Lindsay, propuso una rúbrica con la que determinar si un sistema de IA como ChatGPT podría considerarse consciente. El informe, que analiza lo que el Dr. Lindsay llama la 'nueva' ciencia de la conciencia, reúne elementos de media docena de teorías empíricas incipientes y propone una lista de cualidades mensurables que podrían sugerir la presencia de alguna presencia en una máquina.
Por ejemplo, la teoría del procesamiento recurrente se centra en las diferencias entre la percepción consciente (por ejemplo, estudiar activamente una manzana frente a usted) y la percepción inconsciente (como la sensación de una manzana volando hacia su cara). Los neurocientíficos han argumentado que percibimos inconscientemente. cosas cuando las señales eléctricas pasan desde los nervios de nuestros ojos a la corteza visual primaria y luego a partes más profundas del cerebro, como un bastón que se pasa de un grupo de nervios a otro. Estas percepciones parecen volverse conscientes cuando el bastón se pasa. regresa, desde las partes más profundas del cerebro a la corteza visual primaria, creando un bucle de actividad.
Otra teoría describe secciones especializadas del cerebro que se utilizan para tareas particulares: la parte del cerebro que puede equilibrar el cuerpo más pesado sobre un saltador es diferente de la parte del cerebro que puede contemplar un paisaje expansivo. Somos capaces de reunir toda esta información (puedes saltar en un saltador mientras disfrutas de una bonita vista), pero sólo hasta cierto punto (hacerlo es difícil). Por eso, los neurocientíficos han postulado la existencia de un 'espacio de trabajo global' que permite para el control y la coordinación sobre aquello a lo que prestamos atención, lo que recordamos e incluso lo que percibimos. Nuestra conciencia puede surgir de este espacio de trabajo integrado y cambiante.
Pero también podría surgir de la capacidad de ser consciente de su propia conciencia, de crear modelos virtuales del mundo, de predecir experiencias futuras y de localizar su cuerpo en el espacio. El informe sostiene que cualquiera de estas características podría, potencialmente, ser una parte esencial de lo que significa ser consciente. Y, si somos capaces de discernir estos rasgos en una máquina, entonces podríamos considerarla consciente.
Una de las dificultades de este enfoque es que los sistemas de IA más avanzados son redes neuronales profundas que 'aprenden' a hacer cosas por sí mismas, de maneras que no siempre son interpretables por los humanos. Podemos obtener algunos tipos de información de sus sistemas internos. estructura, pero solo de manera limitada, al menos por el momento. Este es el problema de la caja negra de la AI. Entonces, incluso si tuviéramos una rúbrica de conciencia completa y exacta, sería difícil aplicarla a las máquinas que usamos todos los días.
Y los autores del reciente informe se apresuran a señalar que la suya no es una lista definitiva de lo que hace que uno sea consciente. Se basan en una explicación del 'funcionalismo computacional', según el cual la conciencia se reduce a fragmentos de información que se transmiten de un lado a otro dentro de un mismo organismo. un sistema, como en una máquina de pinball. En principio, según este punto de vista, una máquina de pinball podría ser consciente, si se hiciera mucho más compleja. (Eso podría significar que ya no es una máquina de pinball; crucemos ese puente si llegamos Pero otros han propuesto teorías que toman nuestras características biológicas o físicas, contextos sociales o culturales, como piezas esenciales de la conciencia. Es difícil ver cómo estas cosas podrían codificarse en una máquina.
E incluso para los investigadores que están en gran medida de acuerdo con el funcionalismo computacional, ninguna teoría existente parece suficiente para la conciencia.
'Para que cualquiera de las conclusiones del informe sea significativa, las teorías tienen que ser correctas', dijo el Dr. Lindsay. 'Y no lo son'. Esto podría ser lo mejor que podemos hacer por ahora, añadió.
Después de todo, ¿parece que alguna de estas características, o todas ellas combinadas, comprenden lo que William James describió como la 'calidez' de la experiencia consciente? O, en palabras de Thomas Nagel, ¿'cómo es' ser tú? Existe una brecha entre las formas en que podemos medir la experiencia subjetiva con la ciencia y la experiencia subjetiva en sí. Esto es lo que David Chalmers ha denominado el 'problema difícil' de la conciencia. Incluso si un sistema de IA tiene procesamiento recurrente, un espacio de trabajo global y un sentido de su ubicación física: ¿qué pasa si todavía le falta aquello que lo hace sentir como algo?
Cuando le mencioné este vacío a Robert Long, un filósofo del Centro para la Seguridad de la IA que dirigió el trabajo en el informe, dijo: 'Ese sentimiento es algo que sucede cada vez que intentas explicar científicamente, o reducirlo a procesos físicos, algún concepto de alto nivel'.
Hay mucho en juego, añadió; Los avances en inteligencia artificial y aprendizaje automático están llegando más rápido que nuestra capacidad para explicar lo que está sucediendo. En 2022, Blake Lemoine, ingeniero de Google, argumentó que el chatbot LaMDA de la compañía era consciente (aunque la mayoría de los expertos no estaban de acuerdo); La mayor integración de la IA generativa en nuestras vidas significa que el tema puede volverse más polémico. El Dr. Long sostiene que tenemos que empezar a hacer algunas afirmaciones sobre lo que podría ser consciente y se lamenta de la forma 'vaga y sensacionalista' en la que lo hemos abordado, a menudo combinar la experiencia subjetiva con la inteligencia general o la racionalidad. 'Este es un problema al que nos enfrentamos ahora y en los próximos años', dijo.
Como lo expresó Megan Peters, neurocientífica de la Universidad de California, Irvine, y autora del informe: 'Si hay alguien allí o no, hace una gran diferencia en cómo lo tratamos'.
Ya hacemos este tipo de investigación con animales, lo que requiere un estudio cuidadoso para hacer la afirmación más básica de que otras especies tienen experiencias similares a las nuestras, o incluso comprensibles para nosotros. Esto puede parecerse a una actividad divertida en una casa, como disparar flechas empíricas desde plataformas móviles. hacia objetivos que cambian de forma, con arcos que ocasionalmente resultan ser espaguetis. Pero a veces conseguimos un éxito. Como escribió Peter Godfrey-Smith en su libro 'Metazoa', los cefalópodos probablemente tienen un tipo de experiencia subjetiva sólida pero categóricamente diferente a la de los humanos. Los pulpos tienen alrededor de 40 millones de neuronas en cada brazo. ¿Cómo es eso?
Nos basamos en una serie de observaciones, inferencias y experimentos, tanto organizados como no, para resolver este problema de otras mentes. Hablamos, tocamos, jugamos, formulamos hipótesis, estimulamos, controlamos, radiografiamos y diseccionamos, pero, en última instancia, todavía No sabemos qué nos hace conscientes. Sólo sabemos que lo somos.