
CHATGPT DESMONTA LOS MITOS SOBRE LAS VACUNAS MEJOR QUE LOS HUMANOS
Los autores del estudio afirman que ChatGPT podría ayudar a aumentar la aceptación de las vacunas al desmentir los mitos sobre su seguridad
Según los psicólogos de la UCLA, el GPT-3 puede razonar tan bien como un estudiante universitario, pero ¿imita la tecnología el razonamiento humano o utiliza un proceso cognitivo fundamentalmente nuevo?
General 07/08/2023 QUO CienciaLas personas resuelven fácilmente problemas nuevos sin ningún entrenamiento o práctica especial comparándolos con problemas conocidos y ampliando la solución al nuevo problema. Este proceso, conocido como razonamiento analógico, se considera desde hace tiempo una capacidad exclusivamente humana. Pero eso puede haber cambiado ya.
Una investigación realizada por psicólogos de la Universidad de California en Los Ángeles (UCLA) muestra que, sorprendentemente, el modelo de lenguaje de inteligencia artificial GPT-3 rinde casi tan bien como los estudiantes universitarios cuando se les pide que resuelvan el tipo de problemas de razonamiento que suelen aparecer en los tests de inteligencia y en pruebas estandarizadas como el SAT, las pruebas de acceso a la universidad en Estados Unidos. El estudio se publica en Nature Human Behaviour.
Pero los autores del artículo escriben que el estudio plantea una pregunta: ¿Imita GPT-3 el razonamiento humano como subproducto de su enorme conjunto de datos de entrenamiento lingüístico o utiliza un tipo de proceso cognitivo fundamentalmente nuevo?
Sin acceso al funcionamiento interno de GPT-3, que está protegido por OpenAI, la empresa que lo creó, los científicos de la UCLA no pueden decir con seguridad cómo funciona su capacidad de razonamiento. También señalan que, aunque GPT-3 funciona mucho mejor de lo que esperaban en algunas tareas de razonamiento, la popular herramienta de IA sigue fallando estrepitosamente en otras.
«Por muy impresionantes que sean nuestros resultados, es importante destacar que este sistema tiene grandes limitaciones», afirma Taylor Webb, investigador postdoctoral en psicología de la UCLA y primer autor del estudio. «Puede hacer razonamientos analógicos, pero no puede hacer cosas que son muy fáciles para las personas, como utilizar herramientas para resolver una tarea física. Cuando le dimos ese tipo de problemas (algunos de los cuales los niños pueden resolver rápidamente), las cosas que sugería carecían de sentido».
PRUEBAS DE INTELIGENCIA
Webb y sus colegas probaron la capacidad de GPT-3 para resolver una serie de problemas inspirados en una prueba conocida como Matrices Progresivas de Raven, que pide al sujeto que prediga la siguiente imagen en una complicada disposición de formas. Para que GPT-3 pudiera «ver» las formas, Webb convirtió las imágenes a un formato de texto que GPT-3 pudiera procesar; este método también garantizaba que la IA nunca se hubiera encontrado antes con las preguntas.
Los investigadores pidieron a 40 estudiantes universitarios de la UCLA que resolvieran los mismos problemas.
«Sorprendentemente, GPT-3 no sólo lo hizo tan bien como los humanos, sino que también cometió errores similares», afirma Hongjing Lu, profesor de psicología de la UCLA y autor principal del estudio.
GPT-3 resolvió correctamente el 80% de los problemas, muy por encima de la puntuación media de los sujetos humanos, ligeramente inferior al 60%, pero dentro del rango de las puntuaciones humanas más altas.
Los investigadores también pidieron a GPT-3 que resolviera un conjunto de preguntas de analogía del examen SAT que, según ellos, nunca se habían publicado en Internet, lo que significa que es poco probable que formaran parte de los datos de entrenamiento de GPT-3. Las preguntas piden a los usuarios que seleccionen pares de palabras que compartan el mismo tipo de relaciones. (Por ejemplo, en el problema «‘Amor’ es a ‘odio’ lo que ‘rico’ es a ¿qué palabra?», la solución sería «pobre»).
Compararon las puntuaciones de GPT-3 con los resultados publicados de las puntuaciones SAT de los solicitantes universitarios y descubrieron que la IA obtenía mejores resultados que la puntuación media de los humanos.
A continuación, los investigadores pidieron a GPT-3 y a estudiantes voluntarios que resolvieran analogías basadas en historias cortas, pidiéndoles que leyeran un pasaje y luego identificaran una historia diferente que transmitiera el mismo significado. La tecnología obtuvo peores resultados que los estudiantes en esos problemas, aunque GPT-4, la última iteración de la tecnología de OpenAI, obtuvo mejores resultados que GPT-3.
Los investigadores de la UCLA han desarrollado su propio modelo informático, inspirado en la cognición humana, y han estado comparando sus capacidades con las de la IA comercial.
«La IA estaba mejorando, pero nuestro modelo de IA psicológica seguía siendo el mejor haciendo problemas de analogía hasta el pasado diciembre, cuando Taylor recibió la última actualización de GPT-3, y era tan bueno o mejor», afirmó el profesor de psicología de la UCLA Keith Holyoak, coautor del estudio.
Los investigadores señalaron que GPT-3 ha sido incapaz hasta ahora de resolver problemas que requieren comprender el espacio físico. Por ejemplo, si se le proporcionaban descripciones de un conjunto de herramientas -por ejemplo, un tubo de cartón, tijeras y cinta adhesiva- que podía utilizar para transferir bolas de chicle de un bol a otro, GPT-3 proponía soluciones extrañas.
«Los modelos de aprendizaje del lenguaje sólo intentan predecir palabras, así que nos sorprende que puedan razonar», explica Lu. «En los últimos dos años, la tecnología ha dado un gran salto respecto a sus encarnaciones anteriores».
Los científicos de la UCLA esperan explorar si los modelos de aprendizaje del lenguaje están empezando realmente a «pensar» como los humanos o están haciendo algo totalmente distinto que simplemente imita el pensamiento humano.
«La GPT-3 podría estar pensando como un humano», afirma Holyoak. «Pero, por otro lado, las personas no aprendían ingiriendo todo Internet, así que el método de entrenamiento es completamente distinto. Nos gustaría saber si realmente lo hace como las personas o si se trata de algo totalmente nuevo -una auténtica inteligencia artificial-, lo cual sería asombroso por derecho propio».
Para averiguarlo, tendrían que determinar los procesos cognitivos subyacentes que utilizan los modelos de IA, lo que requeriría acceder al software y a los datos utilizados para entrenarlo, y luego administrar pruebas que estén seguros de que el software no ha recibido ya. Este sería el siguiente paso para decidir en qué debe convertirse la IA.
«Sería muy útil para los investigadores cognitivos y de IA disponer del backend de los modelos GPT», afirma Webb. «Sólo estamos haciendo inputs y obteniendo outputs y no es tan decisivo como nos gustaría».
Los autores del estudio afirman que ChatGPT podría ayudar a aumentar la aceptación de las vacunas al desmentir los mitos sobre su seguridad
Te explicamos las diferencias y qué tipo de coche te interesa más en función del tipo de vida que hagas
Solo si se introducen prácticas de fabricación sostenible desde el comienzo de cada una de las tecnologías, se puede minimizar este efecto rebote y garantizar la menor emisión de CO₂ en todo el ciclo de vida de las nuevas energías limpias.
El pasado es accesible a través de huellas, pero no podemos enviar a nuestros exploradores en busca de los libros del futuro, por ahora
El espacio de convergencia entre la desinformación y la inteligencia artificial está repleto de luces y sombras.
La evolución darwiniana de las plantas y animales es conocida, pero podría ser solo un caso muy especial de un fenómeno natural mucho más amplio. Maravillas similares ocurren con estrellas, planetas, minerales y otros sistemas complejos, donde si una configuración novedosa va bien y mejora su función, entonces evoluciona, según una nueva “ley de información funcional creciente”.
La investigación en educación debe seguir una serie de etapas, que pueden variar según la naturaleza del problema o el contexto en el que se lleve a cabo
Un nuevo libro afirma que factores de estrés como el trauma climático, el engaño empresarial y la incompetencia política aceleran la amenaza de un colapso social
Las colonias de abejas melíferas (Apis mellifera) no hibernan. En la naturaleza pasan el invierno en cavidades de árboles que mantienen al menos parte de su población por encima de los 18ºC en una amplia gama de climas, incluyendo inviernos a -40ºC.
Una mirada al universo con el Telescopio Espacial James Webb revela sorpresas: incluso en las condiciones más adversas, los planetas rocosos podrían estar formándose
Entró en Harvard a los 11 años, hablaba 40 idiomas y escribió una decena de libros. Aunque rodeada de infortunios, la vida del prodigioso William James Sidis ha sido objeto de interés e investigación debido a su talento extraordinario.
Fundación Aldea Ideal, "por una comunidad inclusiva y sustentable", hace entrega todos los años de reconocimientos a quienes colaboran solidariamente con el bien común y ayudan con sus acciones a construir una comunidad más inclusiva.
La química, a través del estudio del efecto de la atmósfera terrestre o de otras atmósferas sobre ellos y sus compuestos químicos y minerales, y de los cambios químicos y climáticos en ambientes habitables y su efecto en la vida.