• anteayer

Categoría

🗞
Noticias
Transcripción
00:00Los humanos son máquinas capaces de crear sentido, algo que las máquinas no saben hacer.
00:06Esa es la conclusión general de un estudio publicado en la revista Open Science de la
00:11Royal Society Británica, donde se analizan los modelos de lenguaje de gran tamaño,
00:15como CHAT-GPT, uno de los sistemas de inteligencia artificial más populares del mundo.
00:20Estos robots conversacionales reflejan los sesgos de género, éticos y morales de los humanos
00:25presentes en los textos de los que se alimenta, pero no son capaces de igualar los sesgos
00:30cognitivos de los humanos en las pruebas de razonamiento. La máquina funciona con una
00:34especie de pensamiento lineal, según uno de los investigadores, y es capaz de realizar
00:39correctamente las distintas fases de una tarea, pero obtiene un resultado final erróneo porque
00:44no tiene visión de conjunto. Para el estudio se sometieron a una serie
00:48de pruebas psicológicas a siete modelos de lenguaje, incluidas dos versiones de CHAT-GPT,
00:52BART de Google y tres versiones de LLAMA de Meta. Las respuestas de los modelos de lenguaje fueron
00:59muy inconstantes. Algunos respondieron correctamente seis de cada diez veces la misma
01:03prueba. Otros solo dos de diez, aunque la prueba no cambió. En general, GPT-4, sin ser infalible,
01:09obtuvo mejores resultados que los demás en el estudio que realizaron los investigadores.
01:14El resultado de la investigación es que los modelos de lenguaje de gran tamaño,
01:17como todas las inteligencias artificiales generativas, no funcionan como los humanos,
01:21y por el momento es impensable confiarles una decisión importante, pues muestran un
01:26razonamiento a menudo irracional, pero de una manera diferente a la de los humanos.

Recomendada