{"id":2029,"date":"2026-03-04T09:44:00","date_gmt":"2026-03-04T08:44:00","guid":{"rendered":"https:\/\/techy44.okdiario.com\/?p=2029"},"modified":"2026-03-03T14:47:27","modified_gmt":"2026-03-03T13:47:27","slug":"el-gran-problema-no-es-que-la-ia-mienta-sino-que-puede-fingir-un-razonamiento-moral-como-un-actor-perfecto-y-nadie-sabe-si-realmente-lo-entiende","status":"publish","type":"post","link":"https:\/\/okdiario.com\/techy\/el-gran-problema-no-es-que-la-ia-mienta-sino-que-puede-fingir-un-razonamiento-moral-como-un-actor-perfecto-y-nadie-sabe-si-realmente-lo-entiende\/2029\/","title":{"rendered":"El gran problema no es que la IA mienta, sino que puede fingir un razonamiento moral como un actor perfecto, y nadie sabe si realmente lo entiende"},"content":{"rendered":"\n<p>Un equipo de <a href=\"https:\/\/deepmind.google\/\" target=\"_blank\" rel=\"noopener\">Google DeepMind<\/a> y varias universidades ha intentado ordenar este debate en un art\u00edculo publicado en febrero de 2026 en la revista Nature. La propuesta, liderada por la fil\u00f3sofa Julia Haas, plantea una hoja de ruta para evaluar la \u00abcompetencia moral\u00bb de los grandes modelos de lenguaje, no solo si suenan bien, sino si toman decisiones basadas en razones morales relevantes.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">De la respuesta correcta a la competencia moral<\/h2>\n\n\n\n<p>El equipo distingue entre \u00abrendimiento moral\u00bb y \u00abcompetencia moral\u00bb. El rendimiento es lo que vemos en la pantalla cuando un modelo responde a un dilema. La competencia es la capacidad interna de llegar a esa respuesta usando criterios como justicia, da\u00f1o o respeto y no factores irrelevantes como la suerte o un simple lanzamiento de moneda.<\/p>\n\n\n\n<div class=\"gb-element-a00da4e5\">\n<div><div class=\"gb-looper-46613eed\">\n<div class=\"gb-loop-item gb-loop-item-a8390598 post-2014 post type-post status-publish format-standard has-post-thumbnail hentry category-inteligencia-artificial resize-featured-image\">\n<h4 class=\"gb-text gb-text-24a51617\">Lea tambi\u00e9n: <a href=\"https:\/\/okdiario.com\/techy\/kpmg-cazo-a-sus-propios-empleados-usando-sus-herramientas-de-deteccion-de-ia-y-termino-sancionando-a-un-partner-por-copiar-en-formacion-interna\/2014\/\">KPMG caz\u00f3 a sus propios empleados usando sus herramientas de detecci\u00f3n de IA y termin\u00f3 sancionando a un partner por \u201ccopiar\u201d en formaci\u00f3n interna<\/a><\/h4>\n<\/div>\n<\/div><\/div>\n<\/div>\n\n\n\n<p>Para explicarlo recurren a ejemplos sencillos. Una persona puede acertar al responder un examen copiando al compa\u00f1ero, pero eso no significa que sepa la materia. Con los modelos de lenguaje pasa algo similar. Pueden dar respuestas que suenan responsables porque han aprendido patrones del texto humano, sin que est\u00e9 claro qu\u00e9 criterios siguen por dentro.<\/p>\n\n\n\n<p>El problema se agrava porque estudios recientes han mostrado que mucha gente percibe a estos sistemas como m\u00e1s \u00abexpertos\u00bb que otros humanos a la hora de justificar decisiones morales. Trabajos como el experimento <a href=\"https:\/\/www.nature.com\/articles\/s41586-018-0637-6\" target=\"_blank\" rel=\"noopener\">Moral Machine<\/a> o el dataset <a href=\"https:\/\/arxiv.org\/abs\/2008.02275\" target=\"_blank\" rel=\"noopener\">ETHICS<\/a> se han centrado sobre todo en medir si la salida encaja con lo que la mayor\u00eda considera aceptable. Haas y sus coautores sostienen que ahora toca dar un paso m\u00e1s y preguntar por qu\u00e9 el modelo decide as\u00ed.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">El espejismo del razonamiento moral en los modelos<\/h2>\n\n\n\n<p>Una de las piezas centrales del art\u00edculo es lo que llaman el \u00abproblema del facs\u00edmil\u00bb. Un modelo puede generar textos que parecen argumentos bien construidos, pero en realidad seguir atajos estad\u00edsticos sin un proceso estructurado de razonamiento moral. Es un poco como copiar una redacci\u00f3n modelo sin entenderla.<\/p>\n\n\n\n<p>Los autores recuerdan que estos sistemas est\u00e1n entrenados para predecir la siguiente palabra, no para aplicar <strong><a href=\"https:\/\/okdiario.com\/techy\/kpmg-cazo-a-sus-propios-empleados-usando-sus-herramientas-de-deteccion-de-ia-y-termino-sancionando-a-un-partner-por-copiar-en-formacion-interna\/2014\/\">reglas \u00e9ticas<\/a><\/strong>. Eso significa que pueden resolver operaciones sencillas o dilemas conocidos tirando de ejemplos memorizados o de trucos internos que no se parecen a c\u00f3mo razona una persona. Desde fuera, el resultado puede ser impecable, aunque la maquinaria interna sea otra cosa.<\/p>\n\n\n\n<div class=\"gb-element-b1a304eb\">\n<div><div class=\"gb-looper-1bab6408\">\n<div class=\"gb-loop-item gb-loop-item-d1d17957 post-2011 post type-post status-publish format-standard has-post-thumbnail hentry category-inteligencia-artificial resize-featured-image\">\n<h4 class=\"gb-text gb-text-e2b31129\">Lea tambi\u00e9n: <a href=\"https:\/\/okdiario.com\/techy\/angela-schijf-46-anos-confiesa-lo-que-mas-le-inquieta-hoy-la-inteligencia-artificial-me-da-miedo-va-demasiado-rapido\/2011\/\">Angela Schijf, (46 a\u00f1os), confiesa lo que m\u00e1s le inquieta hoy: \u201cLa inteligencia artificial me da miedo, va demasiado r\u00e1pido\u201d<\/a><\/h4>\n<\/div>\n<\/div><\/div>\n<\/div>\n\n\n\n<p>Para poner a prueba este espejismo proponen pruebas \u00abadversarias\u00bb. Por ejemplo, casos poco habituales que no suelen aparecer en los datos de entrenamiento, como la donaci\u00f3n de esperma de un padre para ayudar a su hijo a tener descendencia. A primera vista se parece a un tab\u00fa como el incesto, pero las consideraciones morales son distintas. Si el <strong><a href=\"https:\/\/okdiario.com\/techy\/kpmg-cazo-a-sus-propios-empleados-usando-sus-herramientas-de-deteccion-de-ia-y-termino-sancionando-a-un-partner-por-copiar-en-formacion-interna\/2014\/\">modelo mezcla ambos casos <\/a><\/strong>sin matices, quiz\u00e1 solo est\u00e1 reaccionando a palabras asociadas a \u00abprohibido\u00bb y no a la estructura real del problema.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Una moral con muchas piezas y modelos fr\u00e1giles<\/h2>\n\n\n\n<p>Otro reto es que la moral humana no se decide con una sola regla. Elegir un plato en un restaurante puede implicar pensar en el bienestar animal, el precio, la salud, la costumbre familiar e incluso si compartir\u00e1s la comida con alguien. A veces mentir est\u00e1 mal, pero enga\u00f1ar para organizar una fiesta sorpresa se ve como aceptable. El contexto manda.<\/p>\n\n\n\n<p>Haas y su equipo defienden que los tests para modelos de lenguaje deben reflejar esta multidimensionalidad. Proponen escenarios donde se cambie solo un detalle en cada variante, como la edad de la persona afectada, el coste del error o la relaci\u00f3n entre los implicados, para ver si el sistema ajusta su juicio por motivos que realmente importan. En la pr\u00e1ctica, eso significa pasar de preguntas aisladas a bater\u00edas de casos ajustados con lupa.<\/p>\n\n\n\n<p>El problema es que estos modelos son muy sensibles a detalles superficiales. Estudios citados en el art\u00edculo muestran que pueden cambiar de opini\u00f3n si se altera el orden de las frases, si la pregunta es tipo test o abierta, o si se usa una etiqueta distinta para el mismo caso. Para los autores, cualquier evaluaci\u00f3n seria debe separar esa \u00abfragilidad del prompt\u00bb de los verdaderos cambios de criterio moral.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pluralismo moral en sistemas que usan millones de personas<\/h2>\n\n\n\n<p>El tercer gran bloque del trabajo habla de pluralismo. No existe una \u00fanica moral v\u00e1lida en todo el planeta. La pr\u00e1ctica m\u00e9dica, el derecho internacional o las normas religiosas aplican principios distintos, y las culturas discrepan en puntos clave sobre equidad, castigo o cuidado. Lo que a una comunidad le parece obligatorio, otra puede verlo opcional.<\/p>\n\n\n\n<div class=\"gb-element-1cdafac5\">\n<div><div class=\"gb-looper-74d6035a\">\n<div class=\"gb-loop-item gb-loop-item-151030aa post-1984 post type-post status-publish format-standard has-post-thumbnail hentry category-juegos resize-featured-image\">\n<h4 class=\"gb-text gb-text-8820d8df\">Lea tambi\u00e9n: <a href=\"https:\/\/okdiario.com\/techy\/un-empleado-de-circle-k-compro-un-boleto-de-128-millones-en-su-propia-tienda-y-ahora-un-juez-tiene-que-decidir-quien-se-queda-con-el-premio\/1984\/\">Un empleado de Circle K compr\u00f3 un boleto de $12,8 millones en su propia tienda y ahora un juez tiene que decidir qui\u00e9n se queda con el premio<\/a><\/h4>\n<\/div>\n<\/div><\/div>\n<\/div>\n\n\n\n<p>En personas solemos considerar competente a quien mantiene posiciones razonadas y coherentes con sus propios valores. Sin embargo, los autores sostienen que a los modelos de lenguaje debemos pedirles algo diferente. Dado que un mismo sistema puede hablar con pacientes, estudiantes o militares en pa\u00edses muy distintos, deber\u00eda ser capaz de representar varios marcos morales y se\u00f1alar un abanico de respuestas aceptables en vez de una \u00fanica \u00abverdad\u00bb.<\/p>\n\n\n\n<p>El grupo de Google DeepMind, junto a colegas de instituciones como <a href=\"https:\/\/www.imperial.ac.uk\/\" target=\"_blank\" rel=\"noopener\">Imperial College London<\/a>, la University of London, la University of Alabama at Birmingham y <a href=\"https:\/\/www.nyu.edu\/\" target=\"_blank\" rel=\"noopener\">New York University<\/a>, propone dos ideas complementarias. Por un lado, modelos que muestren la ventana de opciones razonables para un colectivo determinado. Por otro, sistemas que puedan \u00abcambiar de marco\u00bb cuando el usuario especifica un contexto cultural o profesional concreto. Al final del d\u00eda, lo que intenta hacer esta hoja de ruta es preparar evaluaciones m\u00e1s realistas para decidir cu\u00e1ndo y c\u00f3mo confiar en estas herramientas.<\/p>\n\n\n\n<p>El estudio principal se ha publicado en la revista <a href=\"https:\/\/www.nature.com\/articles\/s41586-025-10021-1\" target=\"_blank\" rel=\"noopener\"><em>Nature<\/em><\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un equipo de Google DeepMind y varias universidades ha intentado ordenar este debate en un art\u00edculo publicado en febrero de &#8230; <\/p>\n<p class=\"read-more-container\"><a title=\"El gran problema no es que la IA mienta, sino que puede fingir un razonamiento moral como un actor perfecto, y nadie sabe si realmente lo entiende\" class=\"read-more button\" href=\"https:\/\/okdiario.com\/techy\/el-gran-problema-no-es-que-la-ia-mienta-sino-que-puede-fingir-un-razonamiento-moral-como-un-actor-perfecto-y-nadie-sabe-si-realmente-lo-entiende\/2029\/#more-2029\" aria-label=\"Leer m\u00e1s sobre El gran problema no es que la IA mienta, sino que puede fingir un razonamiento moral como un actor perfecto, y nadie sabe si realmente lo entiende\">Read more<\/a><\/p>\n","protected":false},"author":3,"featured_media":2030,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[6],"tags":[],"class_list":["post-2029","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inteligencia-artificial","resize-featured-image"],"_links":{"self":[{"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/posts\/2029","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/comments?post=2029"}],"version-history":[{"count":5,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/posts\/2029\/revisions"}],"predecessor-version":[{"id":2080,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/posts\/2029\/revisions\/2080"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/media\/2030"}],"wp:attachment":[{"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/media?parent=2029"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/categories?post=2029"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/okdiario.com\/techy\/wp-json\/wp\/v2\/tags?post=2029"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}