LA ÉTICA DE LA PREDICCIÓN ALGORÍTMICA

Introducción

En las últimas décadas, la predicción algorítmica ha pasado de ser una herramienta estadística auxiliar a convertirse en un mecanismo central de organización social. Algoritmos que anticipan comportamientos, riesgos y trayectorias vitales influyen ya en decisiones sobre empleo, crédito, educación, salud, seguridad y consumo. No se limitan a describir el mundo: participan activamente en su construcción.

Este desplazamiento introduce un dilema ético profundo. A diferencia de las predicciones clásicas —meteorológicas, económicas o físicas—, la predicción algorítmica aplicada a personas interactúa con sujetos conscientes, capaces de verse afectados, condicionados o redefinidos por aquello que se dice de ellos. Cuando un sistema anticipa quién fracasará, quién delinquirá o quién no merece una oportunidad, la frontera entre prever y decidir se vuelve peligrosamente difusa.

El problema no es únicamente técnico ni reside en el margen de error. Incluso cuando los algoritmos son estadísticamente precisos, plantean cuestiones fundamentales sobre libre albedrío, responsabilidad, justicia y dignidad humana. Predecir comportamientos futuros implica fijar categorías, definir valores y priorizar determinados resultados como “deseables”. Estas decisiones, lejos de ser neutrales, incorporan visiones morales y políticas que suelen quedar ocultas tras la apariencia de objetividad matemática.

A ello se suma una transformación silenciosa de la privacidad. Ya no se trata solo de proteger datos del pasado o del presente, sino de defender el derecho a un futuro no predefinido. En un entorno donde patrones aparentemente inocuos permiten inferir rasgos íntimos y conductas probables, la pregunta ya no es quién sabe qué sobre nosotros, sino quién decide qué vamos a ser.

La predicción algorítmica también reconfigura la experiencia subjetiva. Vivir bajo evaluación constante puede erosionar la sensación de agencia personal, fomentar la autocensura y promover formas de conformismo adaptativo. La optimización continua amenaza con sustituir la posibilidad de cambio, error y redención por perfiles rígidos que nos acompañan como sombras estadísticas.

Este artículo aborda la ética de la predicción algorítmica desde seis ejes interconectados, concebidos como distintas caras de un mismo problema civilizatorio:

1. Cuando predecir es decidir: la profecía autocumplida algorítmica.
2. La privacidad del futuro: el derecho a no ser predicho.
3. La falsa neutralidad: juicios morales ocultos en el código.
4. Responsabilidad sin rostro: daños causados por futuros imaginados.
5. Vivir bajo predicción: agencia, identidad y conformismo.
6. La ineficiencia necesaria: límites éticos a la predicción perfecta.

Más que rechazar la predicción algorítmica en bloque, el objetivo es delimitar sus fronteras legítimas. En juego no está solo la eficiencia de los sistemas, sino el tipo de sociedad que emerge cuando el futuro deja de ser un espacio abierto de posibilidad y se convierte en una variable calculada, gestionada y, potencialmente, impuesta.

1. Cuando predecir es decidir: la profecía autocumplida algorítmica

La predicción algorítmica adquiere su dimensión ética más problemática cuando deja de ser descriptiva y pasa a ser performativa. En múltiples ámbitos sociales —empleo, educación, crédito, justicia— el acto de predecir no se limita a anticipar un resultado probable, sino que modifica las condiciones que lo hacen posible, cerrando un bucle causal que convierte la predicción en destino.

Este fenómeno, conocido como profecía autocumplida, se intensifica cuando la predicción se automatiza y se integra en sistemas de decisión a gran escala. Un algoritmo que clasifica a una persona o a un grupo como “alto riesgo” tiende a desencadenar respuestas institucionales defensivas: menos inversión educativa, mayor vigilancia, condiciones crediticias más duras o exclusión preventiva. Estas respuestas reducen objetivamente las oportunidades disponibles, aumentando la probabilidad de que el resultado negativo se materialice, no porque fuera inevitable, sino porque fue inducido.

La paradoja ética es profunda. El sistema puede reclamar corrección estadística —“los datos confirman la predicción”— sin reconocer que los propios datos han sido producidos por decisiones previas basadas en predicciones anteriores. El algoritmo no observa un mundo neutral; observa un mundo que él mismo contribuye a modelar. La precisión aparente se alimenta de una causalidad circular difícil de detectar y aún más difícil de corregir.

Este efecto es especialmente grave en comunidades históricamente marginadas. Allí donde ya existen desigualdades estructurales, la predicción algorítmica tiende a solidificarlas. No porque el algoritmo “discrimine” de forma intencional, sino porque aprende de datos que reflejan injusticias pasadas y las proyecta hacia el futuro como si fueran regularidades naturales. El riesgo no es solo reproducir el sesgo, sino otorgarle una legitimidad técnica que lo hace más resistente a la crítica.

Desde un punto de vista ético, el problema no es que la predicción sea errónea, sino que se vuelva autoritativa. Cuando una predicción adquiere peso normativo —cuando determina quién merece recursos, atención o confianza—, deja de ser una hipótesis y se transforma en una sentencia anticipada. El individuo deja de ser tratado como un agente abierto al cambio y pasa a ser gestionado como una probabilidad.

Este desplazamiento erosiona uno de los principios fundamentales de las sociedades democráticas: la presunción de posibilidad. En educación, supone abandonar la idea de que el rendimiento puede mejorar; en justicia, tensiona la presunción de inocencia; en empleo, reduce la evaluación a perfiles históricos que penalizan trayectorias no convencionales. El futuro se administra como una extensión del pasado, anulando la contingencia.

Las salvaguardas éticas frente a este bucle no pueden limitarse a mejorar la precisión del modelo. Requieren intervenciones estructurales: separar predicción de decisión, introducir evaluaciones contrafactuales (¿qué ocurriría si asignáramos más recursos a quienes el sistema considera “de alto riesgo”?), garantizar auditorías externas y, sobre todo, preservar espacios institucionales donde la predicción no tenga poder vinculante.

En última instancia, la pregunta ética no es si los algoritmos pueden predecir con acierto, sino si deben hacerlo cuando esa predicción altera el campo de lo posible. Cuando predecir equivale a decidir, la tecnología deja de ser una herramienta de conocimiento y se convierte en un mecanismo de cierre del futuro. Y ese cierre, incluso cuando es eficiente, tiene un coste moral que ninguna métrica puede compensar.

2. La privacidad del futuro: el derecho a no ser predicho

La expansión de la predicción algorítmica introduce una mutación silenciosa del concepto de privacidad. Tradicionalmente, la privacidad protegía información sobre el pasado y el presente: datos personales, hábitos, comunicaciones. Hoy, sin embargo, los sistemas predictivos desplazan el foco hacia algo más inquietante: la apropiación del futuro probable de una persona.

A partir de datos aparentemente anodinos —patrones de consumo, horarios de actividad, interacciones digitales, desplazamientos— los algoritmos pueden inferir con creciente precisión rasgos íntimos y conductas futuras: riesgos de depresión, orientación sexual, probabilidad de ruptura, inclinaciones políticas o vulnerabilidad económica. Lo éticamente problemático no es solo que estas inferencias existan, sino que se realicen sin consentimiento explícito y se utilicen de forma anticipatoria, antes de que el sujeto haya actuado o incluso decidido.

Aquí emerge un derecho aún poco formulado pero conceptualmente crucial: la privacidad predictiva, o el derecho a la indeterminación. Este derecho no protege hechos consumados, sino la apertura del futuro frente a su colonización estadística. Implica la posibilidad de que una persona no sea reducida a un conjunto de probabilidades operativas que otros —empresas, Estados, aseguradoras— puedan usar en su contra.

El dilema ético es profundo porque desafía las categorías jurídicas existentes. Muchas predicciones se basan en datos legales, públicos o voluntariamente cedidos. Desde una lógica formal, no hay violación de privacidad. Pero desde una lógica sustantiva, se produce una intrusión temporal: se extrae valor y poder de una proyección de la persona que aún no existe como hecho. El individuo no controla ni conoce ese “doble futuro” que circula en sistemas opacos y mercados de datos.

Además, la predicción futura tiene un efecto asimétrico. No todos los futuros son igualmente sensibles. Ser clasificado como probable consumidor de un producto es trivial; ser etiquetado como riesgo de fraude, inestabilidad mental o conflictividad social altera de forma directa las oportunidades vitales. La privacidad del futuro, por tanto, no es una abstracción filosófica, sino una condición práctica de la igualdad y la dignidad.

Existe también una dimensión epistemológica: las predicciones no son certezas, pero operan como si lo fueran. Aunque estén expresadas en términos probabilísticos, se traducen en decisiones binarias: conceder o no un crédito, ofrecer o no un empleo, activar o no una alerta. El sujeto no puede “corregir” una predicción sobre su futuro porque aún no ha ocurrido nada que corregir. Se enfrenta a una forma de juicio sin acto.

Desde una perspectiva ética, reconocer el derecho a no ser predicho implica aceptar límites a la optimización. Supone declarar que hay ámbitos —identidad, orientación vital, potencial de cambio— donde la anticipación algorítmica debe ser normativamente restringida, incluso si es técnicamente posible y económicamente rentable. No todo lo predecible debe ser predicho, y no todo lo predicho debe ser utilizado.

Proteger la privacidad del futuro no significa negar el valor del análisis de datos, sino reordenar su legitimidad. La pregunta deja de ser “¿podemos inferir esto?” para convertirse en “¿tenemos derecho a hacerlo y a usarlo?”. En esa transición se juega algo más que la protección de datos: se juega la preservación de la contingencia humana, la posibilidad de no estar ya definidos por aquello que aún no hemos sido.

3. La falsa neutralidad: juicios morales ocultos en el código

Uno de los mitos más persistentes en torno a la predicción algorítmica es el de su objetividad matemática. La idea de que un algoritmo “solo sigue los datos” ha servido para blindar decisiones automatizadas frente al escrutinio ético y político. Sin embargo, toda predicción algorítmica, sin excepción, incorpora juicios de valor. No porque los programadores sean moralmente sesgados, sino porque predecir exige definir qué cuenta como éxito, riesgo, normalidad o desviación.

Antes de que exista cualquier modelo matemático, alguien debe responder a preguntas profundamente normativas:
¿Qué es un “buen empleado”? ¿Productividad sostenida, obediencia, creatividad, estabilidad emocional?
¿Qué define un “barrio peligroso”? ¿Número de denuncias, presencia policial, nivel de renta, historial histórico?
¿Qué es “fracaso escolar”? ¿Notas bajas, abandono, falta de adaptación a un currículo concreto?

Estas definiciones no son neutras. Reflejan visiones del mundo, intereses institucionales y prioridades políticas. El algoritmo no las crea, pero las cristaliza, las hace operativas y las reproduce a gran escala bajo la apariencia de inevitabilidad técnica. Lo que antes era una decisión discutible se convierte en una salida numérica difícil de cuestionar.

El problema ético surge cuando estos juicios quedan ocultos tras la complejidad técnica. A diferencia de una norma explícita o una política pública declarada, el valor incrustado en un modelo predictivo no se presenta como una elección moral, sino como una consecuencia lógica de los datos. Esto desplaza el debate desde el terreno político —donde puede ser impugnado— al terreno técnico —donde suele ser aceptado por deferencia o desconocimiento—.

Además, los algoritmos tienden a simplificar realidades complejas. Para ser computables, las personas deben ser traducidas a variables cuantificables. Todo lo que no se mide desaparece del modelo. Rasgos como la resiliencia, el contexto biográfico, el potencial de cambio o la creatividad no estandarizada quedan fuera, mientras que otros indicadores —historial previo, comportamiento pasado, correlaciones estadísticas— adquieren un peso desproporcionado. El resultado es una reducción moral del sujeto a lo que es fácilmente predecible.

Esta ilusión de objetividad tiene efectos políticos concretos. Permite a instituciones y empresas externalizar la responsabilidad moral: no decidimos nosotros, “lo dice el algoritmo”. La autoridad se desplaza del juicio humano —explícito y discutible— a una arquitectura técnica opaca. La predicción se convierte así en una forma de gobierno sin deliberación, donde las decisiones parecen inevitables porque están respaldadas por números.

Desde una perspectiva ética, el desafío no es eliminar los valores de los algoritmos —algo imposible—, sino hacerlos visibles, debatibles y contestables. Esto implica transparencia real sobre los criterios de optimización, participación democrática en la definición de objetivos y la aceptación explícita de que toda predicción es, en parte, una decisión moral anticipada.

Reconocer que los algoritmos no son neutrales no los invalida; los humaniza en el sentido más exigente del término. Devuelve la responsabilidad a donde siempre debió estar: en la comunidad que decide qué futuros considera deseables y cuáles está dispuesta a imponer en nombre de la eficiencia.

4. Responsabilidad sin rostro: daños causados por futuros imaginados

Cuando una predicción algorítmica causa un daño real, emerge una de las zonas más oscuras de la automatización: la disolución de la responsabilidad. A diferencia de una decisión humana directa, donde el agente es identificable, la predicción algorítmica opera a través de cadenas técnicas y organizativas que fragmentan la autoría moral y legal. El resultado es un daño concreto producido por un “futuro imaginado” que nadie parece haber decidido plenamente.

Imaginemos un caso ya común: un sistema predice erróneamente que una persona presenta alto riesgo de fraude. Como consecuencia, se bloquean sus cuentas, se cancela su acceso al crédito o se le excluye de servicios esenciales. El daño es inmediato y tangible. Sin embargo, cuando la persona busca reparación, se enfrenta a una pregunta sin respuesta clara: ¿quién es responsable?
¿El científico de datos que diseñó el modelo?
¿La empresa que lo vendió como solución fiable?
¿La institución que lo implementó sin cuestionarlo?
¿El directivo que decidió automatizar la decisión?

Cada actor puede alegar una forma de distancia causal: el programador siguió buenas prácticas, la empresa cumplió el contrato, la institución confió en una herramienta validada, el directivo actuó según recomendaciones técnicas. El daño emerge no de una decisión aislada, sino de una coreografía de delegaciones. La responsabilidad se diluye en la arquitectura misma del sistema.

Este fenómeno plantea un desafío central para el derecho contemporáneo, basado en la imputación clara de actos y consecuencias. La predicción algorítmica introduce una forma de causalidad distribuida, donde la decisión no ocurre en un instante identificable, sino que se materializa a través de inferencias, umbrales y automatismos. El daño no proviene de lo que alguien hizo, sino de lo que un sistema anticipó que podría ocurrir.

Ante este vacío, comienza a emerger la idea de negligencia algorítmica. No se trata de castigar el error predictivo —inevitable en cualquier sistema probabilístico—, sino de evaluar si se actuó con la diligencia debida al diseñar, desplegar y supervisar un sistema capaz de causar daños graves. Esto incluye preguntas éticas clave:
¿Se evaluaron los impactos sociales antes del despliegue?
¿Existían mecanismos de apelación humana efectivos?
¿Se monitorizaron los errores sistemáticos?
¿Se informó a los afectados de que estaban siendo evaluados algorítmicamente?

El problema se agrava cuando las predicciones se presentan como recomendaciones no vinculantes, aunque en la práctica se sigan de forma automática. Esta ambigüedad permite a las organizaciones beneficiarse de la eficiencia del sistema sin asumir plenamente la responsabilidad de sus efectos. El algoritmo no decide, se dice; pero nadie decide sin él.

Desde una perspectiva ética, esta situación es insostenible. Un sistema que influye de manera decisiva en la vida de las personas debe tener responsables identificables, incluso si la decisión es técnicamente distribuida. De lo contrario, la predicción algorítmica se convierte en una forma de poder sin sujeto, capaz de producir daño sin rendición de cuentas.

Asignar responsabilidad por futuros imaginados no es solo un problema legal; es una exigencia moral. Significa reconocer que anticipar es ya intervenir, y que toda intervención con capacidad de dañar debe estar sujeta a criterios claros de responsabilidad, reparación y control democrático. Sin ello, la predicción algorítmica corre el riesgo de institucionalizar una nueva forma de injusticia: el daño sin culpable.

5. Vivir bajo predicción: agencia, identidad y conformismo

Más allá de sus efectos jurídicos o económicos, la predicción algorítmica introduce una transformación silenciosa en la experiencia subjetiva de vivir en sociedad. Cuando las personas saben —o intuyen— que sus comportamientos están siendo continuamente observados, analizados y proyectados hacia el futuro, la relación con uno mismo y con el entorno cambia de manera profunda. No se trata solo de ser vigilados, sino de ser anticipados.

Vivir bajo predicción altera la sensación de agencia. La idea de que nuestras decisiones futuras ya han sido calculadas —y posiblemente evaluadas— erosiona la percepción de libertad efectiva. Aunque el individuo conserve formalmente la capacidad de elegir, esas elecciones se producen dentro de un marco donde ciertas trayectorias aparecen como “probables”, “óptimas” o “arriesgadas”. El futuro deja de sentirse abierto y comienza a percibirse como estadísticamente inclinado.

Este efecto se intensifica cuando las predicciones se traducen en incentivos o penalizaciones. Si un algoritmo determina qué contenidos vemos, qué oportunidades laborales recibimos o qué condiciones financieras se nos ofrecen, la persona aprende —consciente o inconscientemente— a autorregularse para encajar en el perfil deseable. La predicción no obliga, pero orienta; no prohíbe, pero condiciona. El resultado es una forma de conformismo adaptativo: actuar no según el propio deseo o exploración, sino según lo que maximiza la probabilidad de un resultado favorable dentro del sistema.

A nivel identitario, esta dinámica puede producir una internalización del perfil algorítmico. La persona empieza a verse a sí misma a través de categorías externas: “no soy buen candidato”, “tengo un perfil de riesgo”, “no encajo en este circuito”. La identidad, que tradicionalmente se construía en diálogo con la experiencia, el error y el cambio, queda anclada a una imagen predictiva persistente, difícil de cuestionar y aún más difícil de escapar.

El impacto psicológico no es uniforme. En contextos de vulnerabilidad social, la predicción constante puede generar fatalismo, reducción de expectativas y abandono temprano de proyectos vitales. Si el sistema “sabe” que no tendrás éxito, insistir puede parecer irracional. En contextos privilegiados, en cambio, la predicción puede reforzar trayectorias exitosas, creando una profecía positiva que amplía oportunidades. La predicción, así, no solo describe desigualdades: las amplifica subjetivamente.

Desde una perspectiva social, esta lógica favorece la estabilidad y la eficiencia a corto plazo, pero tiene un coste a largo plazo: reduce la experimentación, la desviación creativa y la innovación humana. Las sociedades que funcionan bajo predicción intensiva tienden a premiar comportamientos previsibles y penalizar trayectorias atípicas, precisamente aquellas de las que históricamente han surgido transformaciones culturales, científicas y sociales.

El dilema ético es sutil pero profundo. Una sociedad que optimiza continuamente el comportamiento en función de predicciones puede volverse más ordenada, pero también más rígida. El riesgo no es la pérdida explícita del libre albedrío, sino su erosión práctica: seguimos siendo libres en teoría, pero cada vez más guiados por sistemas que anticipan, evalúan y corrigen antes de que podamos explorar plenamente otras posibilidades.

Vivir bajo predicción no elimina la libertad; la redefine silenciosamente. La cuestión ética central es si estamos dispuestos a aceptar una forma de vida donde la incertidumbre —ese espacio fértil de cambio, error y crecimiento— sea vista como una ineficiencia a corregir, en lugar de como una condición esencial de lo humano.

6. La ineficiencia necesaria: límites éticos a la predicción perfecta

El punto más incómodo —y quizá más revelador— de la ética de la predicción algorítmica surge cuando planteamos una hipótesis extrema: ¿qué ocurre si los algoritmos llegan a predecir con una precisión casi perfecta el comportamiento humano? Lejos de resolver los dilemas éticos anteriores, esta posibilidad los intensifica hasta hacerlos ineludibles. La pregunta deja de ser técnica y se vuelve abiertamente normativa: ¿deberíamos usar predicciones demasiado precisas?

En muchos ámbitos sociales, la eficiencia predictiva no es un valor neutral. En la justicia penal, por ejemplo, un sistema capaz de anticipar con alta probabilidad la reincidencia podría justificar detenciones preventivas, sentencias más duras o vigilancia permanente. Aunque estadísticamente eficaz, este uso erosionaría un principio central del derecho moderno: la presunción de inocencia. El individuo dejaría de ser juzgado por lo que ha hecho para ser gestionado por lo que podría hacer.

En educación, una predicción temprana y precisa del rendimiento futuro podría orientar recursos de forma “óptima”, pero al coste de renunciar a la fe en el potencial de cambio. El aprendizaje, entendido como proceso abierto y no lineal, se vería sustituido por trayectorias predeterminadas donde la excepción —el estudiante que supera las expectativas— deja de ser una posibilidad y se convierte en una anomalía estadística descartable.

Estos ejemplos revelan un conflicto de fondo: la predicción perfecta amenaza con cerrar espacios morales esenciales. La incertidumbre no es solo una limitación epistemológica; es una condición ética. Permite la redención, el error, la sorpresa y la transformación. Eliminarla en nombre de la optimización equivale a sustituir la ética por la ingeniería social.

De ahí surge la idea del imperativo de la ineficiencia ética. Este principio sostiene que, en ciertos dominios, la precisión predictiva debe ser deliberadamente limitada para proteger valores humanos fundamentales. No todo lo que puede calcularse debe ser calculado, y no todo lo que puede anticiparse debe ser utilizado como base de decisión vinculante. La ineficiencia, en este contexto, no es un fallo: es una barrera moral.

Aceptar este principio implica un giro cultural profundo. Supone reconocer que hay ámbitos —identidad personal, justicia, desarrollo humano— donde la incertidumbre es preferible a la exactitud, y donde el margen de error humano es éticamente más aceptable que la certeza algorítmica. También implica resistir la tentación de delegar decisiones difíciles en sistemas que, precisamente por su eficacia, eluden el debate moral.

La ética de la predicción algorítmica alcanza aquí su núcleo más radical. No se trata de corregir sesgos, mejorar la transparencia o repartir responsabilidades, sino de decidir colectivamente qué futuros no queremos conocer con antelación. Preservar espacios de indeterminación no es un gesto nostálgico, sino una forma de proteger la libertad en un mundo cada vez más capaz de anticiparla.

En última instancia, el dilema no es si los algoritmos nos conocerán mejor, sino si aceptaremos vivir en una sociedad que ya no se permite la sorpresa de ser distinta de lo que predijo de sí misma.

Conclusión

La ética de la predicción algorítmica no se juega en el margen de error de los modelos ni en la sofisticación de sus técnicas, sino en la relación que establecemos con el futuro humano. Cuando los algoritmos anticipan comportamientos, riesgos o trayectorias vitales, no solo producen conocimiento: intervienen en la estructura misma de lo posible. Predecir deja de ser un acto cognitivo para convertirse en un acto normativo.

A lo largo del análisis ha emergido un patrón común: la predicción algorítmica tiende a cerrar bucles. Clasifica, actúa sobre la clasificación y luego valida su propia predicción mediante los efectos que ha generado. Este mecanismo transforma probabilidades en destinos, especialmente allí donde existen desigualdades previas. La tecnología no crea la injusticia, pero puede hacerla más estable, más rápida y difícil de cuestionar.

El problema se agrava cuando la predicción se presenta como objetiva y neutral. Los juicios morales incrustados en el código —qué cuenta como éxito, riesgo o normalidad— quedan ocultos tras la matemática, desplazando el debate ético fuera del espacio público. La responsabilidad, a su vez, se fragmenta en cadenas técnicas que producen daño sin autor identificable, erosionando uno de los principios básicos de cualquier orden jurídico: que alguien responda por las consecuencias de las decisiones.

En el plano subjetivo, vivir bajo predicción transforma la experiencia de la libertad. No elimina formalmente la capacidad de elegir, pero reconfigura el campo de elección, incentivando la conformidad y penalizando la desviación. La identidad se vuelve algo que debe encajar en perfiles óptimos, y la incertidumbre —fuente histórica de cambio, creatividad y aprendizaje— pasa a ser tratada como una anomalía a corregir.

El dilema final es, por tanto, profundamente civilizatorio. Si la predicción algorítmica alcanza niveles de precisión casi perfectos, la tentación de utilizarla sin restricciones será enorme. Frente a ella, emerge una idea contraintuitiva pero esencial: la necesidad de una ineficiencia ética deliberada. Aceptar que hay ámbitos donde no queremos saber con exactitud qué ocurrirá, porque ese no-saber protege valores humanos fundamentales como la presunción de inocencia, el potencial de cambio y la dignidad personal.

La cuestión no es rechazar la predicción algorítmica, sino subordinarla a una ética de la posibilidad. Una ética que reconozca que el futuro no es solo un problema a resolver, sino un espacio a preservar. En última instancia, lo que está en juego no es la calidad de nuestros algoritmos, sino si estamos dispuestos a vivir en una sociedad que renuncia a la sorpresa de no ser exactamente aquello que fue predicho de ella.

 

 Puedes seguir explorando mi archivo completo de artículos en:

Biblioteca de conocimiento https://josr957.github.io/Conocimiento/


 


Comentarios

Entradas populares de este blog