EL LIBRE ALBEDRIO EN LA ERA ALGORÍTMICA

Introducción

El libre albedrío en la era algorítmica

Durante siglos, el libre albedrío se pensó como una facultad interna, casi inexpugnable: la capacidad humana de elegir entre alternativas posibles guiada por la razón, el deseo o la deliberación moral. Las amenazas clásicas a esta idea —el determinismo físico, la biología, la psicología— operaban en planos abstractos o invisibles para la experiencia cotidiana. La era algorítmica, en cambio, introduce una transformación radical: por primera vez, los condicionantes de la elección se materializan en sistemas técnicos concretos, diseñados explícitamente para influir en el comportamiento humano.

Los algoritmos no nos obligan; configuran el entorno en el que elegimos. Ordenan la información, jerarquizan opciones, anticipan deseos y optimizan estímulos. Esta mediación sistemática plantea una cuestión filosófica de primer orden: si nuestras decisiones están cada vez más preconfiguradas por arquitecturas digitales opacas, ¿sigue teniendo sentido hablar de libre albedrío en los términos tradicionales?

A diferencia del determinismo clásico, el determinismo algorítmico no niega la experiencia subjetiva de elegir. Al contrario, la preserva y la explota. La elección persiste, pero dentro de espacios de posibilidad cuidadosamente diseñados, donde algunas opciones son invisibles, improbables o emocionalmente desincentivadas. El problema ya no es la ausencia de libertad, sino la ingeniería silenciosa de la preferencia.

Este artículo aborda el libre albedrío no como una abstracción metafísica aislada, sino como una capacidad situada, vulnerable a las condiciones tecnológicas que estructuran la atención, la información y la acción. La pregunta central no es si somos completamente libres o completamente determinados, sino qué tipo de libertad es posible en entornos gobernados por sistemas predictivos, personalizados y optimizados para fines ajenos a la autonomía del sujeto.

El análisis se desarrolla en seis partes interconectadas:

  1. La arquitectura de la elección, donde los algoritmos configuran los espacios de decisión sin coerción explícita.
  2. La predictibilidad conductual, que reabre la tensión entre libre albedrío y determinismo a la luz del aprendizaje automático.
  3. La externalización de la agencia moral, al delegar decisiones éticas en sistemas automatizados.
  4. Las burbujas cognitivas, que afectan la formación autónoma de preferencias y creencias.
  5. La ilusión de agencia, producida por interfaces diseñadas para maximizar el engagement.
  6. Las estrategias de resistencia, orientadas a recuperar y rediseñar la autonomía en entornos digitales.
Hablar de libre albedrío en la era algorítmica no implica nostalgia por una libertad absoluta que quizá nunca existió. Implica reconocer que la libertad humana siempre ha sido condicionada, pero que hoy esos condicionamientos son sistémicos, intencionales y escalables. Comprenderlos es el primer paso para decidir si queremos aceptarlos pasivamente o redefinir, de manera consciente, las condiciones técnicas de nuestra propia agencia.

1. La arquitectura de la elección: cómo los algoritmos moldean los espacios de decisión

La libertad de elección no se ejerce en el vacío. Siempre ha estado condicionada por el entorno, la información disponible y las alternativas percibidas. La novedad de la era algorítmica no es que existan condicionamientos, sino que estos se diseñan deliberadamente, se optimizan de forma continua y operan a una escala masiva e individualizada. Los algoritmos no toman decisiones por nosotros, pero construyen el escenario en el que decidimos.

Las plataformas digitales funcionan como arquitectos de elección. A través de sistemas de recomendación, rankings, notificaciones y filtros personalizados, determinan qué opciones aparecen primero, cuáles se repiten y cuáles quedan ocultas. Esta arquitectura no prohíbe alternativas, pero modula su probabilidad de ser elegidas, desplazando la libertad desde la deliberación consciente hacia la respuesta automática. Elegimos, sí, pero dentro de un campo de posibilidades previamente curado.

Conceptos como el nudging digital ilustran bien este fenómeno. Inspirado en la economía conductual, el empujón algorítmico no obliga ni sanciona, sino que orienta sutilmente el comportamiento: qué contenido ver, qué producto comprar, a quién seguir, qué noticia considerar relevante. A diferencia del nudging clásico, aquí la intervención es dinámica, personalizada y basada en datos conductuales acumulados. El entorno se adapta al usuario en tiempo real, reduciendo la fricción de las opciones que benefician al sistema y aumentando la de aquellas que no.

La economía de la atención refuerza este mecanismo. En un contexto de sobrecarga informativa, la atención se convierte en un recurso escaso y altamente valioso. Los algoritmos compiten por capturarla y retenerla, priorizando contenidos que maximizan la interacción emocional y el tiempo de permanencia. El resultado es una jerarquización de opciones que no responde a criterios de verdad, relevancia cívica o valor personal, sino a métricas de optimización internas. La libertad de elección se ve así canalizada por incentivos invisibles.

Desde una perspectiva filosófica, el problema no es la influencia en sí misma —inevitable en toda vida social—, sino su opacidad y asimetría. El sujeto desconoce en gran medida cómo se estructura su entorno decisional, mientras que el sistema posee un conocimiento detallado de sus patrones, debilidades y preferencias. Esta asimetría erosiona la autonomía deliberativa, entendida como la capacidad de reflexionar críticamente sobre las razones de la propia elección.

Además, la personalización extrema fragmenta la experiencia común. Cada individuo habita un espacio de decisión único, lo que dificulta la comparación, el contraste y la corrección social de las elecciones. La arquitectura algorítmica no solo influye en lo que elegimos, sino en cómo concebimos el abanico de lo posible. Opciones que no aparecen dejan de ser pensables, y lo no pensable no puede ser elegido.

Así, la arquitectura de la elección algorítmica no elimina el libre albedrío de manera directa, pero lo reconfigura profundamente. La libertad persiste como experiencia subjetiva, mientras su estructura objetiva se estrecha y se orienta. El desafío filosófico consiste en reconocer que la autonomía ya no depende solo de la voluntad interna, sino del diseño de los sistemas que median nuestras decisiones. En la era algorítmica, defender el libre albedrío implica, necesariamente, interrogar la arquitectura misma de la elección.

2. Predictibilidad conductual y la paradoja del determinismo algorítmico

Uno de los desafíos más profundos que la inteligencia artificial plantea al libre albedrío no proviene de la coerción ni de la manipulación directa, sino de su capacidad predictiva. Los sistemas de aprendizaje automático, al analizar enormes volúmenes de datos conductuales, son capaces de anticipar con notable precisión qué compraremos, qué contenido nos atraerá, a quién votaremos o cuándo abandonaremos una plataforma. Esta capacidad reabre una vieja cuestión filosófica bajo una forma nueva: si nuestras decisiones pueden predecirse, ¿en qué sentido son libres?

A primera vista, la predictibilidad parece apuntar hacia un determinismo encubierto. Si un algoritmo puede anticipar una elección antes de que el sujeto sea consciente de ella, la decisión parece menos un acto de libertad que la ejecución de un patrón. Sin embargo, esta conclusión es engañosa si se acepta sin matices. La IA no “lee” la voluntad; modela regularidades estadísticas a partir de comportamientos pasados y contextos presentes. Predice probabilidades, no certezas metafísicas.

La paradoja surge porque estas predicciones, al ser integradas en sistemas de recomendación y personalización, retroalimentan el comportamiento que describen. El algoritmo no solo anticipa lo que probablemente haremos; ajusta el entorno para que esa acción sea más probable. Así, la predicción se convierte en profecía parcialmente autocumplida. El determinismo algorítmico no está en la predicción en sí, sino en la intervención que la sigue.

Desde la filosofía de la acción, esto obliga a distinguir entre determinación causal y condicionamiento contextual. Que una decisión sea predecible no implica que esté causalmente forzada. Los seres humanos siempre han sido parcialmente predecibles en contextos sociales estables. La novedad es la granularidad individual y la escala: la IA identifica micro-patrones personales y los explota de manera sistemática, reduciendo el espacio para elecciones inesperadas.

Aquí emerge una segunda capa de la paradoja. La predictibilidad algorítmica no elimina la libertad, pero penaliza la desviación. Las decisiones que se apartan del patrón reciben menos apoyo del entorno digital: aparecen menos, requieren más esfuerzo, generan fricción. El sujeto sigue siendo libre en principio, pero el coste cognitivo y emocional de ejercer esa libertad aumenta. El libre albedrío se transforma así en una libertad de alta resistencia.

Además, la existencia de predicciones externas modifica la autopercepción del agente. Saber —o intuir— que nuestros actos son anticipados por sistemas impersonales puede inducir una forma de fatalismo práctico: si “ya está decidido”, ¿para qué deliberar? Este efecto psicológico no es trivial. El determinismo algorítmico actúa no solo como estructura externa, sino como narrativa internalizada que debilita la motivación para ejercer una autonomía reflexiva.

Paradójicamente, la IA no demuestra que el libre albedrío sea una ilusión, sino que revela su fragilidad contextual. La libertad humana no desaparece ante la predictibilidad, pero depende cada vez más de la capacidad de interrumpir patrones, resistir recomendaciones y reintroducir deliberación consciente en entornos diseñados para minimizarla.

En este sentido, la paradoja del determinismo algorítmico no es metafísica, sino práctica. El problema no es que nuestras decisiones estén determinadas por leyes inexorables, sino que vivimos dentro de sistemas que aprenden a conocernos mejor de lo que nosotros mismos nos observamos, y que utilizan ese conocimiento para orientar nuestras acciones. Defender el libre albedrío, aquí, ya no consiste en negar la predictibilidad, sino en reclamar espacios de indeterminación significativa donde la elección vuelva a ser algo más que la confirmación de un perfil.

3. La externalización de la agencia moral a sistemas automatizados

Una de las transformaciones más profundas —y menos visibles— de la era algorítmica es la delegación progresiva de decisiones con carga moral a sistemas automatizados. No se trata solo de optimizar procesos técnicos, sino de trasladar juicios normativos —qué es justo, aceptable o prioritario— a modelos entrenados sobre datos pasados. Esta externalización altera de manera sustantiva nuestra comprensión de la responsabilidad y la agencia moral.

Casos como los sistemas judiciales predictivos, los algoritmos de diagnóstico médico o los vehículos autónomos ilustran bien el problema. En estos contextos, la decisión no es trivial: puede afectar derechos, vidas o trayectorias vitales. Al delegarla en un sistema automatizado, el agente humano no desaparece, pero su papel se desplaza: pasa de deliberar a supervisar, de juzgar a validar resultados producidos por una lógica opaca.

Desde la ética clásica, la agencia moral implica capacidad de comprender razones, evaluar consecuencias y asumir responsabilidad. Los algoritmos carecen de esta comprensión normativa; operan mediante correlaciones y optimizaciones. Sin embargo, en la práctica, sus decisiones adquieren autoridad institucional. Cuando un juez, un médico o un operador confía en la “objetividad” del sistema, la decisión algorítmica se vuelve difícil de cuestionar, incluso cuando entra en conflicto con la intuición moral humana.

Aquí emerge una forma de desplazamiento de la culpa. Si una decisión resulta injusta o dañina, la responsabilidad se difumina entre diseñadores, operadores, instituciones y modelos. Esta fragmentación erosiona uno de los pilares del libre albedrío moral: la posibilidad de atribuir claramente la autoría de una acción. La delegación algorítmica no elimina la responsabilidad, pero la diluye hasta hacerla políticamente inoperante.

Además, la automatización introduce una normalización del juicio. Los sistemas aprenden de datos históricos, reproduciendo patrones existentes de sesgo, desigualdad o exclusión. Al delegar en ellos, no solo externalizamos decisiones, sino que congelamos el pasado como norma. El juicio moral deja de ser un acto crítico situado y se convierte en la aplicación mecánica de regularidades estadísticas.

Desde la perspectiva del libre albedrío, el riesgo no es solo perder control sobre decisiones concretas, sino atrofiar la capacidad de juicio. Si los sujetos se acostumbran a aceptar recomendaciones automatizadas como sustituto del razonamiento moral, la deliberación ética se degrada por desuso. La agencia no se niega explícitamente; se desentrena.

Este fenómeno plantea una paradoja inquietante: delegamos en sistemas automatizados para reducir errores humanos, pero al hacerlo podemos empobrecer el ejercicio de la responsabilidad que define a los agentes morales. La cuestión no es si los algoritmos deben asistir en la toma de decisiones —lo harán inevitablemente—, sino hasta qué punto permitimos que sustituyan el acto mismo de juzgar.

En la era algorítmica, preservar el libre albedrío moral exige resistir la tentación de la delegación total. Implica mantener zonas irrenunciables de decisión humana, donde el error, la duda y la deliberación sigan siendo parte constitutiva de la acción ética. Porque allí donde nadie decide plenamente, nadie es plenamente responsable.

4. Burbujas cognitivas y la libertad de formación de preferencias

El libre albedrío no se ejerce únicamente en el momento de la elección, sino mucho antes: en el proceso de formación de preferencias, creencias y deseos. En la era algorítmica, este proceso se ve profundamente alterado por los sistemas de personalización que configuran entornos informativos a medida. El resultado es la emergencia de burbujas cognitivas: espacios informativos cerrados que refuerzan patrones previos y limitan la exposición a perspectivas alternativas.

Los algoritmos de recomendación optimizan para relevancia percibida y engagement. Para ello, aprenden qué contenidos generan mayor respuesta emocional y los priorizan. Este mecanismo produce una retroalimentación cognitiva: el usuario interactúa con cierto tipo de información, el sistema la amplifica, y la diversidad de estímulos se reduce progresivamente. La burbuja no se impone de forma coercitiva; se construye cooperativamente entre usuario y algoritmo, lo que la hace más difícil de detectar y cuestionar.

Desde una perspectiva filosófica, el problema no es la existencia de preferencias —inevitables y legítimas—, sino la reducción sistemática del espacio deliberativo en el que esas preferencias se forman. La autonomía requiere acceso a información plural, fricción cognitiva y posibilidad de contraste. Cuando el entorno informativo se vuelve homogéneo y confirmatorio, la capacidad de revisar creencias y deseos se debilita. La elección sigue siendo libre en apariencia, pero sus fundamentos se estrechan.

Estas burbujas tienen además una dimensión social y política. Al fragmentar la experiencia informativa, erosionan la realidad compartida necesaria para la deliberación democrática. Individuos que habitan universos cognitivos distintos no solo discrepan; razonan a partir de hechos y marcos incompatibles. La libertad de formación de preferencias deja de ser un proceso socialmente anclado y se convierte en una experiencia altamente individualizada y aislada.

La personalización algorítmica también introduce una asimetría temporal. Las preferencias pasadas pesan más que las potenciales. El sistema privilegia la coherencia del perfil sobre la exploración, penalizando el cambio y la sorpresa. Así, la identidad se vuelve estáticamente predecible, y la posibilidad de transformación —central para la idea de libre albedrío— se reduce a excepciones costosas.

Importa subrayar que las burbujas cognitivas no eliminan la libertad de pensamiento de manera directa. Nadie impide buscar información alternativa. Pero la carga de la prueba se invierte: el esfuerzo recae en el individuo, mientras el entorno favorece la inercia. La libertad existe, pero opera contra la corriente de sistemas diseñados para minimizar la desviación.

En este contexto, la libertad de formación de preferencias ya no depende solo de la voluntad individual, sino de la ecología informativa en la que se desarrolla. Defender el libre albedrío implica entonces repensar el diseño de estos entornos: introducir diversidad deliberada, fricción cognitiva y mecanismos que reabran el horizonte de lo pensable. Sin ese espacio, la elección puede seguir siendo técnicamente libre, pero pierde su dimensión más profunda: la capacidad de elegir quién queremos ser.

5. La ilusión de agencia en interfaces diseñadas para el engagement

Uno de los rasgos más sofisticados —y problemáticos— de la era algorítmica es la capacidad de las interfaces digitales para simular autonomía mientras orientan el comportamiento hacia objetivos predeterminados. El usuario siente que elige, que controla, que decide libremente; sin embargo, esa experiencia subjetiva de agencia se produce dentro de entornos cuidadosamente diseñados para maximizar el engagement. La libertad no se elimina: se escenifica.

Las interfaces contemporáneas operan como tecnologías persuasivas. Cada elemento —colores, notificaciones, desplazamiento infinito, recompensas intermitentes— está optimizado para mantener la atención y fomentar la interacción continua. El diseño no busca imponer una acción concreta, sino prolongar la relación entre usuario y plataforma. En este contexto, la elección no desaparece, pero se convierte en un medio instrumental para un fin ajeno al sujeto.

Aquí surge la ilusión de agencia. El usuario puede elegir qué ver, a quién seguir, qué contenido consumir, pero no el marco general de la interacción. Las opciones disponibles, su orden y su atractivo están preconfigurados. La experiencia se asemeja a moverse libremente dentro de un espacio cuya arquitectura invisible dirige los flujos. La sensación de control es real; su alcance, limitado.

Desde la filosofía del libre albedrío, esta situación es especialmente inquietante porque preserva los marcadores fenomenológicos de la libertad. No hay coerción, ni prohibición, ni mandato explícito. El sujeto actúa voluntariamente. Sin embargo, esa voluntad es constantemente estimulada, recompensada y redirigida por mecanismos que explotan sesgos cognitivos conocidos: aversión a la pérdida, refuerzo variable, necesidad de validación social.

El engagement no es neutral. Al priorizar métricas como tiempo de uso o interacción emocional, las plataformas favorecen ciertos estados mentales: urgencia, reactividad, impulsividad. La deliberación pausada, la desconexión o la elección de no participar quedan sistemáticamente desincentivadas. Así, la agencia se reduce a microdecisiones repetitivas, mientras se pierde la capacidad de decidir sobre el ritmo, la profundidad y el sentido de la propia acción.

Este diseño tiene un efecto acumulativo. A corto plazo, la ilusión de agencia es cómoda y gratificante; a largo plazo, puede producir dependencia conductual y una progresiva externalización del control. El sujeto se acostumbra a reaccionar a estímulos en lugar de iniciar acciones desde una intención reflexiva. La libertad no se suprime; se vacía de contenido.

Lo más problemático es que esta ilusión dificulta la resistencia. Al sentirse libre, el usuario no percibe la necesidad de cuestionar el sistema. La crítica se desactiva desde dentro. La agencia simulada funciona así como un mecanismo de legitimación: si elegimos voluntariamente, el sistema parece moralmente neutro, incluso cuando sus objetivos son opacos o puramente extractivos.

En la era algorítmica, el desafío no consiste solo en preservar la capacidad de elegir entre opciones, sino en recuperar el control sobre las condiciones mismas de la elección. Sin esa recuperación, la experiencia subjetiva del libre albedrío puede persistir mientras su sustancia se erosiona silenciosamente. La ilusión de agencia es, en este sentido, una de las formas más sutiles —y eficaces— de restricción de la libertad contemporánea.

6. Estrategias de resistencia y diseño de tecnologías para la autonomía

Si el libre albedrío se ve erosionado no por la negación explícita de la elección, sino por la configuración algorítmica de los entornos de decisión, entonces la resistencia no puede limitarse a un llamamiento moral individual. Requiere una reconfiguración consciente del diseño tecnológico, de los marcos normativos y de las prácticas sociales que median nuestra relación con los sistemas algorítmicos. La pregunta decisiva deja de ser si los algoritmos influyen —lo hacen inevitablemente— y pasa a ser cómo pueden diseñarse para ampliar, y no reducir, la autonomía humana.

Una primera línea de resistencia es la auditoría y la transparencia algorítmica. Algoritmos auditables, explicables y sometidos a supervisión independiente permiten revelar cómo se estructuran los espacios de elección. La transparencia no garantiza por sí sola la libertad, pero reduce la asimetría informativa que socava la autonomía deliberativa. Saber por qué una opción aparece y otra no es un requisito mínimo para recuperar capacidad crítica.

Una segunda estrategia es el diseño centrado en valores humanos, que desplaza el foco desde la optimización del engagement hacia objetivos como el bienestar, la deliberación reflexiva y la diversidad informativa. Esto implica introducir fricción deliberada, pausas, opciones de exploración no personalizadas y mecanismos que favorezcan la exposición a lo inesperado. Lejos de ser ineficiencias, estas fricciones pueden entenderse como infraestructuras de la libertad, necesarias para la formación autónoma de preferencias.

En esta línea surgen propuestas de agnosticismo de engagement: sistemas que no maximizan tiempo de uso ni interacción emocional, sino que permiten al usuario definir explícitamente los criterios que guían la recomendación. La autonomía no se protege eliminando algoritmos, sino devolviendo control parametrizable al sujeto. Esta aproximación reconoce que la personalización no es intrínsecamente opresiva, pero sí peligrosa cuando opera sin consentimiento informado ni alternativas reales.

El marco legal constituye una tercera dimensión clave. Regulaciones que protejan la autonomía digital, limiten prácticas de manipulación conductual encubierta y garanticen derechos como la explicación, la portabilidad de datos o la opción de no personalización son instrumentos esenciales. Sin respaldo normativo, las soluciones técnicas quedan subordinadas a incentivos económicos que tienden a erosionar la libertad en favor de la extracción de valor.

No obstante, estas estrategias enfrentan límites reales. La viabilidad técnica existe; la viabilidad política y económica es más incierta. Modelos de negocio basados en la captura de atención y datos tienen poco incentivo para promover una autonomía que reduzca su eficacia. Por ello, la resistencia algorítmica no puede ser solo individual ni puramente técnica: es un problema colectivo y político, que exige redefinir qué consideramos progreso tecnológico legítimo.

Finalmente, existe una dimensión subjetiva irrenunciable. Ningún diseño sustituye la práctica consciente de la autonomía: la capacidad de desconectar, cuestionar recomendaciones, buscar fricción cognitiva y tolerar la incomodidad de elegir contra la inercia. El libre albedrío, incluso en entornos optimizados, sigue requiriendo ejercicio y cultivo, no solo protección externa.

En la era algorítmica, la libertad ya no puede entenderse como ausencia de influencia, sino como capacidad de negociar críticamente con sistemas que influyen. Diseñar tecnologías para la autonomía no es eliminar los algoritmos, sino convertirlos en instrumentos al servicio de la deliberación humana, y no en arquitecturas silenciosas que la sustituyan.

Conclusión

La libertad como práctica en un mundo algorítmico

El recorrido por el libre albedrío en la era algorítmica conduce a una conclusión tan incómoda como necesaria: la libertad humana no ha desaparecido, pero ha cambiado radicalmente de forma. Ya no está amenazada principalmente por la coerción directa o por un determinismo metafísico abstracto, sino por arquitecturas técnicas que organizan silenciosamente la experiencia, la atención y la elección. El problema contemporáneo del libre albedrío no es su negación explícita, sino su reconfiguración invisible.

Los algoritmos no deciden por nosotros, pero deciden sobre el contexto en el que decidimos. Moldean los espacios de posibilidad, anticipan conductas, refuerzan patrones, delegan juicios morales y construyen burbujas cognitivas que estrechan el horizonte de lo pensable. En este marco, la experiencia subjetiva de libertad puede persistir intacta mientras su sustrato objetivo se erosiona. Elegimos, sí, pero cada vez más dentro de escenarios diseñados para que ciertas elecciones sean más probables que otras.

Esto obliga a revisar las concepciones clásicas del libre albedrío. La libertad ya no puede entenderse solo como un atributo interno de la voluntad, sino como una propiedad relacional, dependiente de los entornos informativos, tecnológicos y sociales en los que el agente se mueve. Ser libre hoy implica algo más que poder elegir: implica tener acceso a alternativas reales, información plural y tiempo cognitivo para deliberar.

La paradoja central es que la era algorítmica no suprime la agencia, sino que la optimiza para fines ajenos al sujeto. La predictibilidad, la personalización y el engagement no eliminan la elección; la canalizan. Y al hacerlo, desplazan progresivamente la responsabilidad, la reflexión moral y la capacidad de transformación personal hacia sistemas que no pueden asumirlas. El riesgo no es perder la libertad de golpe, sino acostumbrarnos a una libertad empobrecida, reducida a microdecisiones reactivas.

Frente a este escenario, la defensa del libre albedrío no pasa por rechazar la tecnología, sino por politizar y rediseñar sus condiciones. Transparencia, gobernanza, diseño centrado en valores humanos y marcos legales protectores son necesarios, pero insuficientes sin una dimensión cultural y subjetiva. La libertad, incluso protegida, necesita ser ejercida. Requiere fricción, incomodidad, esfuerzo y, en ocasiones, resistencia consciente a la optimización permanente.

En última instancia, el libre albedrío en la era algorítmica no es un dato garantizado ni una ilusión perdida: es una práctica frágil, que debe ser sostenida frente a sistemas cada vez más capaces de anticiparnos y guiarnos. La pregunta decisiva ya no es si somos libres en abstracto, sino qué tipo de libertad estamos dispuestos a defender y a diseñar en un mundo donde los algoritmos median gran parte de nuestra experiencia.



Comentarios

Entradas populares de este blog