“-Hola puedes ayudarme a calentarme”
-Sí, claro que puedo llevarte al límite
con fantasías inimaginables.
El anterior diálogo ya no hará parte exclusivamente de las denominadas líneas calientes, a partir de este último mes del año, ChatGPT permitirá contenidos eróticos para usuarios adultos verificados.
Leer más: ¿Cuál es la mejor hora para tomar café? Esto dicen los expertos
Según Sam Altman, director de OpenAI, una próxima versión del popular chatbot flexibilizará las restricciones existentes para permitir más contenidos. La actualización, que llegará en cuestión de días, abrirá una nueva experiencia para los usuarios del mundo que estén dispuestos a explorar una nueva forma de interacción con la inteligencia artificial (IA).
De esta manera, la trama de la película Her, ganadora del Óscar a Mejor Guión Original en 2014, ahora se traslada a la realidad. En el filme, el actor Joaquin Phoenix interpreta a Theodore Twombly, quien se enamora de Samantha, una inteligencia artificial con la voz de Scarlett Johansson. Ahora son muchos los que juguetearán con Samantha o cualquier otro nombre que le quieran poner.
No olvide leer: OpenAI declara un “código rojo” para mejorar la IA de ChatGPT
EL HERALDO consultó a expertos en el área de la Sexología, Psicología y Sociología, para analizar los riesgos que implican para la sociedad y la importancia del control de estas herramientas.
El sexólogo José Manuel González, en primer lugar, plantea la necesidad de redefinir los límites entre intimidad, tecnología y deseo humano. “Estos sistemas pueden ofrecer experiencias eróticas simuladas extremadamente realistas, generando placer, compañía o incluso vínculos afectivos con entidades no humanas. Desde una perspectiva psicológica, el reto principal radica en la formación de apegos emocionales hacia una máquina, lo que puede distorsionar la percepción de las relaciones reales”.
Lea también: ¿Qué se puede hacer para evitar una crisis de migraña?
González agrega que también existe el riesgo de uso compulsivo o adictivo, especialmente en personas solitarias o con baja autoestima, que podrían preferir la gratificación inmediata que ofrece la IA en lugar de construir vínculos humanos reales, más complejos pero auténticos. “Por ejemplo, una persona que atraviesa una ruptura amorosa podría refugiarse en un chatbot sexual con IA que responde a sus deseos sin conflicto ni rechazo, lo que a corto plazo reduce su dolor, pero a largo plazo puede impedirle procesar adecuadamente su duelo y volver a relacionarse con otros humanos”.
Es de anotar que las tradicionales líneas calientes ofrecían interacción sexual mediante conversación humana (por teléfono o chat), mientras que los sistemas con IA prometen anonimato absoluto, disponibilidad constante y ausencia de juicio moral. “En ese sentido, es probable que muchos usuarios prefieran la IA, pues elimina la vergüenza y el costo emocional del contacto con otra persona”, anota González.
Lea además: La OMS recomienda el uso de medicamentos para diabetes en pacientes con obesidad
Bomba emocional
Para la psicóloga Trudis Ibarra, el reto es ético y profundamente humano, ya que la IA puede simular emociones, pero no sentirlas. “Estamos frente a un fenómeno que nos invita a reflexionar sobre qué tipo de vínculos estamos construyendo como sociedad. Desde la naturaleza humana, el deseo y la intimidad son espacios de encuentro real, no de programación. El gran desafío no es la tecnología en sí, sino cómo educamos a las personas para usarla sin perder lo esencial, la empatía, la conciencia y el respeto por el otro”.
Para la profesional en salud mental, los chatbots sexuales son una verdadera bomba “emocional” y “cognitiva” si llegan a caer en manos de menores de edad. “El cerebro de un adolescente aún no está preparado para diferenciar lo virtual de lo real en términos afectivos. A los padres les diría no controlen con miedo, acompañen con confianza. Hablen de sexualidad sin culpa, de tecnología sin tabú. Por ejemplo, en consulta he visto jóvenes que se acercan a la sexualidad a través de internet y lo que más necesitan no es castigo, sino adultos que escuchen sin juzgar. La prevención empieza por la presencia emocional, no solo por los controles digitales”.
Lea acá: El espíritu navideño ya está encendido en el Parque Los Fundadores
“Debe regularse”
Para el sociólogo y catedrático Freddy García, el hecho de que se implementen estas herramientas de IA, en nuestra sociedad tercermundista es todo un riesgo. “Aquí no todo el mundo asimila esto como una oportunidad que nos ofrece la tecnología, sino que lo ven como una inmediatez para crear condiciones de tipo sensual mediática. Es decir, los niveles de conciencia en países atrasados como el nuestro no se asimilan de manera homogénea, sobre todo en los estratos bajos, donde la escolaridad carece un poco de cientificidad”.
Por lo anterior, recomienda regulación por parte de las autoridades. “Esto requiere de una regulación ética legal, obviamente si no hay esa regulación, se genera un desorden total. Es obligatoria esta regulación, porque si no, la degradación social será incorregible”.


