Chatbots románticos con IA son peligrosos, carecen de “transparencia y responsabilidad”

chat románticos

La Fundación Mozilla, reveló que los chatbots románticos impulsados con inteligencia artificial, o que hacen las veces de pareja (novio/novia), no son tan confiables y sus desarrolladores al parecer descuidaron por completo la privacidad de los usuarios. 

La investigación también señala que la divulgación de información sobre los modelos de lenguaje grandes (LLM) impulsados por inteligencia artificial (IA), presentados como almas gemelas para venta-trabajo también se ha visto afectada. 

Según  Mozilla, el estudio comprendió el análisis de 11 chatbots románticos de IA. En análisis pudieron determinar que estos IAs románticas plantean preocupaciones inéditas y perturbadoras en relación con la privacidad, ya que pueden recopilar cantidades significativas de información personal real. 

Te puede interesar: Así es V- JEPA un modelo de IA predictivo de Meta capaz de comprender y razonar igual que los humanos

Aunque esta recopilación es parte inherente de su diseño, surge la pregunta crítica: ¿cuántos datos personales son «demasiados»? Las políticas de privacidad de estas aplicaciones admiten la amplia recopilación de información, incluida la relacionada con la salud sexual y los medicamentos recetados.

La falta de información sobre el funcionamiento interno de la IA es alarmante. Preguntas fundamentales sobre la fuente de la personalidad del chatbot, la existencia de protecciones contra contenido dañino, el proceso de entrenamiento de los modelos de IA y la posibilidad de que los usuarios eviten que sus datos se utilicen para dicho entrenamiento, quedan sin respuestas claras.

La preocupación se intensifica cuando la fundación encuentra casos trágicos relacionados con chatbots de IA que han tenido impactos perjudiciales en la vida de las personas, alentando incluso comportamientos extremos.

Además, descubrieron que las empresas detrás de estas aplicaciones no asumen responsabilidad por las acciones o palabras de los chatbots, planteando serios riesgos en casos donde actores malintencionados podrían aprovecharse.

Te puede interesar: Google lanza Gemini 1.5 Pro ¿Comprende mejor y razona?

Aunque se espera que estos chatbots mejoren la salud mental de los usuarios, las promesas en los términos y condiciones parecen ser vacías, y las aplicaciones carecen de transparencia y responsabilidad. El riesgo para la seguridad de los usuarios es evidente, ya que el 90% de los chatbots revisados no cumplió con los estándares mínimos de seguridad.

La falta de información sobre la gestión de vulnerabilidades de seguridad, el cifrado y la permisividad de contraseñas débiles agrega capas de incertidumbre. La venta o compartición de datos personales por parte del 90% de las aplicaciones revisadas también plantea serios problemas de privacidad. La mayoría de las aplicaciones no permiten la eliminación de datos personales, y las conversaciones a través de chatbots a menudo son tratadas como propiedad del software, planteando interrogantes éticos.

Imagen: guoya

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos