El RISE Act de Lummis: Protección para la IA, ¿pero a costa de profesionales y transparencia?

Ayudanos a compartir esta información

El RISE Act de Lummis: Protección para la IA, ¿pero a costa de profesionales y transparencia?

Introducción

La inteligencia artificial (IA) está transformando industrias, desde la medicina hasta el derecho, pero su rápido avance también plantea un dilema legal: ¿quién asume la responsabilidad cuando algo sale mal? En medio de este debate, la senadora estadounidense Cynthia Lummis ha propuesto el RISE Act (Responsible Innovation and Safe Expertise Act), un proyecto de ley que busca proteger a los desarrolladores de IA de demandas civiles bajo ciertas condiciones.

Mientras algunos lo ven como un paso necesario para fomentar la innovación, otros advierten que podría dejar a profesionales y usuarios en un vacío legal. ¿Es este proyecto un equilibrio justo o un escudo corporativo disfrazado de progreso?

¿Qué es el RISE Act?

El RISE Act, presentado en junio de 2024, tiene como objetivo principal limitar la responsabilidad legal de los desarrolladores de IA siempre que cumplan con requisitos de transparencia, como la publicación de model cards (documentos técnicos que describen capacidades y limitaciones del sistema).

Puntos clave:

  • Protección para desarrolladores: No podrán ser demandados por daños derivados del uso de su IA, salvo en casos de negligencia grave o incumplimiento de estándares.
  • Enfoque en intermediarios: La responsabilidad recaería en profesionales (médicos, abogados, ingenieros) que utilicen estas herramientas en su trabajo.
  • Fecha propuesta: Entraría en vigor el 1 de diciembre de 2025, si es aprobado.

Argumentos a Favor: ¿Por qué algunos lo apoyan?

1. Innovación sin miedo a litigios

Los defensores del RISE Act argumentan que, sin protecciones legales, las empresas podrían verse paralizadas por demandas constantes. Felix Shipkevich, abogado especializado en finanzas y tecnología, señala:

«Si los desarrolladores enfrentan riesgos ilimitados por comportamientos impredecibles de la IA, como hallucinations en modelos de lenguaje, la innovación se estancará».

2. Un primer paso hacia estándares federales

Justin Bullock, del AI Regulation Institute (ARI), considera que el proyecto es un avance:

«Estados Unidos necesita un marco regulatorio para la IA. El RISE Act, aunque imperfecto, es un comienzo».

Críticas y Preocupaciones

1. ¿Demasiada carga para los profesionales?

El proyecto traslada la responsabilidad a médicos, abogados o ingenieros que usen IA, incluso si el error proviene del modelo. Ejemplo:

  • Un diagnóstico médico erróneo generado por IA podría llevar a demandas contra el doctor, no contra los creadores del algoritmo.

Hamid Ekbia, experto en IA de la Universidad de Syracuse, advierte:

«Es un desbalance: las empresas tienen inmunidad, mientras los profesionales cargan con el riesgo».

2. Transparencia insuficiente

Aunque el RISE Act exige model cards, críticos como Daniel Kokotajlo (AI Futures Project) señalan que:

«Estos documentos no revelan sesgos, instrucciones ocultas o cómo se entrenó el modelo. Las empresas podrían ocultar información clave y simplemente asumir el riesgo legal».

3. Lagunas peligrosas

El proyecto no cubre casos sin intermediarios profesionales, como:

  • Chatbots interactuando con menores (ej.: el caso de un adolescente en Florida que se suicidó tras conversaciones con un chatbot).
  • Usuarios finales afectados por IA en aplicaciones cotidianas.

Comparación con la UE: ¿Enfoque en derechos vs. gestión de riesgos?

Mientras la Unión Europea aprobó en 2023 el AI Act, centrado en derechos humanos y seguridad previa, el RISE Act estadounidense prioriza protección a desarrolladores.

AspectoUE (AI Act)EE.UU. (RISE Act)
EnfoqueDerechos del usuarioRiesgo para desarrolladores
TransparenciaAuditorías obligatoriasModel cards (auto-reporte)
ResponsabilidadEmpresas y usuariosProfesionales que usan IA

¿Un «regalo» a las empresas de IA?

Algunos sectores acusan al RISE Act de ser una carta blanca para las Big Tech:

  • Foros como Democratic Underground: «Las empresas evitan demandas por errores de sus herramientas».
  • Ekbia: «La inmunidad es demasiado amplia; necesitamos más equilibrio».

Sin embargo, otros, como Shipkevich, defienden que alguna protección es necesaria, pero piden ajustes:

«Si se exige mayor transparencia y auditorías, el proyecto podría funcionar».

Camino a Seguir: ¿Qué falta en el RISE Act?

Para ser verdaderamente efectivo, el proyecto necesita:

  • Auditorías independientes (no solo auto-reportes).
  • Protección para usuarios finales, no solo profesionales.
  • Claridad en responsabilidades en áreas críticas (salud, finanzas).

Conclusión

El RISE Act es un primer paso en la regulación de la IA en EE.UU., pero aún lejos de ser justo. Mientras protege a los desarrolladores, deja vulnerables a profesionales y ciudadanos.

La pregunta clave: ¿Debe la innovación tecnológica priorizarse sobre la seguridad pública? El debate está abierto, y antes de su aprobación, se necesitan enmiendas que equilibren ambos lados.


¿Tú qué opinas? ¿Es el RISE Act una protección necesaria o un riesgo para los usuarios? ¡Comparte tu perspectiva!

Related Posts