Por Alejandro Urueña - Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

Y María S. Taboada - Lingüista y Magíster en Psicología Social.  Profesora Titular de “Linguística General I” y “Política y Planificación Linguísticas” de la Fac. de Filosofía y Letras de la UNT.

El Estado de Nueva York está a un paso de convertirse en el primer gran laboratorio legislativo que le diga oficialmente a la inteligencia artificial lo que ningún abogado, médico o ingeniero se había animado a pedirle a voz en cuello: silencio, eso es mío.

El proyecto de ley S7263, impulsado por la senadora Kristen Gonzalez del Partido Demócrata, propone que los operadores de chatbots (programas de inteligencia artificial que conversan con personas) sean civilmente responsables si sus sistemas dan respuestas sustantivas en áreas de ejercicio profesional regulado.

Presentado el 7 de abril de 2025, el proyecto recorrió un camino sinuoso: comité, tercera lectura, vuelta al comité, y de nuevo tercera lectura. Al día de hoy, 28 de marzo de 2026, se encuentra avanzado a otra tercera lectura (la instancia previa a la votación final del pleno del Senado) y aún aguarda el debate definitivo. Su proyecto gemelo en la Asamblea (la cámara).

Puntos fundamentales del proyecto

▸ 1. Definición de IA y chatbot. La ley define como “sistema de inteligencia artificial” a toda máquina que infiere cómo generar predicciones, contenidos o decisiones a partir de datos. Excluye herramientas básicas: antivirus, calculadoras, correctores ortográficos, procesadores de pago simples. (Si el programa “piensa” para responder, es IA. Si sólo ejecuta una operación fija, no cuenta.)

▸ 2. Prohibición central. Ningún “propietario” (quien opera o despliega el chatbot, no quien fabricó la tecnología) puede permitir que su sistema dé respuestas sustantivas en las 14 profesiones reguladas: medicina, odontología, enfermería, farmacia, fisioterapia, psicología, trabajo social, podología, optometría, ingeniería, arquitectura, veterinaria, y abogacía.

▸ 3. El disclaimer no salva. Avisar que “estás hablando con una IA” no exime de responsabilidad al operador. Si el daño ocurre, es un hecho. (El cartelito de “no somos responsables” no funciona acá.)

▸ 4. Acción civil directa. Cualquier persona damnificada puede demandar y reclamar daños reales. Si la violación fue dolosa (intencional o con conocimiento del riesgo), se suman costas y honorarios del abogado del demandante a cargo del infractor.

▸ 5. Aviso obligatorio. Todo chatbot debe mostrar de forma clara, visible y en el mismo idioma del usuario que se está interactuando con una IA, en tamaño no menor al mayor texto del sitio web donde funcione.

El argumento de los que dicen “sí”

Los impulsores del proyecto esgrimen una lógica que parece irrebatible: si un vecino sin título de médico te dice que tomés tal medicamento y te hace daño, hay consecuencias legales. ¿Por qué una empresa multimillonaria debería tener inmunidad cuando su chatbot hace exactamente lo mismo —y a escala de millones de usuarios? El AFL-CIO, la mayor federación sindical de Estados Unidos, ya respaldó el paquete completo de leyes bajo la premisa de que “la IA no es reemplazo del juicio humano ni de los empleos.”

La propuesta se inscribe en una tendencia legislativa que creció desde 2024: California sancionó en octubre de 2025 su SB-243 sobre chatbots emocionales; la Comisión Europea prepara obligaciones bajo el AI Act (el gran marco regulatorio europeo de inteligencia artificial) para agosto de 2026; Tennessee avanza con sanciones penales por ciertas prácticas de entrenamiento de IA. El mundo regulatorio se está moviendo —Nueva York podría ser quien pise primero el acelerador en materia de responsabilidad sustantiva.

“Si el daño ocurre, el cartelito de ‘no somos responsables’ no funciona. Ni para el médico, ni para el chatbot.”

“No tan rápido”

La contracara es filosóficamente incómoda. El proyecto nunca define qué es una “respuesta sustantiva” (es decir, cuándo una respuesta deja de ser información general y se convierte en consejo profesional). La diferencia entre “el ibuprofeno es antiinflamatorio” y “tomá 400 mg para tu dolor de cabeza” no está clara en la ley. Y esa ambigüedad es un campo minado.

Las pequeñas startups de IA, las organizaciones sin fines de lucro que usan chatbots para orientar a poblaciones vulnerables y los desarrolladores independientes que construyen herramientas sobre APIs (interfaces que permiten usar la IA de grandes empresas sin tener que construirla desde cero) serían los primeros blancos de demandas masivas —precisamente porque tienen menos recursos para defenderse. Nueva York tiene antecedentes dramáticos en este sentido: en 2025 superó los 5.000 juicios por accesibilidad web, muchos iniciados en serie por los mismos estudios jurídicos.

Y acá aparece la pregunta más perturbadora: ¿quién le habla a la señora de 70 años que vive sola en el interior, no puede pagar una consulta médica privada y no entiende los turnos online del hospital público? Hoy, para millones de personas, el chatbot es la primera —y a veces única— ventana de acceso a información de salud, orientación legal básica o asesoramiento técnico. Cerrarla no acerca a las personas al consultorio del especialista. Las deja solas con Google.

El horizonte abierto

El S7263 todavía no es ley. El pleno del Senado neoyorquino no votó, la Asamblea no acompañó, y el gobernador no lo tiene en su escritorio. Pero el debate que abrió es real y urgente: no es técnico, no es jurídico en sentido estricto; es político en el sentido más profundo de la palabra.

¿Regulamos fuerte para proteger a la ciudadanía de herramientas que pueden hacerle daño cuando se usan mal —aunque eso signifique que sólo quienes puedan pagar a un profesional humano tengan acceso a cierta orientación? ¿O abrimos estas herramientas como infraestructura pública del conocimiento —con transparencia, con responsabilidad, pero sin erigir nuevamente los muros del saber entre quienes pueden pagarlo y quienes no.

El Doctor sí existe. La pregunta es si va a atender a todos, o sólo a los que puedan pagar el turno.

Fuentes: NY State Senate (nysenate.gov) · FastDemocracy · StateScoop · Reason Magazine · BoingBoing · ppc.land · Folding Sky Co. Traducción y análisis legislativo: Claude Sonnet 4.6 (Anthropic) — traducción jurídica fiel al texto fuente (S7263, 2025-2026 Regular Sessions).