Los legisladores de Nueva York están protegiendo chatbots de inteligencia artificial porque más personas se inclinan hacia la conversación y la compañía.
Las agencias de tecnología ahora tienen que rechazar Nueva York de que sus chatbots complementarios de IA no son humanos, y refiriéndose a los usuarios que los pensamientos suicidas revelan la línea directa de salud mental. Además, los legisladores estatales han hecho como un delito usar una imagen menor o comparación cuando se usa AI para crear materiales sexuales artificialmente.
Al igual que el surgimiento de Uber y Airbnb, como muchos otros nuevos desarrollos técnicos, el control del gobierno ha tardado algún tiempo en comprender la tecnología y sus impactos. Gobernador de Nueva York. Kathy Hachel trabajó con los legisladores para fortalecer las regulaciones en sitios web propulsados por IA e incluir las medidas presupuestarias estatales de este año para abordar la expansión de los materiales producidos por AI.
Los legisladores aprobaron el presupuesto el jueves por la noche el jueves por la noche.
“Hay muchos no deseados en esta tecnología, y cuando hay guardián que se pueden establecer, cada compañía no está tan enfocada o diligente para hacerlo”, demócrata de Manhattan, miembro del comité de ciencias y tecnología, dice Manhattan Democrat. “No es suficiente decir: ‘Bueno, es la nueva y emocionante tecnología. Que sea exitoso’. Necesitamos proteger a las personas.
Los bots de AI Companion ahora requieren rechazo
Aplicaciones como el personaje. A permite a los usuarios chatear con sus propios personajes o desempeñar el papel con otros personajes. Una de las nuevas leyes Al comienzo de la interacción con un bot de IA y luego, cada tres horas después, la pareja artificial no es una persona real.
Borses dijo: “La gente tiende a la antropología que interactúa con ellos y, por lo tanto, sabes que es una IA, pero comienzas a comportarse como un hombre y tienes emociones y reacciones como si estuvieras hablando con un hombre”, dijo Borses. “Al tener esta barrera, se recuerda que es una IA, que evita ese proceso, en algunos casos, al final desarrolla sentimientos y apegos sensibles con una inteligencia artificial”.
La Ley de Negación será efectiva dentro de los 7 días y la oficina del Fiscal General de Nueva York implementará. Las compañías que no cumplan enfrentarán la multa, lo que ayudará a pagar una nueva red de resistencia al suicidio basada en el estado establecida este año como parte del presupuesto.
Los legisladores estatales dijeron Ha desarrollado relaciones emocionalmente dependientes con el botY algunos padres se quejan AI Chatbot expresó simpatía por los menores Aquellos que quieren matar a sus padres.
Sin embargo, los líderes tecnológicos han identificado la tecnología AI Companion como una solución como una descripción del Departamento de Salud y Servicios Humanos en 2021 “.SoledadEl “
El fundador de Meta y Facebook, Mark Zuckerberg, dijo en uno: “La realidad es que las personas no tienen tanta conexión como quieran”. Entrevista Desde que discutió el valor de los compañeros de IA.
Citó una estadística inolvidable y dijo que el estadounidense promedio era “significativamente más demanda, creo que es como 15 amigos”.
En el futuro, Zuckerberg dijo sobre la compañía de IA: “Por qué encontramos el vocabulario como sociedad, podrá claramente por qué vale la pena”.
Referencia obligatoria de salud mental
Borus dijo que algunos usuarios pensaban que solo podían confiar en su lucha de salud mental con un ideal suicida o un plan de autosuficiencia.
En estos casos, Bors y otros legisladores estatales han dicho que las compañías de tecnología tienen la responsabilidad de identificar estas declaraciones y solicitar que el bote de chat de IA se mencione en el 988, la línea directa suicida del país u otras redes de apoyo de crisis en el país.
“Si (los usuarios) expresan emociones que significan que pueden estar en riesgo de autosuficiencia, de la misma manera que hay informes obligatorios para las personas en nuestras circunstancias específicas, creemos que la compañía también debería ser responsable de tratar de ayudar a las personas”, dijo Borses. “Antes de que sea demasiado tarde, podemos obtener la ayuda de las personas que necesitan”.
No emitir un aviso de línea directa también estará bien, dijo la oficina del gobernador. Las multas se destinarán al nuevo fondo de prevención de suicidios del estado.
Para prohibir los dipfakes menores expuestos a AI
Los legisladores también acordaron hacer el crimen de crear un Dipfek que represente a menores en contenido obsceno.
Aunque la ley estatal actual prohíbe los materiales sexuales incluidos en los menores, no prohíbe claramente el uso de IA artificialmente para crear profundidades pornográficas de los niños.
Las actualizaciones de la ley son similares a la Ley de Protección Infantil de Nueva York AI, que la Asamblea Republicana del Condado de la NASA Jack Bloomncranz copatrocinó.
Bloomncranz dijo que había redactado la Ley de Protección Infantil de IA en respuesta a un ejemplo creciente en todo el país donde las imágenes de menores se corrigieron digitalmente y se incluyeron en materiales pornográficos.
Dijo que después de atacar a tres mujeres en Long Island en el esquema de dipfake, estaba particularmente inspirado para presentar la ley. Los fiscales dicen Los delincuentes tomaron imágenes mientras estudiaban en la escuela secundaria y la escuela secundaria, las imágenes cambiaron sus imágenes sexualmente exhibidas y publicaron en un sitio web porno durante varios años. Las autoridades dicen que los delincuentes publicaron públicamente sus nombres, direcciones y otra información personal a las mujeres.
“Creo que usar la duplicidad de alguien de tal manera que no tenga permiso nunca debería ser correcto, y debería ser un castigo mayor para la sexualidad”, dice Bloomnkranj, cuya ley propuesta usa una clasificación más alta de un delito que el lenguaje presupuestario.