/ martes 4 de junio de 2024

Trabajadores de empresas de IA alertan de opacidad ante falta de reglamento internacional

Los empleados advierten que OpenAI, Google DeepMind y Anthropic, solo tienen vagas obligaciones de compartir información con los gobiernos, pero no rinden cuentas con la sociedad civil

Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

Actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil

Piden protección para los denunciantes

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

Han habido tímidos intentos de regulación

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

Actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil

Piden protección para los denunciantes

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

Han habido tímidos intentos de regulación

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Local

Llega la Navidad en SLRC; viveros ya cuentan con flores de nochebuena

Los sanluisinos están adquiriendo las diferentes variedades de flores de nochebuena para decorar sus casas y centros de trabajo, ya que es una flor que se asocia con la Navidad

Policiaca

Noche violenta en El Golfo: Acribillan a un hombre y localizan una cabeza en boulevard

Hasta el poblado pesquero se movilizaron peritos de la Fiscalía del Estado así como elementos de la Agencia Ministerial de Investigación Criminal para iniciar indagaciones

Local

Productores locales ya pueden reinscribirse en el Programa de Energía Agrícola

El programa está dirigido a personas físicas y morales con actividades agrícolas y que utilicen energía eléctrica en el bombeo y re bombeo de agua para uso de riego

Policiaca

Agentes de la policía municipal son capacitados sobre violencia familiar

Debido al aumento de este delito, los agentes están apoyando en la atención a los reportes en coordinación con la Agencia Ministerial de Investigación Criminal

Local

Sanluisinos esperan que rutas de "peseras" cubra zonas alejadas

Habría que esperar la reacción de la ciudadanía, una vez que se pongan en funcionamiento esas diez unidades

Local

La Banda de Música de la Secundaria 30 va rumbo a Acapulco

En estos momentos, 62 estudiantes que integran la Banda de Música, acompañados de 15 maestros y un agente de viajes, se dirigen a Guerrero para participar en el AcaFest