La directora de la Comisión Federal de Comunicaciones de Estados Unidos, Jessica Rosenworcel

NUEVA YORK.- La Comisión Federal de Comunicaciones de Estados Unidos (FCC) proscribió el jueves las llamadas automatizadas que contengan voces generadas por inteligencia artificial, una decisión que envía un claro mensaje de que no se tolerará la explotación de la tecnología para estafar a las personas y engañar a los votantes.

La decisión unánime va contra las llamadas automatizadas hechas con herramientas de IA para la clonación de voz en virtud de la Ley de Protección al Consumidor de Telefonía, una norma de 1991 que restringe las llamadas no solicitadas en las que se usan mensajes de voz artificiales o pregrabados.

El anuncio se ha realizado en un momento en que las autoridades de Nueva Hampshire avanzan en su investigación sobre las llamadas automatizadas generadas por IA en las que se imitó la voz del presidente Joe Biden para desalentar a las personas de votar en las primarias del estado que tuvieron lugar el mes pasado.

La norma, que entra en vigor de inmediato, otorga poder a la FCC para multar a las empresas que utilicen voces de IA en sus llamadas o bloquear a los proveedores de servicios que las trasmitan. También abre la puerta para que los receptores de llamadas presenten demandas judiciales y da a los fiscales generales estatales un nuevo mecanismo para ejercer medidas estrictas contra los infractores, de acuerdo con la FCC.

Jessica Rosenworcel, presidenta del organismo, dijo que personas malintencionadas han utilizado voces generadas por IA en llamadas automatizadas para desinformar a los votantes, hacerse pasar por famosos y extorsionar a los miembros de las familias.

“Parece algo de un futuro lejano, pero esta amenaza ya está aquí”, dijo Rosenworcel el jueves, mientras la Comisión sopesaba las medidas. “Cualquiera de nosotros puede recibir esas llamadas falsas, y es por eso que pensamos que debíamos actuar ahora”.

¿Qué dice la norma sobre llamadas automatizadas?

La ley de protección al consumidor establece que, en términos generales, las compañías de telemercadeo no pueden utilizar marcadores automatizados o mensajes de voz pregrabados para llamar a teléfonos celulares y no pueden llamar a teléfonos fijos sin el consentimiento previo y por escrito de la persona al otro lado de la línea.

El nuevo fallo clasifica a las voces generadas por IA en llamadas automatizadas como “artificiales” y, por lo tanto, caen dentro de los mismos estándares, explicó la FCC.

Quienes violen la ley están sujetos a cuantiosas multas, con un monto máximo superior a los 23,000 dólares por llamada, dijo la FCC. La agencia ha utilizado la ley de protección al consumidor en ocasiones anteriores para restringir las llamadas automatizadas que interfieren en procesos electorales, e incluso sancionó con una multa de cinco millones de dólares a dos estafadores conservadores por alertar falsamente a las personas de zonas de población predominantemente negra que votar por correo podría elevar el riesgo de ser detenidos, quedar sujetos a cobro de deudas, o vacunación forzada.

La ley también le otorga el derecho a quienes reciben estas llamadas de emprender acciones legales con la posibilidad de cobrar una indemnización de hasta 1,500 dólares por cada llamada no deseada.

Josh Lawson, director de IA y democracia en el Instituto Aspen, dijo que incluso con el fallo de la FCC, los votantes deben estar preparados ante la eventualidad de recibir llamadas, mensajes y publicaciones en redes sociales no deseados.

“Los verdaderos maleantes suelen hacer caso omiso de las advertencias y saben que lo que hacen está mal”, comentó. “Debemos entender que estas personas seguirán agitando el avispero y llegarán hasta el límite”.

Kathleen Carley, profesora en Carnegie Mellon especializada en desinformación informática, afirma que para detectar el abuso de la tecnología de voz por parte de la IA es necesario poder identificar claramente que el audio ha sido generado por IA.

Esto es posible ahora, dijo, “porque la tecnología para generar estas llamadas ha existido durante algún tiempo. Es bien conocida y comete errores comunes. Pero esa tecnología mejorará”.

Las herramientas sofisticadas de IA generativa, desde software de clonación de voz a generadores de imágenes, ya se utilizan en las elecciones de Estados Unidos y del resto del mundo.

Inteligencia artificial y elecciones

El año pasado, cuando arrancó la contienda presidencial en Estados Unidos, varios anuncios de campaña usaron audios o imágenes generados por IA, y algunos candidatos experimentaron con el uso de chatbots para comunicarse con los votantes.
 
En el Congreso se han emprendido labores bipartidistas para regular el uso de IA en campañas políticas. Pero a nueve meses de las elecciones generales aún no se ha aprobado ninguna ley federal.
 
La representante Yvette Clarke, quien presentó una propuesta para regular el uso de IA en el ámbito político, aplaudió el fallo de la FCC, pero afirmó que ahora le corresponde actuar al Congreso.
 
“Creo que demócratas y republicanos pueden coincidir en que el contenido generado por IA para engañar a las personas es algo malo, y necesitamos trabajar en conjunto para ayudar a que las personas tengan las herramientas necesarias para ayudarlas a distinguir lo que es real de lo que no lo es”, dijo Clarke, una demócrata por Nueva York.
 
Las llamadas automatizadas generadas por IA que intentaron influir en las elecciones primarias de Nueva Hampshire del pasado 23 de enero usaron una voz similar a la de Biden, emplearon su frase habitual “Vaya montón de tonterías”, e insinuaron falsamente que participar en las primarias le impediría a la población votar en la elección de noviembre.
 
“Nueva Hampshire recibió una cucharada de cómo se puede emplear la IA de forma inapropiada en el proceso electoral”, dijo el secretario de gobierno de Nueva Hampshire, David Scanlan. “Sin lugar a dudas es apropiado que tratemos de comprender el uso y aplicación, para no engañar al electorado de forma que perjudique nuestras elecciones”.
 
El secretario de Justicia del estado, John Formella, dijo el martes que los investigadores han identificado a Life Corp, una compañía con sede en Texas, y a su propietario Walter Monk, como el origen de las llamadas, las cuales se hicieron a miles de residentes del estado, en su mayoría demócratas registrados. Monk declaró que fue otra compañía de Texas, Lingo Telecom, la que transmitió las llamadas.
 
De acuerdo con la FCC, tanto Lingo Telecom como Life Corp. han sido investigadas en otras ocasiones por llamadas automatizadas ilegales.
 
Lingo Telecom emitió el martes un comunicado en el que señaló que “actuó de inmediato” para ayudar con la investigación sobre las llamadas automatizadas que se hacían pasar por Biden. La empresa afirmó que “no tuvo participación alguna en la elaboración del contenido de las llamadas”.
 
RSV

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *