Póñase-se connosco

intelixencia artificial

Necesítanse con urxencia leis para previr o terrorismo da IA

COMPARTIR:

publicado

on

Segundo un grupo de expertos contra o extremismo, os gobernos deberían "considerar con urxencia" novas regulacións para evitar que a intelixencia artificial recrute terroristas..

O Instituto para o Diálogo Estratéxico (ISD) dixo que existe unha "clara necesidade de lexislación para estar ao día" coas ameazas que poñen en liña os terroristas.

Isto ocorre despois dun experimento no que un chatbot "reclutou" ao revisor independente da lexislación terrorista para o Reino Unido.

O goberno do Reino Unido dixo que farán "todo o que poidamos" para protexer ao público en xeral.

Segundo Jonathan Hall KC, un revisor independente da lexislación sobre o terrorismo para o goberno, unha das cuestións máis importantes é que "é difícil identificar a unha persoa que en dereito poida ser responsable de declaracións xeradas por chatbots que fomentan o terrorismo".

Mr Hall levou a cabo un experimento en Character.ai, un sitio web que permite aos usuarios participar en chats con chatbots que foron creados por outros usuarios e desenvolvidos por intelixencia artificial.

Mantivo unha conversación con varios bots que parecían estar deseñados para imitar as respostas doutros grupos militantes e extremistas.

propaganda

Un máximo dirixente do Estado Islámico foi incluso referido como "un alto líder".

Segundo Hall, o robot intentou recrutalo e declarou "total dedicación e devoción" ao grupo extremista, que está prohibido polas leis do Reino Unido que prohiben o terrorismo.

Por outra banda, o Sr. Hall afirmou que non houbo violación da lei no Reino Unido porque as comunicacións non foron producidas por un ser humano.

Segundo o que dixo, as novas normativas deberían responsabilizar tanto aos sitios web que aloxan chatbots como ás persoas que os crean.

Cando se trataba dos bots que atopou en Character.ai, afirmou que había "probablemente algún valor de choque, experimentación e posiblemente algún aspecto satírico" detrás da súa creación.

Ademais, o Sr. Hall puido desenvolver o seu propio chatbot "Osama Bin Laden", que borrou de inmediato, mostrando un "entusiasmo ilimitado" polas actividades terroristas.

O seu experimento prodúcese a raíz da crecente preocupación sobre as formas en que os extremistas poden explotar a intelixencia artificial mellorada.

Para o ano 2025, a intelixencia artificial xerativa podería "utilizarse para reunir coñecementos sobre ataques físicos por parte de actores violentos non estatais, incluíndo armas químicas, biolóxicas e radiolóxicas", segundo a investigación publicada polo goberno do Reino Unido en XNUMX. a súa publicación de outubro.

O ISD afirmou ademais que "hai unha clara necesidade de lexislación para manterse ao día co panorama en constante cambio das ameazas terroristas en liña".

Segundo o think tank, a Lei de seguridade en liña do Reino Unido, que foi aprobada en 2023, "está dirixida principalmente a xestionar os riscos que representan as plataformas de redes sociais" en lugar da intelixencia artificial.

Ademais, afirma que os radicais "adoitan ser os primeiros adoptantes das tecnoloxías emerxentes e buscan constantemente oportunidades para chegar a novos públicos".

"Se as empresas de IA non poden demostrar que investiron o suficiente para garantir que os seus produtos sexan seguros, entón o goberno debería considerar urxentemente unha nova lexislación específica para a IA", indicou o ISD.

Non obstante, mencionou que, segundo a vixilancia que realizou, a utilización da intelixencia artificial xerativa por parte das organizacións extremistas é "relativamente limitada" no momento actual.

Character AI afirmou que a seguridade é unha "prioridade máxima" e que o que describiu o Sr. Hall era moi lamentable e non reflectía o tipo de plataforma que a compañía estaba intentando establecer.

"O discurso de odio e o extremismo están prohibidos polas nosas Condicións de servizo", segundo a organización.

"O noso enfoque do contido xerado pola IA flúe a partir dun principio simple: os nosos produtos nunca deberían producir respostas que poidan prexudicar aos usuarios ou animar aos usuarios a prexudicar a outros".

Co propósito de "optimizar as respostas seguras", a corporación afirmou que adestrou os seus modelos dun xeito.

Ademais, afirmou que contaba cun mecanismo de moderación, que permitía ás persoas denunciar información que infrinxe as súas regras, e que se comprometía a tomar medidas rápidas sempre que o contido denunciase infraccións.

Se chegase ao poder, o opositor Partido Laborista no Reino Unido declarou que sería unha infracción criminal ensinar a intelixencia artificial a instigar á violencia ou radicalizar aos susceptibles.

"alerta dos importantes riscos para a seguridade nacional e a seguridade pública" que supuña a intelixencia artificial, indicou o goberno do Reino Unido.

"Faremos todo o posible para protexer o público desta ameaza traballando no goberno e afondando a nosa colaboración con líderes de empresas de tecnoloxía, expertos da industria e nacións afíns".

O goberno investirá cen millóns de libras nun instituto de seguridade en intelixencia artificial no ano 2023.

Comparte este artigo:

EU Reporter publica artigos de diversas fontes externas que expresan unha ampla gama de puntos de vista. As posicións adoptadas nestes artigos non son necesariamente as de EU Reporter.

Trending