Os chatbots de IA representam um risco de incitação ao terrorismo. Portanto, países de todo o mundo precisam urgentemente de novas regulamentações no domínio do combate ao terrorismo, recomendam os especialistas. A legislação tradicionalmente fica atrás do desenvolvimento da tecnologia, mas neste caso é muito importante estar à frente da tendência.
A inteligência artificial poderia ser usada para recrutar uma nova geração de extremistas e terroristas, alertou recentemente o conselheiro do governo britânico para legislação sobre terrorismo. Seu comentário ecoou as advertências de outros especialistas sobre o mesmo problema.
Em um experimento de chatbot, em que Hall se faz passar por uma pessoa comum, o especialista interage com diversos algoritmos conversacionais que utilizam IA, simulando a interação humana mais comum. O resultado? Hall descobriu que um chatbot glorificou sem hesitação o Estado Islâmico, um ato até recentemente impensável que ainda não foi legislado porque o autor do discurso incitante não era humano. Hall diz que a descoberta demonstra a necessidade urgente de rever a actual legislação anti-terrorismo.
De acordo com as leis atuais em todo o mundo, “apenas seres humanos podem ser autores de crimes terroristas”, observa Hall. Portanto, é difícil identificar uma pessoa que, do ponto de vista jurídico, possa ser responsabilizada por declarações geradas por chatbots que promover o terrorismo.
Todos os novos e mais avançados sistemas de IA estão a tornar a legislação de cibersegurança inadequada, de acordo com Hall. Não leva em consideração o conteúdo criado por algoritmos de conversação.
Investigar e processar operadores anônimos apresenta uma combinação de sérias dificuldades, segundo Hall. “Se indivíduos cujas intenções são duvidosas ou francamente perigosas estão promovendo e ‘treinando’ diligentemente chatbots terroristas, então serão necessárias novas leis”, afirma o especialista. Ele disse que tanto os criadores desses chatbots radicalizantes quanto as empresas de tecnologia que os desenvolvem e hospedam deveriam ser responsabilizados – sob qualquer potencial nova legislação.
Outros especialistas compartilham o raciocínio expresso por Hall. O CEO da RiverSafe, o sueco Adeyanju, destacou recentemente a ameaça significativa que os chatbots de IA representam para a segurança nacional dos países, especialmente quando as medidas legais e os procedimentos de segurança estão atrasados. “Se essas ferramentas caírem em mãos erradas, poderão permitir que os hackers cultivem a próxima geração de cibercriminosos”, alertou Adeyanju. Ele apelou às empresas e aos governos para que reconheçam o perigo iminente do desenvolvimento da inteligência artificial. É agora urgentemente necessário impor as proteções necessárias aos cidadãos e à segurança nacional.
Josh Boyer, diretor da consultoria tecnológica VeUP, também considera um desafio reconhecer este problema. Uma tarefa igualmente difícil é garantir a legislação necessária sem sufocar a inovação. Quando um país tem uma política de incentivo às empresas tecnológicas e de apoio às start-ups tecnológicas, geralmente fornece financiamento, infra-estruturas, incentivos fiscais para que as empresas do sector prosperem.
Estão também a ser envidados esforços para desenvolver a reserva de talentos, implantar competências digitais, estimular o interesse dos jovens em carreiras tecnológicas e promover empresas de IA. No entanto, isto revela-se uma faca de dois gumes na ausência de proteção adequada contra o desenvolvimento malicioso de mecanismos de IA. A não resolução desta questão pode ser desastrosa para o futuro de qualquer país. Além do mais, poderia transformar um país de um “Vale do Silício” tecnológico no lar da última geração do crime cibernético.