A conversa em torno de IA tornou-se um circo da mídia. Em menos de um ano, a tecnologia evoluiu de adicionar apêndices dignos de espetáculo às imagens para altamente convincentes falsificações profundas que agora assolam as mídias sociais. Golpistas estão usando celebridades geradas por IA para enganar suas vítimas com anúncios falsos e enchendo reuniões

Os riscos da IA generativa tornaram-se um tema de grande relevância, especialmente com o avanço rápido da tecnologia. Em menos de um ano, a IA evoluiu de simples adições a imagens para a criação de deepfakes altamente convincentes que assolam as mídias sociais. Golpistas estão usando celebridades geradas por IA para enganar suas vítimas com anúncios falsos e enchendo reuniões com participantes deepfake para golpes financeiros. Como PT Barnum disse uma vez, “Um otário nasce a cada minuto.”

Exceto que há nenhuma evidência de que PT Barnum tenha dito isso. O fato de essa citação ter sido atribuída erroneamente a ele por mais de 100 anos só mostra o impacto duradouro da desinformação, um problema que a proliferação de IA sofisticada pode agravar.

Além da desinformação, profissionais de cibersegurança devem se preocupar com o fato de que os agentes de ameaças agora podem usar IA para otimizar seus ataques. Por outro lado, as organizações devem ter cuidado ao implementar soluções de IA sem primeiro entender seus riscos inerentes e novos.

A Era Pós-Confiança: O Uso de Deepfakes

O risco mais imediato da IA ​​é o uso cada vez mais comum de deepfakes. Na sociedade em geral, o governo está pedindo regulamentação após deepfakes “alarmantes” de Taylor Swift circularem nas redes sociais. O uso de deepfakes para disseminar desinformação sobre as eleições de 2024 é apenas uma questão de (provavelmente muito pouco) tempo.

No entanto, a segurança cibernética empresarial deve se preocupar muito mais com o risco já presente de agentes de ameaças usando deepfakes para conduzir ataques de engenharia social. Por exemplo, um vídeo gerado por IA ou uma mensagem de correio de voz pode convencer um membro da equipe financeira a transferir um pagamento fraudulento ou um funcionário do help desk a fornecer acesso não autorizado a sistemas de TI.

Essas tecnologias não são difíceis de acessar para possíveis invasores. A Tencent Cloud comercializou deepfakes como serviço, que os agentes de ameaças podem usar para fins ilegítimos. Uma variedade de ofertas de phishing como serviço e ransomware como serviço estão disponíveis na dark web também. A natureza da ameaça se tornou comercializada, e técnicas avançadas de ataque se tornaram commodities, o que permite que até mesmo agentes de ameaças novatos conduzam ataques cibernéticos sofisticados.

Tabela: Exemplos de Uso de Deepfakes

Uso de DeepfakesDescrição
DesinformaçãoDisseminação de notícias falsas sobre eleições ou eventos importantes.
Engenharia SocialConvencimento de funcionários a realizar ações fraudulentas.
Golpes FinanceirosUso de deepfakes para enganar vítimas em transações financeiras.
PhishingCriação de mensagens de correio de voz ou vídeos para obter informações sensíveis.

IA Não é a Panaceia

As organizações devem ser igualmente cautelosas ao apressar a implementação de soluções de IA, seja para acompanhar a crescente sofisticação dos ataques cibernéticos ou qualquer outro número de eficiências operacionais promissoras. O caminho para atingir o potencial da IA ​​é pavimentado com riscos, no entanto. Por exemplo, uma concessionária de automóveis virou notícia quando seu Chatbot de IA concordou em vender um carro por um dólar.

Organizações que implantaram seus próprios grandes modelos de linguagem (LLMs) devem estar cientes de sua propensão a confiar alucinar resultados incorretos. Da mesma forma, considere o risco de gerar código com TuringBots, que poderia introduzir novas vulnerabilidades no software. Além disso, esses LLMs poderiam ser alvos de ataques de agentes de ameaças, que poderiam exfiltrar dados dos modelos ou envenenar seus resultados com ataques de injeção rápida.

O que são Ataques de Injeção Imediata?

Um invasor pode manipular um sistema de IA generativo inserindo prompts especialmente criados que induzem a IA a gerar saídas que violam ou expõem seus parâmetros operacionais pretendidos ou diretrizes éticas. Isso pode resultar em acesso não autorizado a informações, disseminação de desinformação ou execução de tarefas que a IA foi projetada para evitar, como criar conteúdo prejudicial.

O ponto é que, apesar de seus avanços, você não deve confiar cegamente nas ofertas atuais de IA. É por isso que tantos provedores de IA estão tentando se proteger de responsabilidade oferecendo apenas “visualizações privadas” restritas de suas ferramentas – os riscos de alucinação e imprecisão ainda são muito altos.

Treinamento de Funcionários como Fonte de Verdade

Encontrar uma fonte de verdade em um mundo que se considera pós-confiança pode ser difícil. Como os políticos estão pedindo regulamentação da IA ​​para evitar sua militarização, a Microsoft está prometendo que marcará com marca d’água fotos e vídeos gerados por IA, enquanto a Adobe está fazendo parceria com fabricantes de câmeras para autenticar imagens no ponto de captura. Essas marcas d’água e certificados servem como uma forma de verificar a procedência e a autenticidade das imagens, semelhante à riqueza de tecnologias antifalsificação incorporadas ao papel-moeda no mundo todo.

Na ausência deste tipo de autenticação, o Departamento de Segurança Interna (DHS) partilhou dicas sobre como detectar deepfakes. Os principais indícios incluem desfoque do rosto, mudanças incomuns no tom da pele, piscar anormal, frases entrecortadas e inflexão estranha ou incomum. Para se proteger contra ameaças, você pode desenvolver essas habilidades analíticas em sua equipe por meio de treinamento.

Tabela: Dicas para Detectar Deepfakes

IndícioDescrição
Desfoque do RostoImagens com áreas faciais desfocadas podem ser deepfakes.
Mudanças no Tom da PeleAlterações incomuns na cor da pele podem indicar manipulação.
Piscar AnormalPiscar irregular pode ser um sinal de deepfake.
Frases EntrecortadasFalas que parecem cortadas ou incompletas podem ser geradas por IA.
Inflexão EstranhaVozes com inflexões incomuns podem ser deepfakes.

Políticas Inteligentes para Mitigar Riscos de IA

Da geração de código com TuringBots a soluções de segurança habilitadas por IA, muitas organizações estão recorrendo a soluções de IA para ajudar a fechar suas várias lacunas de habilidades, mas elas também devem considerar o risco que soluções de IA irrestritas representam. Por exemplo, TuringBots correm o risco de introduzir vulnerabilidades no código. Novas soluções de IA exigem novas políticas corporativas para evitar seu uso indevido e devem ser pareadas com análises externas e, frequentemente, com interação humana para detectar anomalias em seu comportamento.

Três Políticas para Mitigar Riscos de IA

  1. Proíba o uso de propriedade intelectual ou dados de clientes em prompts de IA para evitar vazamentos de dados não intencionais.
  2. Proibir o uso de código generativo em ambientes de produção para evitar a introdução de vulnerabilidades.
  3. Evite pesquisas que poluem cruzadas com contexto supérfluo ou não relacionado, o que pode criar viés, imprecisão ou confusão nos resultados.

A Capacidade de Estabelecer Contexto

A capacidade de estabelecer contexto é um dos aspectos mais poderosos da processamento de linguagem natural (PLN) poder dos LLMs, mas também é, sem dúvida, sua maior fraqueza. Enquanto um mecanismo de busca permite apenas que os usuários conduzam consultas singulares, você pode fazer perguntas esclarecedoras aos LLMs e refinar os prompts para melhorar os resultados. Os prompts podem distorcer esses resultados, no entanto, ao fornecer contexto impróprio ou se eles’re deliberadamente projetado para “enganar o sistema” por meio de injeção rápida.

As organizações que estão implementando LLMs ou integrando-os em seus próprios produtos devem garantir que seus modelos sejam “fundamentados” com dados específicos do caso de uso para garantir que seus resultados permaneçam relevantes para sua finalidade inicial pretendida. Da mesma forma, os riscos de exposição, alucinação e uso indevido de dados significam que ainda há muito risco para as organizações implantarem soluções empresariais que forneçam acesso irrestrito e autônomo a consultas e detecções habilitadas por IA.

Tabela: Riscos de LLMs

RiscoDescrição
Exposição de DadosVazamento de dados sensíveis devido a prompts mal configurados.
AlucinaçãoGeração de resultados incorretos ou irrelevantes.
Uso IndevidoUso de LLMs para fins ilegítimos ou mal-intencionados.

A Visibilidade é a Líder

A IA precisa de um líder para inaugurar seu futuro. Assim como um líder garante que cada artista esteja executando em sincronia, obter visibilidade sobre como a IA está impactando sua rede traz clareza à interação de dados, algoritmos e processos, garantindo harmonia em suas performances. E assim como um líder antecipa desafios, a visibilidade permite mitigar riscos no ecossistema emergente de IA. Finalmente, assim como um líder inspira confiança na multidão e nos artistas, a visibilidade fornece transparência e responsabilidade, para que as partes interessadas possam construir confiança na implantação de sistemas de IA.

Perguntas Frequentes

1. Por que a qualidade dos dados é crucial para a IA generativa?

A qualidade dos dados é crucial porque a IA generativa depende de dados robustos, abrangentes e validados para gerar resultados precisos e criativos. Dados de baixa qualidade podem comprometer a eficácia da IA e levar a resultados imprecisos.

2. Quais são as considerações éticas ao construir uma plataforma de IA generativa?

As considerações éticas incluem garantir que a IA não perpetue vieses, criar uma estratégia de moderação forte, promover transparência e engajar-se constantemente com a comunidade para abordar novos desafios éticos.

3. Como lidar com a resistência dos tradicionalistas?

Lidar com a resistência dos tradicionalistas envolve ouvir suas preocupações, educar sobre os benefícios da IA e promover uma narrativa que mostre a IA como uma ferramenta para suplementar, não substituir, habilidades humanas.

4. Quais são as funções principais da IA generativa?

As funções principais da IA generativa incluem geração de conteúdo, personalização, automatização de tarefas, análise de dados e auxílio à criatividade.

5. Por que uma comunidade forte é importante para uma plataforma de IA?

Uma comunidade forte é importante porque ela fornece insights cruciais, responde a dúvidas, corrige problemas, sugere novos usos para a tecnologia e ajuda a direcionar a inovação, aumentando a popularidade e o sucesso da plataforma.

Conclusão

Construir uma plataforma de IA generativa é uma tarefa complexa que requer um entendimento profundo de várias disciplinas e uma abordagem multidisciplinar. A qualidade dos dados, a diversidade e o pré-processamento são fundamentais para o sucesso da IA generativa. Considerações éticas, como a transparência e a moderação, são essenciais para garantir o uso responsável da tecnologia. Enfrentar a resistência dos tradicionalistas com educação e sensibilidade é crucial para uma transição suave. A IA generativa não é uma substituta, mas uma ferramenta poderosa para agilizar o brainstorming e promover a criatividade. Por fim, uma comunidade forte é vital para o sucesso contínuo e a inovação da plataforma de IA.

Atualizado em by Trade e Mais
A conversa em torno de IA tornou-se um circo da mídia. Em menos de um ano, a tecnologia evoluiu de adicionar apêndices dignos de espetáculo às imagens para altamente convincentes falsificações profundas que agora assolam as mídias sociais. Golpistas estão usando celebridades geradas por IA para enganar suas vítimas com anúncios falsos e enchendo reuniões
A conversa em torno de IA tornou-se um circo da mídia. Em menos de um ano, a tecnologia evoluiu de adicionar apêndices dignos de espetáculo às imagens para altamente convincentes falsificações profundas que agora assolam as mídias sociais. Golpistas estão usando celebridades geradas por IA para enganar suas vítimas com anúncios falsos e enchendo reuniões
A conversa em torno de IA tornou-se um circo da mídia. Em menos de um ano, a tecnologia evoluiu de adicionar apêndices dignos de espetáculo às imagens para altamente convincentes falsificações profundas que agora assolam as mídias sociais. Golpistas estão usando celebridades geradas por IA para enganar suas vítimas com anúncios falsos e enchendo reuniões
Registro Rápido

Olymp Trade oferece Forex e negociação por tempo fixo. Conta Demo com $10.000 em fundos virtuais.

100%
Pontuação de Confiança

Teste Gratuitamente! Depósito inicial não é necessário.