sábado, setembro 14

Uma equipe de pesquisadores do Cornell Tech Research Center desenvolveu um worm generativo de inteligência artificial chamado Morris II, capaz de se espalhar entre sistemas e comprometer potencialmente a segurança dos dados ou instalar programas maliciosos no processo.

Esta descoberta apresenta novos desafios no campo da segurança cibernética, especialmente em relação a modelos de IA como ChatGPT da OpenAI e Gemini do Google.

Recursos e escopo da inteligência artificial Morris II

Morris II, inspirado no infame worm de computador Morris de 1988, É capaz de replicar e propagar entre sistemas usando mensagens auto-replicantes.

Este worm foi criado pelos pesquisadores Ben Nassi, Stav Cohen e Ron Bitton, que demonstraram como funciona em ambientes de teste associados a sistemas de e-mail experimentais ligados ao ChatGPT, Gemini e LLaVA.

A equipe de pesquisa demonstra dois métodos de ataque poderosos usando o Morris II. A primeira envolve a inserção de mensagens de texto que comprometem o banco de dados do sistema de e-mail, resultando na disseminação do worm para outros usuários.

O segundo método envolve a incorporação de código malicioso em imagens, o que leva ao encaminhamento de mensagens maliciosas para outros destinatários.

Apelo à segurança e regulamentação

Embora Morris II ainda não tenha sido observado em ambientes digitais reais, A sua existência teórica levanta preocupações sobre a segurança da IA ​​generativa Destaca a necessidade de adotar abordagens de segurança mais sólidas na concepção de sistemas de inteligência artificial.

Este estudo também destaca a importância de estabelecer regulamentações e protocolos de proteção mais rigorosos para abordar ao máximo as medidas que a IA generativa poderia representar para a segurança da informação digital.

Compartilhe:

Comentários estão fechados.