Uma equipe de pesquisadores do Cornell Tech Research Center desenvolveu um worm generativo de inteligência artificial chamado Morris II, capaz de se espalhar entre sistemas e comprometer potencialmente a segurança dos dados ou instalar programas maliciosos no processo.
Esta descoberta apresenta novos desafios no campo da segurança cibernética, especialmente em relação a modelos de IA como ChatGPT da OpenAI e Gemini do Google.
Recursos e escopo da inteligência artificial Morris II
Morris II, inspirado no infame worm de computador Morris de 1988, É capaz de replicar e propagar entre sistemas usando mensagens auto-replicantes.
Este worm foi criado pelos pesquisadores Ben Nassi, Stav Cohen e Ron Bitton, que demonstraram como funciona em ambientes de teste associados a sistemas de e-mail experimentais ligados ao ChatGPT, Gemini e LLaVA.
A equipe de pesquisa demonstra dois métodos de ataque poderosos usando o Morris II. A primeira envolve a inserção de mensagens de texto que comprometem o banco de dados do sistema de e-mail, resultando na disseminação do worm para outros usuários.
O segundo método envolve a incorporação de código malicioso em imagens, o que leva ao encaminhamento de mensagens maliciosas para outros destinatários.
Apelo à segurança e regulamentação
Embora Morris II ainda não tenha sido observado em ambientes digitais reais, A sua existência teórica levanta preocupações sobre a segurança da IA generativa Destaca a necessidade de adotar abordagens de segurança mais sólidas na concepção de sistemas de inteligência artificial.
Este estudo também destaca a importância de estabelecer regulamentações e protocolos de proteção mais rigorosos para abordar ao máximo as medidas que a IA generativa poderia representar para a segurança da informação digital.