março 13, 2024

[Segurança] ChatGPT, IA e Segurança (com memes)

A Inteligência Artificial (IA) não deveria ser novidade para ninguém. Desde os trabalhos pioneiros de Alan Turing na primeira metade do século passado, cientistas da computação tem se dedicado a esse assunto por décadas. Eu mesmo tive uma disciplina de IA na minha graduação em Ciências da Computação, lá no meados da década de 90.

Mas o surgimento do ChatGPT no final de 2022 trouxe um novo holofote para esse assunto e, assim como diversas ferramentas e apps que surgiram recentemente, tornou a IA acessível para a população em geral. E, vamos ser sinceros: o fenômeno foi tão marcante que o ChatGPT praticamente virou um sinônimo para IA.

A rápida popularização de algumas ferramentas de IA (do ChatGPT a ferramentas para criar imagens, como o Lensa e a Midjourney, além de muitos outros aplicativos) tem chamado muita atenção de todos e trouxe a Inteligência Artificial para o dia--a-dia das pessoas. E para o centro dos debates.

Existem milhares de ferramentas de IA, e as mais faladas atualmente são o ChatGPT (da OpenAI), Bing AI (Microsoft) e o Gemini Bard (Google). Mas tem ferramentas para todo tipo de uso, mais de 70 mil empresas no mercado de IA, e a cada dia surgem novas aplicações. As possibilidades tecnológicas e de uso da IA, em especial essas apresentadas pelo ChatGPT, ainda são embrionárias e muito ainda está por acontecer. Ainda vamos ver muita discussão sobre a tecnologia e sobre os aspectos éticos de seu uso.

De qualquer forma, decidi criar esse post para registrar artigos e fatos que acho interessantes no uso e debate relacionado aos aspectos de segurança (riscos, uso malicioso, incidentes, etc).

Vale a pena destacar que já tivemos alguns incidentes de segurança relacionados ao uso do ChatGPT. Já tivemos o vazamento de dados cadastrais de usuários da ferramenta, além de um incidente icônico em Março de 2023, quando foi noticiado que funcionários da Samsung compartilhavam informações confidenciais ao usar o ChatGPT.

Segue, abaixo, uma coletânea de artigos, relatórios, reportagens, links e memes sobre o assunto.

Aspectos gerais de segurança na IA

O desenvolvimento e o uso de ferramentas de inteligência artificial envolve diversos cuidados de segurança, e algumas iniciativas já estão discutindo isso.

Para começar a estudar esse assunto, vale a pena ver esse documento da CISA com a NCSC: Guidelines for Secure AI System Development (Diretrizes para o Desenvolvimento Seguro de Sistemas de IA), em inglês, lançado em 26/11/2023.

Veja mais leituras obrigatórias sobre o assunto:

Notícias, também temos várias:

O bom uso da IA para aprimorar a postura e as ferramentas de segurança

Há muito já se fala utilizar a IA em cibersegurança, principalmente em ferramentas para melhorar sua performance, como nos casos de ferramentas de detecção de ataque, antivírus e ferramentas para detecção de fraudes. Com o novo boom da IA, sua adoção tende a aumentar significativamente (fique atento, pois dependendo da empresa isso pode ser verdade ou apenas um discurso marketeiro).

Já há especulações e iniciativas para usar as tecnologias de IA de forma a facilitar ou agilizar o trabalho dos times de segurança. Há grande expectativa de que essa tecnologia ajude a automatizar ainda mais processos repetitivos e atividades que possam ser automatizadas. Há também quem acredite que a IA pode melhorar a produção de análises e relatórios.

    Vejamos alguns casos e notícias sobre isso...

      Incidentes de segurança e fraudes

      Sim, já estão ocorrendo alguns incidentes reais devido ao uso incorreto ou mal intencionado do ChatGPT das ferramentas ou da tecnologia de IA.

      Ameaças, riscos de segurança e uso malicioso

      A tecnologia também pode ser usada para o mal, com más intenções. Dentre as principais ameaças existentes até o momento, está a exploração do interesse pelo assunto para distribuir malware, como nos casos de malwares e extensões de navegador maliciosas se passando pelo ChatGPT ou ferramentas semelhantes. Também se fala no uso da IA para aprimorar o código fonte de vírus e malwares, e para aperfeiçoar as tecnologias de deepfake, facilitando a criação de fake news e o roubo de identidade.

      Uma boa referência inicial são esses materiais da Recorded Future, da Europol, Checkpoint e CISA:

      Um ponto que merece destaque, sobre o uso malicioso das tecnologias de IA, é o surgimento, e venda de acesso, para IAs Generativas especializadas na criação e disparo de golpes cibernéticos. Três exemplos recentes são as ferramentas conhecidas como "WormGPT", "FraudGPT" e "WolfGPT".

      Veja alguns casos e notícias: 

      Ataques à IA

      Assim como qualquer ferramenta tecnológica, as ferramentas de IA podem ser alvos de ataques - desde os ciberataques genéricos como DDos, até ataques específicos - como o chamado "prompt injection", por exemplo. 

      Referências obrigatórias sobre o assunto:
      Veja notícias sobre ataques realizados contra a IA: 

      Relatórios, Estudos e Estatísticas

      Regulamentações

      A União Européia tomou o protagonismo na discussão sobre regulamentação para o desenvolvimento das tecnologias de Inteligência Artificial ao, em junho de 2023, lançar o projeto de criação da primeira legislação sobre isso:
      Mais notícias e discussões sobre o regulamentações, normas e leis relacionadas a IA:

      Outros artigos interessantes e curiosos sobre IA e o ChatGPT em geral

      Tem muita, muita coisa disponível sobre Inteligência Artificial, muita mesmo! Então vou colocar aqui só um pouquinho de nada de um punhadinho coisas, que eu acho que podem colaborar com esse post. E você já se preparou para a profissão do futuro? Que tal ser um "digitador de comandos para IA"?

      Alguns memes


        


      PS: Post atualizado em 14/03, 18 e 24/03, em 09, 15 e 23/04.

      PS/2:  Criei uma URL curta para facilitar o acesso a este post: https://is.gd/IAeSeguranca.

      Nenhum comentário:

      Creative Commons License
      Disclaimer: The views expressed on this blog are my own and do not necessarily reflect the views of my employee.