Nenhuma informação no momento

Gerando Risco: Novas Exposições do ChatGPT e Outras Ferramentas de IA

04, Dez. 2023

Por Corey McReynolds |  Fonte : Risk Management Magazine - RIMS

À medida que o ChatGPT e outras novas ferramentas generativas de IA recebem mais atenção e se tornam mais facilmente acessíveis, as empresas começaram a explorar como integrá-las de forma eficaz nos seus fluxos de trabalho. Embora este processo possa exigir deliberação do ponto de vista corporativo, muitos funcionários não esperarão pela luz verde da administração antes de explorar a tecnologia. Em vez disso, muitos funcionários provavelmente já estão usando essas ferramentas de alguma forma para ajudar nas tarefas relacionadas ao trabalho.

Na verdade, num inquérito a 2.000 trabalhadores americanos, a Business.com descobriu que 57% experimentaram o ChatGPT e 16% utilizam-no regularmente no trabalho. Dados da Cyberhaven descobriram de forma semelhante que, em 1º de junho, 10,8% dos funcionários usaram o ChatGPT no trabalho e 8,6% até colaram dados da empresa nele. Em muitos casos, os funcionários realizam este trabalho na ausência de qualquer política da empresa sobre a utilização de IA e sem uma compreensão completa dos riscos potenciais.

“As empresas estão percebendo cada vez mais que os funcionários em toda a organização estão usando IA generativa de maneiras que não apreciavam totalmente”, disse Sarah Rugnetta, vice-presidente e sócia da equipe cibernética do escritório de advocacia Constangy, Brooks, Smith & Prophete. “Nos últimos meses, temos visto uma atenção cada vez maior à IA. O desenvolvimento de uma política de uso de IA tornou-se uma alta prioridade organizacional, e a diretriz para desenvolver uma política de uso de IA muitas vezes vem diretamente do alto escalão.”

É claro que só porque os funcionários usam ferramentas generativas de IA não significa necessariamente que estejam envolvidos em qualquer comportamento de risco. Muitas pessoas ainda estão um pouco cautelosas em relação a esta tecnologia nesta fase e estão apenas testando o terreno. Mas testar as águas ainda pode apresentar riscos. Embora tenha havido uma extensa cobertura sobre IA generativa este ano, continua a existir uma falta geral de conhecimento sobre como ela realmente funciona, representando um perigo facilmente esquecido. Uma melhor compreensão da IA ​​generativa e dos riscos envolvidos pode ajudar as organizações e os seus funcionários a prepararem-se melhor para tirar o máximo partido do potencial das ferramentas de IA generativa, garantindo ao mesmo tempo que o fazem de forma mais segura.

Preocupações com segurança de dados

Uma das principais características da IA ​​generativa é que ela recebe tanto quanto dá, o que significa que a qualidade dos resultados futuros depende das informações inseridas no sistema para treiná-lo. Os usuários podem não perceber que, quando inserem informações, a IA não está apenas cuspindo algo de volta para eles, mas também absorvendo esse conhecimento e garantindo que ele seja acessível a qualquer pessoa que use a ferramenta daqui para frente. É aí que reside o risco.

Uma vez que a IA generativa consome informações – sejam essas informações disponíveis publicamente ou altamente confidenciais, como informações de identificação pessoal, informações de saúde protegidas ou propriedade intelectual de uma organização – elas existem perpetuamente como parte do conjunto de dados da ferramenta e podem, portanto, ser acessíveis a qualquer pessoa que usa essa plataforma. No futuro, outra parte poderá acessar informações confidenciais divulgadas inadvertidamente à IA generativa, aumentando riscos significativos de propriedade intelectual e legais.

Considere um cenário hipotético: um funcionário está trabalhando com IA generativa para apresentar uma descrição das capacidades de um novo produto ou serviço. Quaisquer ideias e conceitos que eles alimentem na IA generativa para produzir as mensagens desejadas estão agora no conjunto de informações que a IA generativa pode utilizar no futuro. Se o funcionário solicitar ajuda para transformar um resumo de mensagens em slides estampados com o nome da empresa para uma apresentação interna, um concorrente poderia, em teoria, perguntar à IA: “Em que nova tecnologia a Empresa A está trabalhando?” ou “Preciso de uma ideia para o produto X” e poderá acessar as informações inseridas.

Além disso, se um concorrente consultar a mesma IA generativa relativamente a um novo produto ou serviço semelhante, essa IA generativa poderá ser capaz de aproveitar as informações da Empresa A e fornecê-las à Empresa B como parte da sua resposta. Isto poderia resultar num nível mais elevado de conflito potencial relativamente a quem é o proprietário dessa propriedade intelectual.

A possibilidade de violação da infraestrutura destas ferramentas apresenta outro risco à segurança dos dados. Por exemplo, a OpenAI teve que retirar o ChatGPT do ar em março para corrigir um bug que permitia ao usuário recuperar os títulos dos bate-papos de outros usuários. “Se houvesse uma violação maior, que detalhes adicionais poderiam ser descobertos e que tipo de atribuição poderia ser feita?” disse Marc Bleicher, diretor de tecnologia da Surefire Cyber. “Se os funcionários se inscrevessem em contas usando o domínio de sua empresa, outros usuários poderiam ver que tipo de perguntas estão usando para interagir com uma IA generativa. Isso é um tesouro de informações.”

Outra preocupação é que os agentes de ameaças utilizem ferramentas de IA para conduzir ataques cibernéticos mais sofisticados, quer isso signifique escrever malware mais eficaz ou inventar melhores esquemas de phishing. Por exemplo, para evitar ameaças de phishing e spearphishing no passado, as organizações alertaram os funcionários para prestarem atenção a erros ortográficos e outros elementos que pareciam “errados” em um e-mail ou site. As tecnologias de IA generativa podem agora ser aproveitadas para criar comunicações e websites limpos e com aparência profissional que não deixam indicações de que sejam fraudulentos.

Além disso, os malfeitores podem combinar as capacidades de processamento de linguagem natural da IA ​​generativa com tecnologias visuais de falsificação profunda e de recriação de voz para criar uma imagem física de uma pessoa que se move e fala naturalmente. Ao obter imagens e amostras de voz de mídias sociais, vídeos de discursos ou até mesmo ligações não solicitadas à moda antiga para gravar uma voz, eles podem até fazer com que pareça e soe como alguém que um funcionário conhece. O resultado pode ser muito convincente, tornando mais fácil para os atores da ameaça se passarem por supervisores ou membros do alto escalão para conseguir que um funcionário, organização parceira ou terceiro faça algo em nome da empresa.

À medida que a tecnologia melhora, os cibercriminosos encontrarão formas adicionais de tirar partido das suas capacidades para criar novos ataques e automatizá-los e disseminá-los de forma mais eficaz. “A IA generativa ainda está em sua infância”, disse Rugnetta. “Estamos esperando para ver se e como essa tecnologia será aproveitada para aumentar o atual cenário de ameaças.”

Educação e Conscientização

Promover a educação e a conscientização é vital para evitar consequências indesejadas do uso do ChatGPT e de outras plataformas generativas de IA pelos funcionários. As organizações devem despender tempo, dinheiro e esforço desde o início e com frequência para garantir que os funcionários compreendem a tecnologia, o que ela faz, do que é capaz, de onde extrai informações e o que faz com as informações recebidas.

Um elemento importante que os funcionários devem compreender é que a IA generativa nem sempre produz resultados precisos. “A IA generativa pode criar problemas nos resultados da tecnologia”, disse Rugnetta. “Como a IA é treinada com base em dados anteriores, ela pode gerar preconceitos e imprecisões que os funcionários podem não necessariamente apreciar ou detectar.”

A IA generativa também pode ser propensa a “alucinações”, em que a tecnologia simplesmente cria informações fictícias em resposta a uma solicitação, criando potencialmente problemas para as organizações que utilizam essas informações a título oficial.

Para evitar estes problemas, é essencial desenvolver um processo de revisão que não considere os resultados gerados pela IA pelo seu valor nominal. “Não remova o humano”, disse Bleicher. “Quer você confie na IA generativa por meio de um aplicativo ou de seus serviços, até que isso esteja mais desenvolvido, tenha alguém para verificar a precisão e a validade desses dados.”

Em algumas circunstâncias, pode até fazer sentido realizar uma auditoria independente e humana da ferramenta. “Por exemplo, se houver preocupações sobre preconceitos no contexto de RH, essa é uma área onde você provavelmente gostaria de dar o próximo passo e realizar uma auditoria real ou uma avaliação de impacto na privacidade de dados, a fim de detectar e documentar as descobertas”, Rugnetta disse.

As empresas precisam essencialmente tratar a IA generativa como tratariam qualquer outra ferramenta nova e estabelecer parâmetros para implementação. “Crie uma política de uso aceitável em torno da IA ​​generativa e estabeleça controles técnicos para garantir que essas políticas sejam seguidas”, disse Bleicher. As empresas devem definir claramente políticas e procedimentos para restringir ou promover a utilização segura destas tecnologias, adaptando esta orientação a cada organização e aos seus funcionários. No entanto, a pesquisa Business.com descobriu que poucas empresas deram esse passo, com apenas 17% dos trabalhadores afirmando que suas empresas tinham uma política clara sobre o uso do ChatGPT. As organizações que tomam este tipo de medidas têm maior probabilidade de estar conscientes dos riscos apresentados pela IA generativa e mais bem posicionadas para tomar decisões informadas sobre os riscos.

Para que as políticas de IA sejam eficazes, elas precisam ser personalizadas. Dependendo do setor e da estrutura de governança de dados de uma organização, Rugnetta recomendou envolver pessoas das equipes de segurança da informação, jurídico, privacidade, operações, recursos humanos e conformidade no desenvolvimento de políticas de IA. Este grupo será capaz de identificar os casos de utilização e os riscos em torno de cada uma dessas utilizações, avaliar se deve investir numa plataforma empresarial de IA e debater a melhor forma de divulgar a política e formar a força de trabalho.

A política também deve ser revista periodicamente como parte do ciclo de governação da organização. As políticas devem incluir diretrizes a nível de processo em vez de abordar tecnologias específicas, embora Rugnetta tenha observado que “as organizações podem incluir plataformas de IA generativa aprovadas num apêndice que pode ser mais facilmente atualizado para refletir a nova tecnologia”. Para esse fim, uma vez que os avanços na IA generativa acontecerão muito rapidamente, as organizações devem realizar regularmente sessões de formação para ajudar os funcionários a manterem-se atualizados sobre as tendências e capacidades tecnológicas atuais.

Tal como acontece com qualquer nova tecnologia importante, a IA generativa está repleta de possibilidades, mas também de perigos potenciais. As organizações que não tomam medidas proativas para desenvolver políticas, educação e comunicação para ajudar os funcionários a compreender estas ferramentas abrem-se a uma ampla gama de novas exposições a riscos.

Corey McReynolds é consultor sênior de serviços profissionais da empresa de segurança de TI Avertium.


https://www.rmmagazine.com/articles/article/2023/12/01/generating-risk-new-exposures-from-chatgpt-and-other-ai-tools

------------------------------------------

O CIST Clube Internacional de Seguros & Transportes (www.cist.org.br) realizará tradicional congresso anual nos dias 7 e 8 de dezembro 2023, no Sheraton São Paulo- WTC. Av. Nações Unidas, 12.551, Brooklin Novo, São Paulo.

COMPRA DE INGRESSOS:https://www.sympla.com.br/evento/9-congresso-expo-cist-2023/2172924?referrer=www.google.com

O evento reunirá  em um só lugar executivos e profissionais do segmento de logística, riscos e seguro, Autoridades do setor, Embarcadores, Transportadores, Operadores Logísticos, Seguradoras, Corretores de seguros, Escritórios Jurídicos, Gerenciamento de Riscos, Tecnologia, Comissários de Avarias, e todos que se dedicam à prestação de serviços para esse grande ecossistema; além de parceiros internacionais.
Participe do 9º CONGRESSO- EXPO CIST 2023, que já se consolidou como o maior evento do mercado de seguros de transporte de cargas brasileiro e latino-americano.





Os associados ABGR agora têm 20% de desconto em todos os cursos da Conhecer Seguros. São diversos treinamentos sobre Seguros, Gestão e Finanças, com professores especialistas. Acesse o site e aproveite mais esse benefício: https://conhecerseguros.com.br/.../SiteCurso/CarregaCursos



KPMG Business School - Treinamento: Conformidade em Seguros 

**Associados ABGR têm 30% de desconto nas inscrições ** **Associados ABGR têm 30% de desconto nas inscrições **
Início: 1 de fevereiro   -  26 horas de conteúdo. 
Adquira o conhecimento técnico necessário para implementar áreas e processos que atendam aos aspectos regulatórios do setor de seguros.
Aprenda sobre os temas de Governança Corporativa, Riscos, Compliance, Controles Internos e Auditoria Interna em uma formação completa com foco na Resolução CNSP 416/2021, Circulares da SUSEP: 612/2020, 666/2022, 638/2021, 648/2022 e demais normas aplicáveis e correlatas. Interessados manter contato através do e-mail: abgr@abgr.com.br
Site do curso: https://lnkd.in/guYka-Nc



Parceria ABGR e ENS - Escola de Negócios e Seguros - Desconto aos Associados!

Mais informações em: www.abgr.com.br- comunicados


Curso Preparatório e Certificação Profissional Internacional em Gestão de Riscos.

Associados ABGR têm desconto para inscrições antecipadas. Solicite mais informações através do e-mail: abgr@abgr.com.br



RIMS e ABGR- Parceria de colaboração que oferece benefícios para os associados da ABGR

Saiba mais em: https://www.rims.org/community/global-professionals/abgr-offer


Acesse as edições mais recentes das publicações do Mercado de Seguros: 

Revista Apólice: https://revistaapolice.com.br/2023/10/apolice-292/

Revista Cobertura: https://www.revistacobertura.com.br/revistas/revista-cobertura-edicao-258/

Revista Insurance Corp: https://insurancecorp.com.br/pt/content/pdf/ic_ed50_2023.pdf

Revista Seguro Total : https://revistasegurototal.com.br/2023/11/08/st-edicao-237-eventos-transformam-o-mercado-e-superam-expectativas/

Revista Segurador Brasil: https://revistaseguradorbrasil.com.br/edicao-181/

Revista de Seguros:https://cnseg.org.br/publicacoes/revista-de-seguros-n-926

Conjuntura CNseg: https://cnseg.org.br/publicacoes/conjuntura-c-nseg-n-9

Revista Insurtalks: https://www.insurtalks.com.br/revista/revista-insurtalks-especial-23

Revista Brasil Energia: https://editorabrasilenergia.com.br/wp-content/uploads/sites/1/flips/135522/Bia483/index.html

Portal CQCS: https://cqcs.com.br/