5 dicas para usar o ChatGPT na sua empresa sem colocar a segurança em risco - Blog A CRÍTICA

"Imprensa é oposição. O resto é armazém de secos e molhados." (Millôr Fernandes)

Últimas

Post Top Ad

quinta-feira, 4 de maio de 2023

5 dicas para usar o ChatGPT na sua empresa sem colocar a segurança em risco

Para advogada especialista em proteção de dados, é possível tirar proveito das vantagens da tecnologia sem expor dados e informações sensíveis a riscos de vazamento



 
São Paulo, 04 de maio - O ChatGPT já é, para empresas de todos os tamanhos, uma ferramenta valiosa para automatizar tarefas, otimizar a comunicação, capacitar pessoas e reduzir custos. Compartilhar informações com esse assistente virtual inteligente, entretanto, pode render riscos para a segurança da organização. 
 
O exemplo mais recente aconteceu no início do mês de abril, quando funcionários da Samsung usaram o ChatGPT para lidar com informações sigilosas, provocando pelo menos três vazamentos sérios de dados sensíveis da empresa. A transferência de elementos do código-fonte da companhia e gravações de reuniões internas com o ChatGPT deram à OpenAI acesso a informações que ninguém não autorizado deveria ter.
 
O episódio da Samsung mostra que há lições a serem aprendidas sobre como evitar que essas ferramentas se tornem uma ameaça real à segurança dos dados. A especialista em proteção de dados Ana Carolina Teles, advogada do escritório Assis e Mendes, propõe cinco medidas para que as empresas possam aproveitar os benefícios da tecnologia sem colocar em risco suas informações sigilosas.
 
1) Treine os funcionários
 
Os funcionários são a primeira linha de defesa contra ameaças à segurança dos dados de uma empresa. Portanto, é fundamental que eles sejam treinados sobre práticas de segurança da informação, incluindo o uso seguro de assistentes virtuais, bots e modelos de IA. Isso inclui a conscientização sobre a importância de não compartilhar informações confidenciais com essas ferramentas (anonimizá-las, pelo menos), a necessidade de usar senhas fortes e alterá-las regularmente, e a importância de manter o software e os sistemas atualizados.

2) Implemente políticas claras sobre o uso dessas tecnologias
 
As empresas devem ter políticas claras sobre o uso de assistentes virtuais, bots e modelos de IA, incluindo quem pode usá-los, para que finalidades e quais informações podem ser compartilhadas com essas ferramentas. Além disso, é importante monitorar rigorosamente o cumprimento dessas políticas para garantir que elas estejam sendo seguidas corretamente.
 
3) Considere limitar o acesso a algumas ferramentas
 
Algumas ferramentas de assistentes virtuais, bots e modelos de IA podem ter amplos acessos sobre informações extremamente confidenciais, como códigos-fonte ou dados financeiros. Nesses casos, pode ser necessário limitar ou bloquear completamente o acesso a essas ferramentas para garantir a segurança dos dados.

4) Conheça as plataformas antes de implementá-las
 
Antes de implementar uma nova plataforma, é importante entender como ela funciona e quais são seus recursos de segurança. Isso inclui a avaliação das políticas de privacidade e segurança da plataforma, bem como a implementação de controles e salvaguardas apropriados para proteger os dados da empresa.


5) Seja um líder atento aos novos riscos
 
Os líderes precisam estar atentos aos novos riscos à medida que essas tecnologias evoluem e se integram mais profundamente ao fluxo de trabalho. Isso inclui a avaliação contínua das políticas de segurança da empresa, a identificação de novas ameaças à segurança dos dados e a implementação de medidas de segurança adequadas para proteger a empresa contra essas ameaças.

Nenhum comentário:

Postar um comentário

Post Bottom Ad

Pages