Ferramentas de IA generativas como o ChatGPT vem sendo usadas de diversas formas e para atividades corriqueiras como simplesmente ajudar a escrever um e-mail ou textos mais sérios. Por isso, a Samsung resolveu impedir que isso aconteça por parte dos seus funcionários.
De acordo com a Bloomberg News, a empresa enviou um memorando proibindo o uso desses tipos de ferramentas generativas de IA em suas redes internas e aparelhos de propriedade da empresa. A grande preocupação é a respeito das informações passadas para essas ferramentas.
Leia também:
Paixão nacional: Brasil está entre os maiores usuários do ChatGPT no mundo
ChatGPT tem a capacidade de produzir malwares indetectáveis
Samsung proíbe uso de ChatGPT temporariamente
Pelo que pode ser visto no memorando, essa restrição é temporária. A Samsung teme que o upload de informações confidenciais para as plataformas seja perigoso e acabe facilitando com que elas sejam repassadas para outros locais, ou seja, um risco à segurança da empresa.
Por isso, a gigante sul coreana já está trabalhando para evitar que isso aconteça, tentando estabelecer o que eles chamaram de “um ambiente seguro” para que esse tipo de ferramenta generativa como o ChatGPT possa ser usado sem correr esse tipo de risco.
E, de fato, o chatbot da OpenAI é atualmente o maior fator de risco por ter se tornado a solução mais popular dessa categoria. Ele pode ser usado como fonte de entretenimento mas também pode acabar ajudando em diversas tarefas diárias e cotidianas, e por isso pode ser tentador pedir para que a plataforma escreva uma resposta de e-mail ou até mesmo uma mensagem do zero, entre outras coisas.
Porém, um pedido simples como esse pode ser perigoso, já que contém informações confidenciais da empresa e que ao serem passadas para o ChatGPT, poderão também chegar à OpenAI. Isso porque os riscos de privacidade do uso do ChatGPT vão depender de como o usuário utiliza a ferramenta.
ChatGPT utiliza informações compartilhadas na plataforma
Atualmente a única forma da conversa com o chatbot não ficar visível para a equipe de suporte da OpenAI e não ser usada para treinar modelos é se a empresa utilizando a ferramenta é API do ChatGPT, o que não é o caso da Samsung.
Quando o uso é padrão, ou seja, usando a interface geral da web nas configurações padrões para adicionar um tempo, essa regra não é aplicada.
A OpenAI já deixou isso claro, inclusive em uma FAQ, que são perguntas feitas com frequência. Eles explicam que têm acesso a essas conversas que os usuários têm com o ChatGPT por diversas razões. Uma delas é para garantir que a conversa esteja em conformidade com as políticas de segurança da empresa.
Outro motivo é que essas conversas são utilizadas para treinar outras versões do ChatGPT para que ele possa melhorar a cada nova versão. Por isso, eles aconselham que os usuários não compartilhem informações confidenciais no uso da ferramenta, que é exatamente o que a Samsung está fazendo com a restrição temporária.
A empresa mostrou que está preocupada com a chance de usuários estarem usando o chatbot para ganhar tempo em algumas tarefas sem perceber o risco potencial desse uso.
Segundo a Bloomberg, o memorando afirma que:
“A sede está revisando as medidas de segurança para criar um ambiente seguro para usar com segurança a IA generativa para aumentar a produtividade e a eficiência dos funcionários. No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente o uso de IA generativa”.
Com isso, a restrição vale tanto para dispositivos da empresa como computadores, smartphones e tablets quanto também para os aparelhos pessoais dos funcionários, já que eles podem acabar passando informações confidenciais da empresa através deles também. O descumprimento da ordem pode levar até mesmo ao afastamento do funcionário, como diz o memorando.
“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”
A própria Samsung confirmou a autenticidade do memorando. Eles afirmaram que essa decisão foi tomada principalmente depois que descobriram que alguns funcionários tinham vazado um código-fonte em uma conversa com o ChatGPT.
Mais e mais empresas estão limitando o uso da ferramenta
A Samsung não é a única empresa de olho nesses riscos, o que aumentou ainda mais depois que o ChatGPT teve um bug que acabou expondo de forma temporária o histórico de alguns bate-papos e informações confidenciais como de pagamento a outros usuários do serviço.
Por isso, diversas empresas e instituições estão criando seus próprios limites e restrições em relação ao uso de ferramentas generativas de IA como o chatbot da OpenAI. Os motivos para as restrições são variados, mas a maioria diz respeito à segurança das informações.
“O JPMorgan restringiu seu uso por questões de conformidade, relatórios da CNN , enquanto outros bancos como Bank of America, Citigroup, Deutsche Bank, Goldman Sachs e Wells Fargo também proibiram ou restringiram o uso de tais ferramentas . As escolas da cidade de Nova York baniram o ChatGPT por medo de trapaça e desinformação , enquanto a proteção de dados e as preocupações com a segurança infantil foram citadas como o motivo da proibição temporária do ChatGPT na Itália.”
Em relação à Samsung, isso não será para sempre. Como o próprio memorando diz, a restrição é temporária, o que significa que a empresa teria algum plano de retomar o uso dessas ferramentas no futuro por parte dos seus funcionários. Lembrando que essas restrições não são relacionadas aos produtos da empresa que são vendidos para usuários, como computadores e smartphones, ou seja, o uso do ChatGPT através desses dispositivos é livre.
Fonte: The Verge
Deixe seu comentário