Quase metade dos trabalhadores admite estar usando a IA do jeito errado

Descubra como muitos profissionais estão utilizando a IA de maneira errada e suas implicações no trabalho diário.

Se você já usou o ChatGPT para fazer um rascunho para um e-mail profissional ou pediu a uma ferramenta de inteligência artificial (IA) para resumir um relatório, você não está sozinho. A IA está mudando a forma como trabalhamos, trazendo benefícios incríveis, mas também alguns problemas sérios. Um estudo global recente, conduzido pela Melbourne Business School com mais de 32 mil trabalhadores de 47 países, revelou que 58% dos funcionários usam IA intencionalmente no trabalho, com um terço fazendo isso semanalmente ou diariamente.

O lado preocupante? Quase metade (47%) admite estar usando essas ferramentas de maneira inadequada, e 63% já viu colegas fazendo o mesmo. Vamos explorar o que isso significa, os riscos envolvidos e o que empresas e trabalhadores podem fazer para usar a IA de forma mais responsável.

Leia também:

WhatsApp prepara função que resume conversas usando inteligência artificial
IA na palma das mãos: NotebookLM vai ganhar app próprio em maio

IA no trabalho: um impulso com riscos

IA chatgpt

A pesquisa mostra que a IA está sendo bastante adotada porque ela realmente faz diferença. Cerca de 67% dos trabalhadores relatam ganhos de eficiência, 61% dizem que ela facilita o acesso a informações, 59% notam mais inovação e 58% percebem melhoria na qualidade do trabalho.

Ferramentas de IA generativa, como o ChatGPT, são as mais populares, com 70% dos funcionários optando por versões públicas e gratuitas em vez de soluções fornecidas pelas empresas (42%). Isso é ótimo para produtividade, mas o problema surge quando essas ferramentas são usadas sem cuidado.

Por exemplo, 48% dos entrevistados confessaram ter enviado informações confidenciais, como dados financeiros ou de clientes, para ferramentas públicas, e 44% usaram IA de maneiras que vão contra as políticas da empresa. Esses deslizes podem custar caro, desde prejuízos financeiros até danos à reputação.

Uso desleixado e erros frequentes

Outro ponto alarmante é a confiança cega na IA. O estudo revelou que 66% dos trabalhadores usam os resultados gerados por IA sem verificar se estão corretos, e 56% já cometeram erros no trabalho por causa disso. Imagine enviar um relatório com números errados ou tomar uma decisão baseada em uma resposta imprecisa de um chatbot. Os riscos vão desde pequenos tropeços até perdas significativas.

Funcionários mais jovens, entre 18 e 34 anos, são os que mais caem nessa armadilha, talvez por estarem mais confortáveis com tecnologia, mas menos atentos às suas limitações. Além disso, 35% dos entrevistados notaram que o uso de IA aumentou os riscos de privacidade e conformidade nas empresas, um sinal claro de que algo precisa mudar.

A “IA Invisível” e a falta de transparência

IA

Um dos maiores desafios é o chamado “shadow AI” — o uso de IA às escondidas. Cerca de 61% dos trabalhadores evitam contar que usam IA, 55% apresentam conteúdos gerados por IA como se fossem seus e 66% usam essas ferramentas sem saber se é permitido.

Essa falta de transparência dificulta que as empresas identifiquem e gerenciem riscos. Por que isso acontece? Parte do problema é a falta de orientação: apenas 34% dos entrevistados disseram que suas empresas têm políticas claras sobre o uso de IA, e 6% trabalham em organizações que proíbem a tecnologia. Além disso, metade dos funcionários sente pressão para adotar IA, com medo de ficar para trás se não o fizerem. Sem treinamento adequado, muitos acabam improvisando… e errando.

O caminho para um uso responsável da IA

A boa notícia é que esses problemas têm solução. O estudo destaca que investir em alfabetização em IA, ou seja, treinar os funcionários para entenderem as ferramentas, seus limites e como usá-las corretamente, faz toda a diferença. Trabalhadores com mais conhecimento sobre IA tendem a verificar os resultados, considerar as limitações e colher mais benefícios, como maior produtividade e confiança na tecnologia.

No entanto, menos da metade (47%) dos entrevistados recebeu algum tipo de treinamento. Empresas também precisam criar políticas claras, estabelecer sistemas de supervisão e reforçar a segurança de dados para evitar vazamentos. Criar um ambiente onde os funcionários se sintam à vontade para compartilhar como usam IA é igualmente importante, pois isso incentiva a transparência e reduz riscos.

Além de treinamento e regras, as empresas precisam cultivar uma cultura de aprendizado e segurança psicológica. Isso significa encorajar os trabalhadores a experimentar a IA de forma responsável, compartilhar suas experiências e aprender com os erros sem medo de punição. Essa abordagem não só reduz os riscos, mas também abre portas para inovação.

A IA tem o potencial de transformar o trabalho para melhor, mas só se for usada com responsabilidade. Sem orientação, políticas robustas e uma cultura aberta, ela pode se tornar mais um problema do que uma solução. Para os trabalhadores, a lição é clara: antes de jogar dados sensíveis no ChatGPT ou confiar cegamente em uma resposta, vale a pena parar, checar e, se necessário, pedir ajuda.

Fonte: theconversation

Postado por
Redatora apaixonada por tecnologia, séries e jogos. Adoro explorar tendências tech, mergulhar no universo geek e transformar tudo isso em conteúdo que conecta e inspira!
Siga em:
Compartilhe
Deixe seu comentário
Img de rastreio
Localize algo no site!