Os trabalhadores estão usando ferramentas de IA para aumentar a produtividade individual, mas mantendo sua atividade em baixa, o que pode estar prejudicando o desempenho geral de suas organizações, afirma um professor da escola de negócios da Wharton em um blog publicado no domingo.
“Hoje, bilhões de pessoas têm acesso a grandes modelos de linguagem (LLMs) e aos benefícios de produtividade que eles trazem”, escreveu Ethan Mollick em seu Uma Coisa Útil blog. “E, após décadas de pesquisa em inovação estudando todos, de encanadores a bibliotecários e cirurgiões, sabemos que, quando têm acesso a ferramentas de uso geral, as pessoas descobrem maneiras de usá-las para tornar seu trabalho mais fácil e melhor.”
“Os resultados geralmente são invenções revolucionárias, formas de usar IA que podem transformar completamente um negócio”, continuou ele. “As pessoas estão simplificando tarefas, adotando novas abordagens para codificação e automatizando partes demoradas e tediosas de seus trabalhos. Mas os inventores não estão contando a suas empresas sobre suas descobertas; eles são os ciborgues secretos, humanos aprimorados por máquinas que se mantêm escondidos.
Mollick sustentou que as formas tradicionais pelas quais as organizações respondem às novas tecnologias não funcionam bem para a IA e que a única maneira de uma organização se beneficiar da IA é obter a ajuda de seus “ciborgues” enquanto incentiva mais trabalhadores a usar a IA.
Isso exigirá uma grande mudança na forma como as organizações operam, afirmou Mollick. Essas mudanças incluem encurralar o máximo possível da organização na agenda da IA, diminuir os medos associados ao uso da IA e fornecer incentivos para que os usuários da IA se apresentem e incentivem outros a usar a IA.
As empresas também precisam agir rapidamente em algumas questões básicas, acrescentou Mollick. O que você faz com os ganhos de produtividade que pode alcançar? Como você reorganiza o trabalho e mata processos tornados vazios ou inúteis pela IA? Como você gerencia e controla o trabalho que pode incluir riscos de alucinação causada por IA e possíveis problemas de propriedade intelectual?
Atrapalhou os Negócios
Por mais benéfico que seja tirar a IA das sombras, pode ser muito prejudicial para uma organização.
“A IA pode ter um impacto positivo de 30% a 80% no desempenho. De repente, um funcionário marginal com IA generativa se torna uma superestrela”, observou Rob Enderle, presidente e principal analista da Grupo Enderleuma empresa de serviços de consultoria em Bend, Ore.
“Se a IA generativa não for divulgada, pode levantar questões sobre se um funcionário está trapaceando ou se estava relaxando antes”, disse ele ao TechNewsWorld.
“A parte do sigilo não é tão perturbadora quanto potencialmente problemática tanto para o gerente quanto para o funcionário, especialmente se a empresa ainda não definiu uma política de uso e divulgação de IA”, acrescentou Enderle.
O uso de IA pode gerar uma visão irreal do conhecimento ou capacidade de um funcionário, o que pode levar a expectativas perigosas no futuro, disse Shawn Surber, diretor sênior de gerenciamento técnico de contas da tânioum provedor de gerenciamento de endpoint convergente, em Kirkland, Washington.
Ele citou o exemplo de um funcionário que usa uma IA para escrever um extenso relatório sobre um assunto no qual não tem conhecimento profundo. “A organização pode vê-los como especialistas, mas, na verdade, eles apenas usaram uma IA para escrever um único relatório”, disse ele ao TechNewsWorld.
Também podem surgir problemas se um funcionário estiver usando IA para produzir código ou documentação de processo que alimenta diretamente os sistemas de uma organização, acrescentou Surber. “IAs de modelo de linguagem grande são ótimas para gerar quantidades volumosas de informações, mas se não forem verificadas com cuidado, podem criar problemas de sistema ou até mesmo problemas legais para a organização”, explicou.
Uso irracional de IA
A IA, quando bem usada, dará aos trabalhadores um aumento de produtividade que não é inerentemente perturbador”, afirmou John Bambenek, principal caçador de ameaças da Netenrichuma empresa de operações de TI e segurança digital em San Jose, Califórnia.
“É o uso irracional da IA que pode ser prejudicial para os trabalhadores, simplesmente não revisando o resultado dessas ferramentas e filtrando respostas sem sentido”, disse ele ao TechNewsWorld.
Compreender a lógica por trás dos resultados de IA generativa geralmente requer conhecimento especializado, acrescentou Craig Jones, vice-presidente de operações de segurança da continuarum provedor gerenciado de detecção e resposta em Redwood City, Califórnia.
“Se as decisões forem guiadas cegamente por esses resultados, isso pode levar a estratégias equivocadas, vieses ou iniciativas ineficazes”, disse ele ao TechNewsWorld.
Jones afirmou que o uso clandestino da IA poderia cultivar um ambiente de inconsistência e imprevisibilidade dentro de uma organização. “Por exemplo”, disse ele. “se um indivíduo ou uma equipe aproveitar a IA para otimizar tarefas ou aumentar a análise de dados, seu desempenho pode ofuscar significativamente aqueles que não empregam recursos semelhantes, criando resultados de desempenho desiguais”.
Além disso, ele continuou, a IA utilizada sem consciência gerencial pode levantar sérios dilemas éticos e legais, principalmente em setores como recursos humanos ou finanças. “Aplicativos de IA não regulamentados podem inadvertidamente perpetuar preconceitos ou infringir requisitos regulatórios.”
Banir a IA não é uma solução
Por mais perturbadora que a IA possa ser, proibir seu uso pelos trabalhadores provavelmente não é o melhor curso de ação. Como “a IA fornece um aumento de 30% a 80% na produtividade”, reiterou Enderle, “banir a ferramenta, na verdade, tornaria a empresa incapaz de competir com seus pares que estão adotando e usando a tecnologia adequadamente”.
“É uma ferramenta poderosa”, acrescentou. “Ignora isso a teu risco.”
Uma proibição total pode não ser o caminho certo a seguir, mas definir diretrizes para o que e o que não pode ser feito com IA pública é apropriado, observou Jack E. Gold, fundador e principal analista da J. Gold Associates, uma empresa de consultoria de TI. , em Northborough, Massachusetts.
“Fizemos uma pesquisa com usuários corporativos perguntando se suas empresas tinham uma política sobre o uso de IA pública e 75% das empresas disseram que não”, disse ele ao TechNewsWorld.
“Portanto, a primeira coisa que você deve fazer se estiver preocupado com o vazamento de suas informações é definir uma política”, disse ele. “Você não pode gritar com as pessoas por não seguirem a política se não houver uma.”
O vazamento de dados pode ser um risco de segurança considerável ao usar aplicativos generativos de IA. “Muitos dos riscos de segurança da IA vêm das informações que as pessoas colocam nela”, explicou Erich Kron, defensor da conscientização de segurança da KnowBe4um provedor de treinamento de conscientização de segurança em Clearwater, Flórida.
“É importante entender que as informações estão sendo carregadas para esses terceiros e processadas por meio da IA”, disse ele ao TechNewsWorld. “Isso pode ser um problema significativo se as pessoas não estiverem pensando em informações confidenciais, PII ou propriedade intelectual que estão fornecendo à IA.”
Em seu blog, Mollick observou que a IA está aqui e já está causando impacto em muitos setores e campos. “Portanto, prepare-se para conhecer seus ciborgues”, escreveu ele, “e comece a trabalhar com eles para criar uma organização nova e melhor para nossa era assombrada pela IA”.