banner
Centro de notícias
Acompanhamento pós-venda confiável

O impacto do ChatGPT na força de trabalho federal

Dec 13, 2023

As agências federais procuram constantemente soluções inovadoras e seguras para melhorar as suas operações e servir melhor os constituintes. Uma das tecnologias que chamou a atenção na última década é a inteligência artificial.

Com o recente impulso do Large Language Model e do Transformer AI, a força de trabalho federal ficou encantada com o potencial da IA ​​e como ela pode capacitá-los para cumprir com eficácia as missões da agência.

Uma ferramenta LLM popular é o ChatGPT. Os legisladores já estão a utilizar o ChatGPT para ajudar a escrever discursos, e as agências começaram a investigar os inúmeros outros benefícios da implementação da tecnologia nos processos existentes, incluindo ajudar os funcionários na comunicação, agilizar os fluxos de trabalho e aumentar o acesso dos funcionários à informação.

Em meio ao entusiasmo, há preocupações de que o ChatGPT e outras ferramentas LLM possam eliminar empregos, fornecer informações imprecisas e perpetuar preconceitos. Embora alguns temores possam ser infundados, é crucial que as agências federais considerem todos os impactos potenciais que uma implementação em grande escala do ChatGPT pode ter sobre a força de trabalho e as partes interessadas da agência.

Fazer isso requer um entendimento completo de onde o ChatGPT pode ajudar a atender a força de trabalho federal e, mais importante, onde não pode.

Tradicionalmente, a IA auxilia os funcionários do governo nos processos internos, auxiliando nas centrais de atendimento, simplificando decisões, automatizando tarefas repetitivas e muito mais. Embora o ChatGPT possa cumprir essas funções tradicionais, seu grande modelo de linguagem também permite uma nova dimensão de recursos.

A tecnologia pode fornecer à força de trabalho federal oportunidades aprimoradas de treinamento e desenvolvimento profissional, criando cursos on-line, tutoriais e outros recursos educacionais que os funcionários federais podem acessar a qualquer momento. Alternativamente, poderia melhorar o acesso dos funcionários a informações sobre políticas, procedimentos, regulamentos e dados e estatísticas relevantes para o trabalho.

ChatGPT também tem potencial para ajudar na resolução de desafios bem documentados em todo o governo. Por exemplo, pode ajudar a agilizar o complexo processo de aquisição federal, redigindo um contrato governamental que os funcionários podem editar em vez de criar do zero. As aplicações potenciais não são perdidas pelas agências, uma vez que o Departamento de Defesa já está no processo de criação de uma solução semelhante de redação de contratos baseada em IA, conhecida como “AcqBot”, para acelerar os fluxos de trabalho.

Além do mais, os aplicativos do ChatGPT podem ser facilmente adaptados às necessidades específicas da agência. O IRS poderia usar o ChatGPT para automatizar o processo de categorização de formulários fiscais recebidos e encaminhá-los ao departamento apropriado para processamento, enquanto o DoD poderia usá-lo para gerar automaticamente relatórios sobre manutenção de equipamentos, agilizando o agendamento de reparos.

As aplicações do ChatGPT são limitadas apenas pela imaginação, criatividade e nível de impacto desejado. No entanto, os efeitos não são todos positivos, e confiar demais no ChatGPT pode trazer riscos significativos para uma organização sem as proteções adequadas. Por exemplo, membros certificados da comunidade de hackers éticos provaram maneiras de desbloquear inúmeras ferramentas baseadas em LLM e Transformer, como ChatGPT, e induzi-los a inserir preconceitos nas respostas, violar políticas éticas, criar código para ataques distribuídos de negação de serviço e muito mais.

O ChatGPT também pode ocasionalmente fornecer respostas ou extrair informações de fontes que não existem para fornecer uma resposta imediata. Isso acontece porque o ChatGPT usa suposições baseadas em probabilidade com base nas informações disponíveis para gerar suas respostas.

Portanto, embora os dados originais extraídos possam ser precisos, compactar e ajustar os dados para responder ao prompt único pode gerar a afirmação mais provável em vez de uma afirmação precisa, resultando, às vezes, em fontes inteiramente inventadas. No caso de um erro, não reconhecerá o seu erro, mas reafirmará a sua resposta. Isso pode levar a possíveis interpretações errôneas por parte dos funcionários federais que dependem da ferramenta para obter informações sobre benefícios ou erros de formatação em contratos elaborados com ela.