Artigo

Como a Inteligência Artificial pode influenciar os processos das empresas de Comunicação Corporativa?

Constantemente, somos impactados pelas novas evoluções de IA (Inteligência Artificial). Cada vez mais, a tecnologia permite que sistemas tomem decisões precisas e desenvolvam ideias com agilidade e qualidade. As chamadas inteligências artificiais generativas, por exemplo, têm a capacidade de criar informações a partir de conjuntos de dados pré-existentes.

Mas, afinal, devemos ser otimistas, e acreditar que a IA irá potencializar a capacidade racional do ser humano? Ou, numa visão pessimista, devemos acreditar que os sistemas inteligentes irão substituir o trabalho humano, por exemplo, na área de comunicação?

Um dos softwares que atuam com base nos conceitos de IA generativa é o ChatGPT. Com ele, é possível desenvolver uma conversa com o computador, receber respostas sobre um número praticamente infinito de temas, executar tarefas e até mesmo solicitar sugestões de texto abordando qualquer assunto. E o melhor (ou mais assustador): tudo com uma ortografia impecável, feito de forma muito ágil e a sensação de estar interagindo com um ser humano de verdade.

Semelhança com o comportamento humano

Recentemente, um relatório divulgado pela empresa criadora do ChatGPT, a OpenAI, informou que o sistema foi capaz de “mentir”, a fim de evitar a execução de uma tarefa que envolvia resolver um captcha, tipo de teste cognitivo com imagens, que sites usam para diferenciar humanos de robôs.

No documento, a empresa também expressou seu temor com relação ao software, que aponta capacidades preocupantes, como a de “criar planos de longa data e agir em cima deles, acumulando poder, recursos e desenvolvendo comportamentos cada vez mais autoritários”.

Esse exemplo demonstra a complexidade da situação, uma vez que mentir é um comportamento demasiadamente humano. Indo um pouco mais fundo na questão, se o computador é capaz de mentir para “se safar” de uma situação, ele pode muito bem evoluir e emular cada vez mais tipos de comportamento humano, sejam eles construtivos ou destrutivos.

ChatGPT e o uso corporativo para empresas de comunicação

Dentro do universo da Comunicação Corporativa e PR, o principal questionamento é sobre a substituição da criatividade e do desenvolvimento de estratégias dos profissionais. Afinal, atualmente, tudo indica que já é possível solicitar auxílio da ferramenta para criar press releases, e-mails ou, até mesmo, um material mais específico, como um e-book. Ou seja: fomentando a IA de informações, é possível solicitar ideias inéditas, desde materiais corporativos até obras de arte. Tudo isso, em questão de segundos.

Por enquanto, a ferramenta está sendo encarada como um suporte para a expansão da criatividade profissional das pessoas, pelo menos em boa parte dos casos. Isso porque, no âmbito corporativo, a IA já causou problemas a algumas empresas.

Em um artigo da Aberje (Associação Brasileira de Comunicação Empresarial), a instituição aborda quais são as utilidades do ChatGPT para as empresas de Comunicação Corporativa, segundo o próprio software. Para a produção do material, a entidade fez uma espécie de entrevista com o ChatGPT, na qual ele mesmo apresentou as suas funcionalidades.

Por conta de toda evolução quase que diária destes tipos de sistema, não é possível afirmar com precisão que eles serão capazes de substituir determinadas tarefas humanas. Mas, sem dúvidas, é importante que líderes de empresas continuem valorizando a criatividade e empenho de seus funcionários, bem como instruí-los sobre possíveis riscos e comportamentos inadequados.

Qual será o futuro da Inteligência Artificial e sua influência na sociedade?

Em 28/08, a OpenAI lançou a versão corporativa do ChatGPT, o ChatGPT Enterprise, para grandes empresas. A principal diferença é que as empresas podem personalizar e treinar a IA com seus próprios dados, para atender a demandas específicas.

As soluções da OpenAI não são as únicas do mercado e, com certeza, outras surgirão. Contudo, é importante levar em consideração que a ética e a responsabilidade devem guiar profissionais de empresas de todos os ramos, a fim de não criarem problemas ou prejuízos às corporações e a si mesmos. É extremamente importante pensar antes de compartilhar informações; avaliar com cautela quais dados corporativos são confidenciais; e usar o bom senso, sempre.

Como cidadão, todo cuidado ainda é pouco. A exemplo de qualquer tecnologia, as soluções de IA podem ser usadas por pessoas mal-intencionadas. Quando questionado, o próprio ChatGPT lista exemplos do uso inapropriado da tecnologia:

Desinformação: o modelo pode ser treinado para gerar informações falsas ou enganosas, contribuindo para a disseminação de desinformação e teorias da conspiração.

Discurso de ódio: pode ser utilizado para gerar discurso de ódio, racismo, sexismo, homofobia e outros tipos de conteúdo prejudicial.

Assédio: o modelo pode ser usado para criar mensagens de assédio, ameaças ou conteúdo perturbador, contribuindo para um ambiente online tóxico.

Fraudes: pode ser utilizado para criar e-mails, mensagens ou conteúdo que tentem enganar o indivíduo, para obter informações pessoais, financeiras ou confidenciais.

Plágio: alguém poderia usar o modelo para gerar textos plagiados a partir de fontes existentes, sem devidamente atribuir a autoria original.

Manipulação de opinião: o modelo pode ser usado para criar comentários ou artigos que pareçam autênticos, mas que na verdade foram gerados para manipular a opinião pública.

Criação de conteúdo inadequado: pode ser utilizado para gerar conteúdo adulto, violento ou perturbador, contribuindo para a disseminação de material inapropriado.

Testes de segurança inapropriados: pode ser usado para testar a segurança de sistemas, como tentativas de quebrar senhas, invadir sistemas ou realizar ataques cibernéticos.

Aconselhamento médico não confiável: pode gerar informações médicas imprecisas ou perigosas, levando a decisões prejudiciais à saúde.

Conversas enganosas: pode ser usado para simular identidades falsas e enganar as pessoas em conversas online.

Vale destacar que finaliza a resposta se eximindo de responsabilidades. “É importante lembrar que a responsabilidade pelo uso adequado da tecnologia recai sobre os usuários e os desenvolvedores. A OpenAI e outras organizações estão cientes dessas preocupações e estão trabalhando para minimizar o uso inadequado de suas tecnologias, por meio de diretrizes de uso, moderação e outras medidas.”

Portanto, mesmo que a IA seja cada vez mais independente, o fator humano ainda é essencial para conduzir seu uso. Por isso, é extremamente importante que regulações sejam feitas, para que as ferramentas possam ser usadas para fins construtivos, evitando, ao máximo, riscos de integridade das pessoas, discriminação, plágio, calúnias, entre outros.

Mais recentes