ChatGPT: até onde vai a Inteligência Artificial na produção de conteúdos?

Por: Jussara Loguercio / Idee Informação Corporativa

Foto: Shutterstock

As notícias do ChatGPT e suas habilidades com textos e bate-papos têm ganhado destaque na mídia nas últimas semanas. Com mais de 100 milhões de usuários ativos mensais em pouco mais de 2 meses após o lançamento, o robô virtual já é amado por muitos e temido por outros.

Até onde vai a capacidade dessa e de outras inteligências artificiais similares, não há como dizer (especular, talvez). Mas o que ferramentas tecnológicas já são capazes de fazer, sim.

Antes de falar sobre o universo de tarefas possíveis da Inteligência Artificial quanto ao tema “produção de conteúdo”, vamos relembrar a recente – e meteórica – história do ChatGPT. Lançado em 30 de novembro de 2022 pela OpenAI, já é o aplicativo de consumo com crescimento de usuários mais rápido da história. Ele está disponível em mais de 100 línguas (incluindo o Português do Brasil). 

O que ele faz? Bem, resumidamente, ele gera conteúdo sobre qualquer assunto. É capaz de responder às mais variadas perguntas (inclusive dá conselhos sobre problemas pessoais), realizar tarefas por escrito e conversar de maneira fluida. 

Recentemente, em um experimento realizado pelo Google, o ChatGPT teria sido aprovado em uma vaga de emprego para engenheiro de software nível 3, com um salário de US$ 183 mil ao ano. 

Além de dar dicas de como conseguir um emprego (contém ironia), o robô pode, ainda, te ensinar a preparar qualquer receita culinária (com dicas peculiares, se você solicitar) e escrever textos dos mais variados tipos, sejam eles literários, acadêmicos e até mesmo jurídicos. Quer um poema? Uma procuração? Sim, o ChatGPT te entrega.

Até onde vai a IA na produção de conteúdos, parte 2

Não há dúvida de que o surgimento do ChatGPT, assim como outras IAs semelhantes, é um caminho sem volta. Nas palavras de Bill Gates, a chegada desse robô virtual pode ser considerada tão importante quanto a evolução dos computadores pessoais ou a internet. 

A ferramenta vai impactar rotinas de empresas e a forma como as pessoas trabalham. Isso é fato. Contudo, ainda serão necessários muitos testes – e tempo – para compreender os efeitos e as consequências desse tipo de inteligência artificial quando estiver disponível em larga escala na sociedade.

Enquanto isso, alguns pontos estão sendo observados e questionados por estudiosos e profissionais da área de tecnologia. O primeiro deles é sobre algo inerente ao ser humano: a capacidade de sentir e expressar emoções. Um robô não tem a mesma sensibilidade e empatia do ser humano, logo, seus textos não conseguem transmitir emoções. No caso do emprego que a IA conquistou no Google, por exemplo, somente a parte técnica foi avaliada. A etapa das perguntas pessoais e comportamentais não foi realizada e foi destacada como uma barreira para “contratar” o ChatGPT. 

A criatividade também entra nesse pacote. Ao ser perguntada sobre isso na entrevista do Google, a própria IA teria respondido que não é capaz de executar a parte criativa da tarefa de programação, mas que pode auxiliar proporcionando mais eficiência ao processo.

Outro fator relevante é que ferramentas como esta podem contribuir para a produção e disseminação acelerada de uma infinidade de informações distorcidas ou até mesmo mentirosas e preconceituosas, alterando nosso senso de realidade. Até aí nenhuma novidade, já que o próprio ser humano faz isso hoje através das fake news. Só que no caso de tecnologias que são construídas e treinadas a partir de informações diversas, encontradas na internet ou produzidas especialmente para esse fim, esse processo pode ser acelerado exponencialmente. 

Robôs não distinguem o que é verdadeiro ou falso, bondoso ou malicioso, a não ser que seja “ensinado” sobre isso. O que leva os modelos de IA, se mal programados, a lançar na web e para a sociedade textos mesclando todo tipo de conteúdo com o qual “aprenderam”. E, quando os modelos mais complexos estiverem sendo construídos, eles serão alimentados por conteúdos que podem ter sido publicados pela linhagem anterior de sua própria tecnologia.  

É um ciclo sem fim, onde a IA se alimenta do que ela mesma produziu e de conteúdos por vezes inverídicos (ou vindos de pessoas maliciosas), entregando resultados cada vez mais contaminados. Ou seja, será cada vez mais difícil que robôs virtuais como o ChatGPT sejam “treinados” com dados de boa qualidade, livres de materiais incorporados por informações produzidas por eles mesmos. 

Outra preocupação é o plágio, uma vez que a IA pode escrever sobre qualquer assunto, inclusive artigos científicos e acadêmicos, se baseando em ideias de outras pessoas sem dar o devido crédito. Escolas de Nova York, nos EUA, já proibiram o uso do ChatGPT, uma vez que ele pode “facilitar” lições de casa, fazendo trabalhos e dando respostas que os estudantes deveriam pesquisar e entender (aprender) para depois escrever. O uso ilimitado desse tipo de ferramenta pode gerar, a longo prazo, prejuízos estruturais no desempenho cognitivo e no aprendizado humano.

A questão da responsabilidade na autoria dos conteúdos é outro tema que vem à tona. No início de 2023, a revista Nature criou diretrizes para que nenhum programa de IA possa ser creditado como autor ou coautor de artigos científicos por ela publicados. A justificativa é que, ao atribuir autoria, é necessário também assumir a responsabilidade pelas informações, o que não pode ser aplicado a esse tipo de ferramenta.

IA controlando IA

A OpenAI anunciou que vem trabalhando na criação de uma espécie de “marca d’água eletrônica”, que possibilitaria a identificação de textos produzidos pelo ChatGPT.

Há também alguns algoritmos que já identificam com boa precisão a probabilidade de um texto ter sido produzido por um robô. A tendência é que eles sejam cada vez mais precisos.

Entre soluções e ameaças, a inteligência artificial já é utilizada, e muito útil, em diversas áreas que exigem grandes análises de dados em pouco tempo, como encontrar padrões e emitir diagnósticos rápidos, que depois serão verificados por humanos, por exemplo. 

Mas nas tarefas que envolvem uma combinação que vai além de palavras e dados, em áreas que exigem transmissão de emoções e ideias originais, a IA ainda está engatinhando. O que nos leva a crer que um dia ela possa caminhar e, possivelmente, correr. Até lá, que possamos usar nossos sentimentos e criatividade para usufruir da tecnologia a nosso favor e fazer aquilo que ela ainda não faz.