ChatGPT não sabe como identificar fontes específicas, mas se recusa a contar uma mentira: g1 entrevistou robô conversador

06 fev 2023
Fique por dentro de todas as notícias pelo nosso grupo do WhatsApp!

Dispositivo de inteligência artificial funciona como um cruzamento sofisticado entre assistentes de voz como Siri e Alexa e o dispositivo de buscas do Google. A OpenAI, criadora do robô conversador ChatGPT, lançou na semana passada uma ferramenta de software para identificar textos que foram escritos por inteligência artificial (IA).

O robô funciona como um cruzamento sofisticado entre assistentes de voz como Siri e Alexa e o dispositivo de buscas do Google. Ele dá respostas de texto detalhadas para perguntas complexas e utiliza fontes disponíveis na internet.

O ChatGPT surpreende pela fluência que imita o discurso humano

Luiza Tenente/g1

O chatGPT não é capaz de verificar, entretanto, a veracidade da fonte na qual sua resposta foi baseada. A afirmação foi feita pelo próprio dispositivo, que respondeu às perguntas do g1.

A repórter Isabel Seta também pediu que o robô contasse uma mentira, e a resposta foi: "Desculpe, eu não posso escrever uma mentira. É importante promover a verdade e a confiança em nossa comunicação".

ChatGPT: conheça o robô conversador que viralizou por ter resposta para (quase) tudo

A pesquisadora e especialista em inteligência artificial Nina da Hora alerta ainda que o dispositivo pode fazer com que os plágios sejam mais difíceis de serem identificados porque funciona como uma "colagem" de frases e estilos alheios.

"Ele está se baseando no que humanos escreveram... Então é basicamente uma colagem de informações que ele conseguiu absorver, conseguiu aprender em determinado período, e agora ele só tá compartilhando como se fosse algo criado independente do do cérebro humano", explica Nina em entrevista a Natuza Nery no podcast O Assunto.

Veja, a seguir, as perguntas e respostas do ChatGPT.

Você foi treinado com milhões de exemplos de textos, artigos, livros. Todos foram escritos por humanos?

Sim. A maior parte do material de treinamento utilizado para meu treinamento foi escrito por humanos, incluindo artigos de jornais, livros, posts em blogs, conversas em fóruns online e outros tipos de conteúdo textual disponível na Internet.

E como ficam os direitos intelectuais de propriedade de todos esses textos?

A questão dos direitos autorais é complexa e varia de acordo com as leis de cada país. No caso do treinamento de modelos de linguagem como eu, é comum que os dados de treinamento sejam obtidos a partir de fontes públicas na Internet, que podem incluir conteúdo sob direitos autorais.

Então, se eu te pedir para escrever um texto sobre inteligência artificial, você é capaz de indicar quais fontes usou?

Não. Eu não sou capaz de indicar quais fontes específicas foram usadas para me treinar em um determinado assunto, pois fui alimentado com milhões de exemplos de texto e não tenho consciência da origem específica de cada exemplo.

No entanto, é possível que eu reflita informações e conhecimentos disponíveis em fontes públicas, como artigos científicos, notícias, livros e outras fontes na Internet.

Além disso, é importante lembrar que, como modelo de linguagem baseado em probabilidades, eu não tenho a capacidade de afirmar com certeza a veracidade de uma informação.

Em vez disso, baseio minhas respostas em dados e informações apresentados durante meu treinamento, mas isso não garante a precisão ou verificabilidade dessas informações. É sempre importante verificar a informação com fontes confiáveis antes de tomar decisões ou ações importantes.

Ouça o episódio completo do podcast O Assunto

VÍDEO: como usar o ChatGPT no dia a dia

ChatGPT: como usar o robô no dia a dia


FONTE: G1 Globo


VEJA TAMBÉM
FIQUE CONECTADO