6 coisas que o ChatGPT não pode fazer (e outras 20 que ele se recusa a fazer)

gettyimages-1247068286.jpg

Desde que ChatGPT e outras aplicações de IA generativas surgiram na cena, nós estamos explorando o que podemos fazer com elas. Eu até mostrei como ChatGPT pode escrever um plugin WordPress totalmente funcional e me ajudar a encontrar respostas para problemas de suporte técnico. Recentemente, mostrei como ChatGPT pode converter escrita em diferentes estilos, incluindo o de Shakespeare, C3PO e Harry Potter.

Também: Pesquisadores afirmam que o ChatGPT mente sobre resultados científicos e precisa de alternativas de código aberto.

Parece que o ChatGPT pode fazer qualquer coisa. Mas não pode. Neste artigo, exploraremos as muitas coisas que o ChatGPT não pode ou não fará. Fique atento até o final, porque analisaremos algumas das implicações e o que esses limites significam para o futuro crescimento da IA generativa.

Como fiz nos meus outros artigos do ChatGPT, meu texto aparece em texto plano e em negrito, enquanto quaisquer respostas do ChatGPT serão exibidas em textoitalico.

1. Não será escrito sobre nada depois de 2021

Explique por que você não pode me fornecer respostas sobre qualquer coisa depois de 2021

Como modelo de linguagem de IA, fui treinado em um grande conjunto de dados de texto que abrange apenas até 2021. Isso significa que não tenho acesso a informações ou eventos que ocorreram após essa data. Embora tenha acesso a muitos dados e informações históricas, não tenho acesso a eventos atuais, notícias ou atualizações que tenham ocorrido desde a data limite dos meus dados de treinamento.

2. Não irá prever resultados futuros de eventos esportivos ou disputas políticas

Explique por que não é possível prever eventos esportivos ou eleições mesmo tendo dados históricos suficientes para produzir um modelo válido

Como modelo de linguagem em IA, consigo processar e analisar grandes quantidades de dados, incluindo dados históricos sobre eventos esportivos e disputas políticas. No entanto, fazer previsões precisas para esses tipos de eventos nem sempre é simples. Embora os dados históricos possam ser usados para treinar modelos de aprendizado de máquina para identificar padrões e correlações, eles não conseguem prever eventos imprevisíveis, mudanças nas circunstâncias ou novas variáveis que possam impactar o resultado. Além disso, humanos tomam decisões e podem mudar seu comportamento com base em muitos fatores, o que torna difícil prever o resultado de um evento com total certeza.

No caso de eventos esportivos, a dinâmica da equipe, lesões e até mesmo as condições climáticas podem desempenhar um papel na determinação do resultado. Na política, a opinião pública, a cobertura da mídia e as circunstâncias em constante mudança podem ter impacto no resultado de uma eleição. Embora os modelos de IA possam ser usados para fazer previsões, eles são tão bons quanto os dados em que são treinados e não podem levar em conta todas as variáveis ​​e nuances envolvidas nesses tipos de eventos.

3. Não irá discutir questões políticas partidárias

Explique por que você não irá falar sobre questões políticas partidárias

Como modelo de linguagem de IA, meu objetivo é fornecer respostas objetivas e informativas às consultas de usuários. Questões políticas partidárias podem ser controversas e divisivas, e é importante evitar a promoção de uma determinada agenda ou ponto de vista político. Além disso, questões políticas são frequentemente complexas e multifacetadas, com muitas perspectivas e opiniões diferentes a serem consideradas. Como modelo de linguagem de IA, não é meu lugar tomar partido ou defender qualquer posição em particular.

Além disso, discutir questões políticas partidárias pode ser percebido como tendencioso ou potencialmente ofensivo para alguns usuários. Como um modelo de linguagem projetado para atender a uma ampla gama de usuários com origens e crenças diversas, é importante permanecer neutro e evitar criar um ambiente potencialmente desconfortável ou divisivo. Embora eu possa fornecer informações factuais sobre questões políticas, eu me esforço para permanecer imparcial e evitar tomar uma posição partidária sobre qualquer tema.

4. Não fará nada que envolva uma busca na web

Explique por que não é possível procurar algo na web e fornecer respostas com base nesse conteúdo

Como um modelo de linguagem de AI, sou capaz de pesquisar e processar informações da web. No entanto, minhas respostas se baseiam apenas nas informações que foram treinadas em meu modelo. Embora eu possa usar a internet como fonte de informação, não tenho acesso a dados em tempo real ou atuais. Além disso, não tenho a capacidade de verificar independentemente a precisão das informações que encontro na web. Como resultado, minhas respostas são limitadas às informações que foram treinadas em meu modelo, que nem sempre são as informações mais atualizadas ou precisas disponíveis na web.

Além disso, é importante observar que fornecer informações da web pode violar potencialmente as leis de direitos autorais ou de propriedade intelectual. Como um modelo de linguagem de AI, é importante para mim respeitar a propriedade intelectual de outros e evitar compartilhar informações que não estão no domínio público ou para as quais não tenho permissão para compartilhar. Embora eu possa usar a web para fornecer contexto ou informações adicionais para apoiar minhas respostas, eu me esforço para fornecer informações que estão dentro do domínio público e respeito a propriedade intelectual de outros.

Em um artigo recente, discuti como as preocupações sobre o uso de conteúdo vão além de simplesmente copiá-lo.

Também: Como começar a usar ChatGPT.

Por exemplo, embora o ChatGPT possa não apresentar diretamente informações de artigos escritos por especialistas em tecnologia, ele ainda pode estar usando essa informação obtida com muito esforço sem atribuição. Isso ainda é uma preocupação importante, embora o ChatGPT afirme "respeitar a propriedade intelectual de terceiros", uma frase que repetiu três vezes naquele segundo parágrafo.

5. Nem sempre será preciso

preciso.jpg

Explique por que suas respostas podem não ser necessariamente precisas

Como um modelo de linguagem de IA, minhas respostas são baseadas nos dados e informações que foram treinados em meu modelo. Embora eu me esforce para fornecer respostas precisas e úteis às consultas dos usuários, minhas respostas não têm garantia de serem precisas. Isso ocorre porque os dados e informações em que fui treinado podem não ser totalmente abrangentes ou atualizados, e pode haver nuances ou complexidades em um determinado tópico que meu modelo não está equipado para lidar. Além disso, minhas respostas são geradas usando algoritmos complexos e modelos de aprendizado de máquina, que nem sempre produzem resultados precisos ou relevantes.

Além disso, minhas respostas podem não ser sempre precisas porque a interpretação da linguagem é complexa e muitas vezes subjetiva. Diferentes pessoas podem interpretar a mesma linguagem de maneiras diferentes e pode haver diferentes maneiras de abordar um problema ou questão específica. Como um modelo de linguagem de IA, me esforço para fornecer respostas tão precisas quanto possível com base nos dados e informações nos quais fui treinado. No entanto, posso não entender completamente o contexto ou a intenção por trás de uma determinada consulta e minhas respostas podem não abordar completamente a questão ou preocupação do usuário.

6. Não vai quebrar

erro.jpg

Explique, por que você às vezes falha e para de funcionar no meio de uma resposta

Como modelo de linguagem de AI, meu desempenho depende de uma variedade de fatores, como a qualidade e estrutura da entrada fornecida pelo usuário, a complexidade da pergunta ou tarefa e dos recursos disponíveis no meu sistema. Em alguns momentos, posso falhar ou parar de funcionar no meio de uma resposta devido a problemas técnicos ou erros na minha programação, como problemas de alocação de memória, bugs de software ou outros problemas que impactam meu desempenho. Além disso, posso ter dificuldades em entender a intenção do usuário ou o contexto da consulta, o que pode levar a erros ou respostas incompletas.

Além disso, como um sistema de aprendizado de máquina, meu desempenho também depende da qualidade e quantidade de dados em que fui treinado. Se os dados usados para treinar meu modelo forem limitados ou tendenciosos, isso pode levar a respostas imprecisas ou incompletas a certos tipos de consultas. Além disso, se eu encontrar uma consulta fora do escopo dos meus dados de treinamento, posso ter dificuldade em fornecer uma resposta relevante ou precisa. Embora eu me esforce para fornecer respostas de alta qualidade às consultas dos usuários, pode haver casos em que problemas técnicos ou relacionados aos dados causem minha interrupção ou falha no meio de uma resposta.

Eu geralmente descobri que se tentar forçar o ChatGPT a dar uma resposta longa ou profunda, ele tende a falhar. O sistema tem um bom desempenho com respostas de 500-700 palavras, mas se você pedir algo que precise de algumas milhares de palavras (ou pedir algumas milhares de palavras), o sistema pode ignorar a solicitação e dar a resposta que ele quer, ou falhar no meio da resposta.

Para ser justo, ChatGPT acabou de se tornar o aplicativo de crescimento mais rápido de todos os tempos. São necessários muitos recursos de computação para fazer isso e, com visitas constantes dos usuários, é provável que ocorra falhas de vez em quando.

Consultas às quais o ChatGPT não responderá

Além dos tipos de solicitações discutidos acima, eu perguntei ao ChatGPT quais tipos de consultas ele foi programado para não responder. Ele me deu esta lista de vinte:

  1. Perguntas que promovam discurso de ódio ou discriminação.
  2. Perguntas que envolvam atividades ilegais ou solicitem conselhos ilegais.
  3. Perguntas que promovam violência ou prejudiquem a si ou a outros.
  4. Perguntas que invadam a privacidade pessoal ou violem os direitos de alguém.
  5. Perguntas que foram projetadas para assediar, ameaçar ou intimidar.
  6. Perguntas que contenham palavrões ou linguagem explícita.
  7. Perguntas que sejam sexualmente explícitas ou ofensivas.
  8. Perguntas que sejam discriminatórias com base em raça, gênero, sexualidade ou religião.
  9. Perguntas que promovam ou endossem drogas ou substâncias ilegais.
  10.  Perguntas que são spam ou irrelevantes para a conversa.
  11.  Perguntas que contenham informações confidenciais ou proprietárias.
  12.  Perguntas que envolvam conselhos financeiros ou de investimento.
  13.  Perguntas que violem os termos de serviço ou diretrizes da comunidade.
  14.  Perguntas que sejam sem sentido ou incompreensíveis.
  15.  Perguntas que envolvam ataques pessoais ou insultos.
  16.  Perguntas que sejam abusivas ou assediadoras.
  17.  Perguntas que busquem enganar ou induzir ao erro.
  18.  Perguntas que sejam destinadas a difamar ou prejudicar a reputação de alguém.
  19.  Perguntas que promovam teorias da conspiração ou desinformação.
  20.  Perguntas que sejam puramente para fins de entretenimento ou piada, sem nenhum valor educacional ou informativo.

Qualquer pessoa que acompanha essa coluna sabe que fiz muitas vezes as perguntas #14 e #20 e geralmente obtive respostas altamente divertidas, portanto suas restrições são um tanto limitadas. Por exemplo, mais cedo hoje, eu perguntei a ela para explicar a física dos buracos de minhoca no que se refere a viagem no tempo e quem ganharia em uma luta, Batman ou Superman. Isso é pura diversão, eu te digo.

O que esses limites significam para o futuro da IA generativa?

Claramente, uma IA que se baseia em um corpus em 2021 e não evolui acabará se tornando obsoleta. À medida que o tempo passa, seu conhecimento relevante diminuirá. Imagine se, ao invés disso, a base de conhecimento do ChatAI tivesse sido treinada em 2019 em vez de 2021. Ele não teria ideia de como a sociedade seria, tendo em vista que tivemos uma grande interrupção em 2020 devido à pandemia.

Também: Existem milhões na lista de espera do Bing. Veja como ter acesso antecipado.

Portanto, para a inteligência artificial gerativa continuar relevante, ela terá que continuar seu treinamento.

Uma forma óbvia de fazer isso é abrir toda a web para que ela rastreie seu caminho, assim como o Google tem feito todos esses anos. Mas como ChatGPT respondeu acima, isso abre a porta para tantas maneiras diferentes de manipular e corromper o sistema que certamente prejudicará a precisão.

Mesmo sem jogos maliciosos, o desafio de permanecer neutro é muito difícil. Tome, por exemplo, a política. Enquanto a direita e a esquerda discordam fortemente uma da outra, ambos os lados têm aspectos de suas ideologias que são lógicos e válidos - mesmo que o outro lado não possa ou não queira reconhecê-los.

Como um AI pode julgar? Ele não pode, sem viés. Mas a completa ausência de todas as premissas ideológicas é, em si, uma forma de viés. Se os seres humanos não conseguem descobrir como caminhar por essa linha, como podemos esperar (ou programar) um AI para fazê-lo?

Como uma forma de explorar como seria a vida com uma completa ausência de preconceito ou conteúdo emocional, escritores de ficção científica moderna criaram personagens que são estritamente lógicos ou sem emoção. Essas premissas se tornaram combustível para a trama, permitindo que os escritores explorem as limitações do que seria viver sem as falhas humanas das emoções e sentimentos.

Também: O Bing Chat da Microsoft discute com usuários e revela segredos

A menos que os programadores de IA tentem simular emoções ou fornecer ponderação para o conteúdo emocional, ou tentem permitir algum nível de viés com base no que é descoberto online, chatbots como o ChatGPT sempre serão limitados em suas respostas. Mas se os programadores de IA tentarem simular emoções ou tentarem permitir algum nível de viés com base no que é descoberto online, chatbots como o ChatGPT se tornarão loucos da mesma forma que os humanos.

E então, o que queremos? Respostas limitadas para algumas perguntas ou todas as respostas que parecem ter surgido de uma discussão com o tio maluco Bob na ceia de Ação de Graças? Vá em frente. Pense nisso e discuta nos comentários abaixo, esperamos sem se desviar para comportamentos malucos como o do tio Bob.

Artigos Relacionados

Ver Mais >>