OpenAI, criadora do ChatGPT, Quantos dos 800 milhões estimados recentemente Os usuários têm conversas emocionalmente seguras com o chatbot todas as semanas. Com um valor cada vez mais pequeno de 0,15 por cento, este número parece enganosamente pequeno.
Mas a matemática conta uma história diferente: uma faixa de 800 milhões de pessoas ainda significa 1,2 milhões de pessoas. A forma como esses usuários conversam com o ChatGPT provavelmente aumenta sua solidão e dependência emocional da tecnologia e reduz sua capacidade de socializar com outras pessoas.
Embora a OpenAI diga que seu modelo padrão é Atualizado para evitar dependência excessiva ChatGPT está pronto para responder a quase qualquer pergunta que um usuário possa fazer, incentivando-os a valorizar a conexão do mundo real.
Para muitos, permanece a tentação de recorrer constantemente ao ChatGPT (ou qualquer outro chatbot) e, para alguns, isso pode levar a uma dependência excessiva prejudicial. Este risco é real: a OpenAI foi processada por vários demandantes cujos filhos adolescentes ou entes queridos adultos morreram por suicídio ou sofreram doenças mentais graves durante ou após o uso intenso do ChatGPT. As reclamações alegam que o design e a falta de proteção do ChatGPT levaram à tragédia em cada caso.
Especialistas em IA entrevistados pelo Mashable dizem que evitar a armadilha do vício significa adotar limites claros e manter o conhecimento sobre a própria tecnologia.
Com uma compreensão clara do que são e do que não são modelos de linguagem ampla, as pessoas podem usar um chatbot produtivo de forma inteligente, especialmente de uma forma que preserve o seu pensamento crítico e habilidades de reflexão únicas, diz o professor de meditação e fundador da tecnologia Jay Vidyarthi.
“Muitas vezes esquecemos que é possível ter um relacionamento seguro com a sua tecnologia, e acho que também é possível ter um relacionamento seguro com um chatbot”, afirma o autor Vidyarthi. Recupere sua mente: sete estratégias para aproveitar a tecnologia com atenção.
Aqui estão cinco estratégias para tornar isso uma realidade:
1. Compreenda realmente a tecnologia de chatbot de IA.
Um chatbot de IA avançado que reflete as emoções e pensamentos do usuário não responde, mas dado o design do produto pode ser fácil para algumas pessoas acreditarem no contrário. Um usuário que se sente assim pode começar a ver o ChatGPT não como um tipo de relacionamento parassocial, mas como o equivalente a um amigo humano, parceiro romântico, companheiro ou confidente. Essa dinâmica complicada pode levar ao uso problemático ou ao vício.
Vidyarthi incentiva as pessoas a verem o chatbot de IA como um “mecanismo de previsão que é rigorosamente treinado para fornecer exatamente o que você deseja” fundamentalmente imprevisível.
Esse enquadramento pode parecer um paradoxo, mas chatbots altamente confiáveis e envolventes funcionam prevendo a próxima letra, palavra ou sequência de palavras em uma frase para simular uma conversa.
Ao mesmo tempo, os chatbots podem fazer referências estranhas e até alucinar mentiras que apresentam como factos. Isso acontece principalmente quando uma conversa demora mais ou o chatbot precisa responder a uma pergunta que não tem resposta. Os chatbots são frequentemente programados para adivinhar uma resposta, o que pode torná-los surpreendentemente imprevisíveis.
As pessoas que entendem as limitações da tecnologia de chatbot de IA podem ter menos probabilidade de confiar neles e fazê-los passar por humanos, tornando-os menos suscetíveis ao uso problemático ou ao vício.
Relatório de tendências do Mashable
2. Em vez de pensar em tarefas, terceirize-as para a inteligência artificial.
Sol Rashidi, diretor de estratégia de dados e IA da empresa de segurança de dados Cyera, usa a tecnologia de IA em sua vida diária.
Mas Rashidi, que deu uma palestra no TEDx sobre inteligência artificial no início deste ano, disse:atrofia intelectual,“Ele tem regras rígidas sobre quando e como usar a IA. Em vez de deixar seu pensamento para os chatbots, ele usa a IA para tarefas “chatas” e “difíceis”.
Por exemplo, Rashidi usa um chatbot para coisas práticas, como listar ingredientes em sua geladeira para planejar o jantar sem ir a outro supermercado ou planejar a logística de uma festa de aniversário em minutos.
No trabalho, ele inserirá suas próprias estruturas e modelos com base em seus anos de experiência e usará IA para transformar esse conteúdo em vídeos curtos ou explicadores simplificados.
“Eu não uso isso para pensar por mim mesmo”, diz ele sobre IA. “Eu o uso para acelerar ou facilitar algo que preciso fazer, mas não tenho tempo.”
3. Forme primeiro a sua própria opinião
Para muitas pessoas, o ChatGPT é atraente porque oferece feedback instantâneo e validador. Por que enviar uma mensagem para um amigo sobre o que vestir para uma festa ou se você pode ir a um segundo encontro quando o ChatGPT estiver pronto para responder às mesmas perguntas? Por que não enviar um e-mail pessoal via ChatGPT ou fazer com que o chatbot o escreva inicialmente?
Especialista em inteligência artificial Dr. D., cientista pesquisador e professor sênior da MIT Sloan School of Management. Renée Richardson Gosline alerta contra cair nessa dinâmica com um chatbot.
Primeiro, diz ele, é importante que as pessoas formem suas próprias opiniões antes de pedir a um chatbot que as forneça. Ele argumenta que pular rotineiramente esta primeira etapa cria uma desconexão cognitiva prejudicial e dificulta o envolvimento de habilidades de pensamento crítico.
“Acho que esse tipo de músculo, onde você flexiona deliberadamente, é muito importante”, diz Gosline.
4. Procure atrito, não validação.
Gosline acredita que é igualmente importante que as pessoas encontrem a quantidade certa de atrito. Quando alguém recorre constantemente ao ChatGPT em busca de conselhos ou em busca de apoio e companheirismo, muitas vezes perde oportunidades de interagir com outras pessoas de maneira útil.
Gosline diz que o dar e receber ou o atrito nas relações humanas oferece algo que os chatbots não podem: uma vida mais rica e gratificante.
Quando um chatbot não tem atrito, como o famoso modelo bajulador ChatGPT-4o, ele pode fazer com que algumas pessoas se retirem de experiências mais difíceis ou menos validadas. Gosline compara a dinâmica a um slide. O passeio pode ser divertido, mas sem grades de proteção pode terminar em um pouso forçado.
5. Fique presente ao conversar com um chatbot de IA.
Para encontrar o equilíbrio, Gosline recomenda tentar permanecer no momento. Quando um usuário conversa com um chatbot como se estivesse no piloto automático, isso é um sinal de alerta de excesso de confiança ou dependência da qual ele pode não estar ciente.
Vidyarthi também usa uma abordagem de atenção plena que começa com a consciência. Isso pode incluir perceber respostas emocionais ao chatbot. Quando você é excessivamente encorajador e Por exemplo, reserve um tempo para pensar por que um chatbot gratuito produz esse resultado e as emoções que o desencadeiam.
Vidyarthi recomenda permanecer presente lembrando que o chatbot é uma “ilusão conceitual” que pode parecer humana quando o usuário interage com ele. Em vez disso, Vidyarthi trata os chatbots de IA como um diário inteligente. Pode fornecer oportunidades úteis para refletir e até apresentar ideias interessantes. No entanto, cabe ao usuário individual desenvolver uma perspectiva clara sobre exatamente com o que está interagindo e decidir o que tem ou não valor para ele e com que seriedade tratar o resultado.
Rashidi, um executivo de IA com 15 anos de experiência, viu os riscos do excesso de confiança acontecerem repetidamente, o que o ajudou a manter os pés no chão.
“Posso ver o que acontece quando você desenvolve codependência”, diz ele. “Você realmente para de pensar por si mesmo.”
Divulgação: A empresa controladora do Mashable, Ziff Davis, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de sistemas de IA.



