O uso de chatbots de inteligência artificial, como o ChatGPT, tornou-se uma prática comum para milhões de pessoas ao redor do mundo. No entanto, a interação com essas ferramentas deve ser feita com cautela, especialmente no que diz respeito à privacidade e segurança dos dados. A OpenAI, criadora do ChatGPT, alerta que qualquer informação inserida pode ser utilizada para treinar modelos ou ser revisada por humanos, o que levanta preocupações sobre a confidencialidade dos dados.
Considerando que os dados enviados para serviços em nuvem são tão seguros quanto a proteção oferecida pelo provedor, é crucial entender quais informações devem ser evitadas ao interagir com chatbots. A seguir, são discutidos alguns tipos de dados que não devem ser compartilhados.
Quais informações são consideradas sensíveis?
Informações sensíveis incluem dados que, se divulgados, podem comprometer a segurança ou a privacidade de uma pessoa ou organização. Entre esses dados estão logins, senhas, informações financeiras e confidenciais. Compartilhar tais informações com chatbots pode resultar em consequências indesejadas, como violações de privacidade ou uso indevido dos dados.
Além disso, dados confidenciais de empresas, como documentos internos ou segredos comerciais, devem ser protegidos. A divulgação inadvertida desses dados pode levar a problemas legais e danos à reputação da empresa.

Por que evitar pedidos ilegais ou antiéticos?
Chatbots de IA são programados para identificar e bloquear solicitações que envolvam atividades ilegais ou antiéticas. Pedidos que incentivem a prática de crimes ou fraudes podem resultar em ações legais contra o usuário. Além disso, as leis variam de acordo com a localização, e algumas jurisdições possuem regulamentações rigorosas sobre o uso de IA para fins ilícitos.
É importante lembrar que, além das implicações legais, fazer pedidos antiéticos a um chatbot pode levar a consequências morais e sociais negativas.
Como proteger informações financeiras?
Dados financeiros, como números de contas bancárias e cartões de crédito, devem ser inseridos apenas em sistemas seguros, que utilizam criptografia e outras medidas de proteção. Chatbots não oferecem garantias de segurança adequadas para o manuseio dessas informações, tornando arriscado o compartilhamento de dados financeiros com essas ferramentas.
O cuidado com informações financeiras é essencial para evitar fraudes e garantir a segurança das transações.
Quais são os riscos de compartilhar informações médicas?
Embora possa ser tentador usar chatbots para obter conselhos médicos, é importante lembrar que essas ferramentas não são substitutos para profissionais de saúde qualificados. Além disso, compartilhar informações médicas pode comprometer a privacidade do paciente, especialmente em empresas de saúde que lidam com dados sensíveis.
O manuseio inadequado de informações médicas pode resultar em multas e danos à reputação, além de comprometer a confiança dos pacientes nos serviços de saúde.
Como garantir a segurança ao usar chatbots?
Para garantir a segurança ao interagir com chatbots, é fundamental seguir algumas diretrizes básicas:
- Evitar compartilhar informações pessoais sensíveis.
- Não fazer pedidos ilegais ou antiéticos.
- Utilizar sistemas seguros para transações financeiras.
- Consultar profissionais qualificados para questões médicas.
Em resumo, é importante tratar qualquer dado inserido em chatbots como informação pública e agir com cautela para proteger a privacidade e a segurança dos dados.