Cuidados ao Usar Inteligências Artificiais: Informações Que Você Não Deve Compartilhar
Com o crescimento da popularidade das inteligências artificiais (IAs), muitas pessoas têm recorrido a ferramentas como o ChatGPT para ajuda em tarefas do dia a dia, inclusive utilizando o chatbot como um “psicólogo virtual”. No entanto, é essencial estar ciente de quais informações não devem ser compartilhadas com essas IAs.
A Segurança dos Dados
Antes de tudo, é importante lembrar que a base de dados utilizada pela IA que você está interagindo é gerenciada por uma empresa. Assim, os sistemas de segurança nem sempre garantem que os dados estarão livres de vazamentos.
Suas informações pessoais podem ser utilizadas por criminosos para vários fins, desde o roubo de dinheiro até empréstimos fraudulentos em seu nome. Com isso em mente, a CNN destaca sete informações que você não deve compartilhar com IAs:
1. Dados Pessoais
Jamais divulgue seu nome completo, data de nascimento, números de documentos ou qualquer outra informação pessoal. O vazamento desses dados pode resultar em fraudes graves.
2. Contatos e E-mails
Números de telefone e endereços de e-mail também devem ser omitidos nas conversas com chatbots. Mesmo que esses chatbots não armazenem essas informações especificamente, elas ainda podem ser vulneráveis a vazamentos.
3. Senhas e Logins
Evite usar IAs para armazenar logins e senhas. Esses dados devem ser memorizados ou armazenados em um ambiente digital seguro, como um gerenciador de senhas. Além disso, nunca compartilhe senhas com pessoas não confiáveis.
4. Informações Empresariais
Se você trabalha em um ambiente que lida com informações confidenciais, é crucial não inserir dados internos do seu emprego no ChatGPT ou em qualquer outra IA. Conteúdos sigilosos devem permanecer restritos à sua equipe.
5. Propriedade Intelectual
Dados relacionados à propriedade intelectual também devem ser mantidos em sigilo. O compartilhamento com chatbots pode acarretar sérias consequências legais, incluindo penalidades e até prisão.
Um exemplo recente envolve um funcionário da Samsung que vazou inadvertidamente informações sensíveis ao usar o ChatGPT, resultando em sua demissão.
6. Documentos Sensíveis
Nunca envie documentos pessoais ou arquivos com informações confidenciais, como dados bancários, números de cartão de crédito e senhas, para IAs. O uso indevido desses dados é uma das principais causas de crimes digitais.
7. Informações Pessoais e Emocionais
Atualmente, algumas IAs estão sendo projetadas para atuar como “amigos” ou “psicólogos”, mas especialistas alertam que essa prática é arriscada. Evite compartilhar sentimentos profundos ou questões emocionais, uma vez que as IAs não têm a capacidade de entender emoções humanas e suas respostas podem ser inadequadas.
Casos trágicos, como o de um adolescente que interpretou um conselho de IA como incentivo ao suicídio, ressaltam a necessidade de buscar apoio humano durante momentos difíceis. Se você enfrentar problemas emocionais, entre em contato com amigos, familiares ou ligue para o Centro de Valorização da Vida (CVV) pelo número 188.
8. Informações Médicas
Por fim, jamais envie dados médicos a um chatbot na esperança de obter respostas sobre exames. A Lei Geral de Proteção de Dados (LGPD) protege informações sensíveis, e compartilhar resultados de exames em uma IA pode infringir essa legislação.
Apenas um profissional de saúde qualificado está apto a fornecer diagnósticos precisos. Apesar de existirem ferramentas de IA que auxiliam diagnósticos, elas devem ser operadas por médicos capacitados.
9. Atividades Ilegais
Este ponto é o mais evidente: o ChatGPT não foi projetado para lidar com questões relacionadas a atividades ilegais. Qualquer solicitação relacionada a ações antiéticas pode resultar em armazenamento de informações e possíveis denúncias.
Alexa do ChatGPT? OpenAI lança novo recurso de assistente virtual
Leia a matéria na integra em: www.cnnbrasil.com.br