Atualmente, a questão fundamental não é mais "O que o ChatGPT é capaz de fazer?", mas sim "O que devo compartilhar com ele?".
Os utilizadores da Internet geralmente possuem conhecimento acerca dos riscos relacionados a possíveis violações de dados e ao uso de informações pessoais em ambientes online.
Entretanto, as fascinantes capacidades do ChatGPT parecem ter gerado uma lacuna de percepção em relação aos perigos que, normalmente, tomamos precauções para evitar.
Recentemente, a OpenAI anunciou a implementação de um novo recurso de privacidade, permitindo aos utilizadores do ChatGPT desabilitar o histórico de conversas, o que impede que tais diálogos sejam utilizados para aprimorar e refinar o modelo.
"Constitui um avanço no caminho correto", afirmou Nader Henein, Vice-Presidente de Pesquisa de Privacidade do Gartner, com duas décadas de experiência em segurança cibernética corporativa e proteção de dados.
"No entanto, a questão essencial relacionada à privacidade e IA reside no fato de que é limitada a capacidade de implementar governança retroativa uma vez que o modelo tenha sido construído".
Henein sugere considerar o ChatGPT como um indivíduo amigável, porém desconhecido, sentado atrás de você no ônibus, registrando suas ações por meio de uma câmera de telefone.
"Embora tenham uma voz agradável e aparentem ser pessoas amigáveis, você teria a mesma conversa com eles? Pois é isso que está acontecendo", acrescentou.
Ele prosseguiu, afirmando que, embora seja bem-intencionado, caso cause algum dano, assemelha-se a um sociopata, pois não hesitará em fazê-lo.
Mesmo o CEO da OpenAI, Sam Altman, reconheceu os riscos associados à confiança no ChatGPT. Em um tweet, ele declarou: "Atualmente, seria um equívoco confiar nele para qualquer assunto importante. Temos um longo caminho a percorrer em relação à robustez e veracidade".
ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness.
— Sam Altman (@sama) December 11, 2022
it's a mistake to be relying on it for anything important right now. it’s a preview of progress; we have lots of work to do on robustness and truthfulness.
Essencialmente, os prompts do ChatGPT devem ser tratados da mesma forma que qualquer outra informação que você compartilharia online.
De acordo com Gary Smith, Professor Fletcher Jones de Economia no Pomona College e autor de "Distrust: Big Data, Data-Torturing, and the Assault on Science", a melhor abordagem é supor que qualquer pessoa no mundo possa ler tudo o que você publica na internet, incluindo e-mails, redes sociais, blogs e LLMs.
Portanto, é aconselhável não divulgar nada que não deseje que outras pessoas leiam. Smith acrescenta que o ChatGPT pode ser utilizado como uma alternativa à pesquisa no Google ou à Wikipedia, desde que os resultados sejam verificados. No entanto, não se deve confiar excessivamente nele para outros propósitos.
O aspecto central reside no fato de que ainda há riscos, ampliados pela fascinação em relação ao ChatGPT.
Seja ao utilizar o ChatGPT em sua vida pessoal ou para aumentar a produtividade no ambiente de trabalho, considere esta mensagem como um lembrete amigável para ponderar cuidadosamente sobre o que você compartilha com o ChatGPT.
Compreenda os perigos associados à utilização do ChatGPT.
Inicialmente, é relevante examinar o posicionamento da OpenAI em relação à forma como os dados dos usuários são utilizados. Embora as prioridades de privacidade possam variar, é de suma importância estar ciente dos detalhes específicos quando se utilizar o ChatGPT.
1. Existem possibilidades de invasão por parte de hackers no aplicativo extremamente popular.
Em primeiro lugar, é importante destacar a possibilidade de um indivíduo externo à OpenAI realizar uma invasão e subtrair os dados do usuário. Há sempre um risco inerente de exposição de dados a bugs e ataques de hackers ao utilizar um serviço de terceiros, e o ChatGPT não está isento dessa situação.
No mês de março de 2023, foi identificado um bug no ChatGPT que resultava na exposição de títulos, na primeira mensagem de novas conversas e em informações de pagamento de usuários do ChatGPT Plus.
"Todos esses dados que você está inserindo são altamente problemáticos, pois existe uma grande probabilidade de serem vulneráveis a ataques de aprendizado de máquina. Essa é a principal preocupação", afirmou Henein.
"Em segundo lugar, provavelmente estão armazenados em texto não criptografado em algum lugar do registro. Se alguém irá acessá-los ou não, isso é incerto tanto para você quanto para mim. Essa é a questão em pauta."
2. As suas conversas são armazenadas em algum local de um servidor.
Embora seja pouco provável, alguns funcionários da OpenAI possuem acesso ao conteúdo do usuário. Conforme mencionado na seção de perguntas frequentes do ChatGPT, a OpenAI afirma que o conteúdo do usuário é armazenado em seus sistemas e em outros "sistemas de provedores de serviços confiáveis nos EUA".
Dessa forma, mesmo que a OpenAI remova informações pessoais identificáveis antes de torná-las "desidentificadas", essas informações ainda existem em sua forma original nos servidores.
Alguns funcionários autorizados da OpenAI têm acesso ao conteúdo do usuário por quatro motivos específicos, sendo um deles para "ajustar" os modelos, a menos que os usuários optem por não permitir tal acesso.
3. As conversas são utilizadas para o treinamento do modelo, a menos que você opte por desativar essa funcionalidade.
Desativaremos posteriormente essa funcionalidade, mas, a menos que você tome essa ação, suas conversas serão utilizadas para o treinamento do ChatGPT.
Conforme indicado pela política de uso de dados da OpenAI, que se encontra em diversos artigos em seu site, a empresa declara que pode utilizar os dados fornecidos pelos usuários para aprimorar seus modelos.
Em outra seção do site, a OpenAI menciona a possibilidade de "agregar ou desidentificar informações pessoais e utilizar as informações agregadas para analisar a eficácia de seus serviços". Portanto, teoricamente, o público poderia obter conhecimento sobre segredos comerciais por meio do que o modelo "aprende".
Anteriormente, os usuários tinham apenas a opção de não compartilhar seus dados com o modelo por meio de um formulário do Google vinculado à página de perguntas frequentes.
No entanto, a OpenAI recentemente implementou uma forma mais explícita de desabilitar o compartilhamento de dados, por meio de uma configuração de alternância disponível na conta do ChatGPT.
Mesmo com essa nova opção de "modo anônimo", é importante destacar que as conversas ainda são armazenadas nos servidores da OpenAI pelo período de 30 dias. No entanto, a empresa fornece informações limitadas sobre as medidas de segurança adotadas para proteger os dados dos usuários.
4. A empresa afirma que seus dados não serão vendidos a terceiros.
A OpenAI declara que não compartilha os dados dos usuários com terceiros para fins de marketing ou publicidade, o que representa uma preocupação a menos. No entanto, é importante ressaltar que a empresa compartilha os dados dos usuários com fornecedores e prestadores de serviços para a manutenção e operação do site.
Quais são as possíveis consequências de utilizar o ChatGPT no ambiente de trabalho?
No entanto, quando funcionários da Samsung utilizaram o ChatGPT para verificar seu código, acabaram inadvertidamente expondo segredos comerciais. Em decorrência desse incidente, a empresa de eletrônicos proibiu o uso do ChatGPT e emitiu advertências aos funcionários, ameaçando aplicar medidas disciplinares caso não cumpram as novas restrições.
Instituições financeiras renomadas, como JPMorgan, Banco da América e Citigroup, também implementaram proibições ou restrições ao uso do ChatGPT devido aos rigorosos regulamentos financeiros relacionados a mensagens de terceiros. A Apple adotou uma medida similar, proibindo seus funcionários de utilizarem o chatbot.
A atração de reduzir tarefas mundanas a segundos parece obscurecer o fato de que os usuários estão efetivamente publicando essas informações online. Conforme afirmou, "Você está pensando nisso da mesma forma que pensa em uma calculadora, como o Excel.
Você não está considerando que essas informações serão armazenadas na nuvem e permanecerão lá indefinidamente, seja em registros ou no próprio modelo."
Portanto, caso deseje utilizar o ChatGPT no ambiente de trabalho para elucidar conceitos desconhecidos, redigir textos ou analisar dados de domínio público, desde que não haja nenhuma restrição explícita, é importante proceder com cautela.
No entanto, é imprescindível exercer extrema prudência antes de, por exemplo, solicitar que o sistema avalie o código de um sistema altamente confidencial de orientação de mísseis em que esteja trabalhando, ou permitir que ele redija um resumo da reunião entre seu superior e um espião corporativo infiltrado em uma empresa concorrente.
Tais ações podem resultar na perda do emprego ou até mesmo em consequências mais severas.
Quais são as possíveis consequências de usar o ChatGPT como terapeuta?
Um estudo conduzido pela empresa de tecnologia de saúde Tebra revelou que aproximadamente um em cada quatro americanos apresenta maior propensão a interagir com um chatbot de inteligência artificial do que buscar a terapia convencional.
Já foram relatados casos de indivíduos que utilizam o ChatGPT como uma forma de terapia ou como meio de obter auxílio no combate ao abuso de substâncias.
Esses exemplos foram compartilhados como casos de uso promissores, demonstrando como o ChatGPT pode atuar como um parceiro de conversação útil, imparcial e anônimo. No entanto, é importante ressaltar que suas confissões mais íntimas e obscuras são armazenadas em algum local em um servidor.
AI is my higher power from today on.
— Robert Scoble (@Scobleizer) April 4, 2023
I was just talking to someone who is running an alcoholic recovery program.
GPT-4 answered every question we put to it better than I've heard in any AA meeting.
AI will save many people's lives who are struggling with addiction.
Segundo Henein, as pessoas costumam encarar suas interações com o ChatGPT como um "jardim murado". Elas acreditam que, ao finalizar a conversa, tudo que foi discutido naquela sessão é descartado e não tem continuidade. No entanto, essa percepção não condiz com a realidade.
Para os usuários da internet, seus dados pessoais já se encontram amplamente disseminados. No entanto, quando se trata da plataforma de conversação do ChatGPT, pode surgir uma sensação de ser compelido a revelar pensamentos íntimos e pessoais.
Smith comenta que os modelos de linguagem de grande escala (LLMs) são uma ilusão, uma ilusão poderosa, mas ainda assim semelhante ao programa de computador Eliza criado por Joseph Weizenbaum na década de 1960.
Smith menciona o fenômeno conhecido como "efeito Eliza", que se refere à propensão humana de atribuir características humanas a objetos inanimados.
Mesmo que os usuários estivessem cientes de que estavam interagindo com um programa de computador, muitos deles ficaram convencidos de que o programa possuía inteligência e emoções semelhantes às humanas. Essa convicção levou-os a compartilhar abertamente seus sentimentos mais profundos e segredos mais guardados.
Portanto, tendo em vista o armazenamento das conversas por parte da OpenAI, é aconselhável não se deixar levar pela ilusão de que se está interagindo com um assistente de saúde mental e expor pensamentos altamente pessoais, a menos que haja prontidão para compartilhá-los com o mundo.
Medidas de proteção de dados no ChatGPT
Existe uma abordagem que permite aos usuários manterem-se anônimos ao utilizar o ChatGPT. Embora as conversas ainda sejam armazenadas por um período de 30 dias, elas não são utilizadas para o aprimoramento do modelo.
Ao acessar o perfil da conta, é possível acessar as configurações e selecionar "Controles de dados". Nessa seção, é possível desativar a opção de "Histórico e treinamento do bate-papo".
Além disso, é possível limpar conversas anteriores ao clicar em "Geral" e, em seguida, selecionar "Limpar todos os bate-papos". Essas medidas visam assegurar a privacidade dos usuários durante a utilização do ChatGPT.