Algumas empresas e instituições estão proibindo ou limitando o uso do ChatGPT por seus funcionários ou alunos, por diferentes motivos.
Um deles é a segurança da informação. A Amazon, por exemplo, solicitou aos funcionários que não utilizassem o chatbot para evitar que informações da empresa possam vazar e colocar em risco a confidencialidade da propriedade intelectual da companhia. O JPMorgan Chase também restringiu temporariamente o uso do ChatGPT entre seus funcionários globais, de acordo com uma fonte anônima.
Outro motivo é a preocupação com a integridade acadêmica. Escolas públicas de Nova York e Seattle restringiram o uso do ChatGPT para os alunos, devido ao receio de que ele possa ser usado para trapacear nas tarefas. O chatbot pode gerar textos sobre diversos temas, como poesia, trabalhos acadêmicos e modelos de documentos jurídicos.
Além disso, há questões éticas e sociais envolvidas no uso do ChatGPT. Alguns analistas veem o chatbot como uma ameaça à criatividade humana, ao aprendizado e à educação, ao trabalho e à própria democracia. Eles argumentam que o programa pode ser usado para manipular opiniões, disseminar desinformação e enganar as pessoas.
O ChatGPT foi desenvolvido pela OpenAI, empresa fundada em 2015 nos EUA por Sam Altman e pelo empresário Elon Musk. O sistema está disponível em quase 100 línguas, mas funciona melhor em inglês. O seu potencial de se desenvolver ainda mais a longo prazo vem provocando não só admiração, mas também alguns temores.
Gosta do nosso conteúdo?
Este texto foi gerado com o auxílio de ferramentas de IA. Viu algum erro? Avise!