ChatGPT、NewBing、文心一言等生成式人工智能的持续火热,很多同学迫不及待地开始尝试、试用。这里想提醒一下大家,试用的过程中一定要做到保持警惕,先做到不上当受骗,在我看来,这类工具有如下三个安全风险需要注意:

敏感信息,不外泄

全球已经有很多公司禁用了chatgpt,原因就在于ChatGPT学习内部资料,可能会让敏感内容外泄。包括三星、摩根大通、美国银行、花旗集团、德意志银行等知名公司。其中三星公司层两次宣布禁止内部试用ChatGPT,因为三星引入 ChatGPT 不到 20 天就发生了 3 起涉及 ChatGPT 的泄密事件。

信息不准,须验证

在这起案例中,两名律师引用的案例全是虚构的,美国两名律师引用ChatGPT虚构案例被罚5000美元。在我使用的过程中,也遇到过说引用的论文,全是虚假的情况,完全查不到相应的论文。所以,我们一定要认识到,现在的ChatGPT类工具还只是大语言模型,不是万能的通用人工职能。当前还存在AI幻觉没有治愈,很多信息只是看起来通顺有逻辑,不一定是真的对的。

山寨繁多,防钓鱼

随著ChatGPT的爆红,网络上各种第三方工具也数不胜数。尤其是在国内,因为直接注册、访问ChatGPT有一些门槛,各种搬运工,山寨品更是繁多,在试用的过程中更要擦亮眼睛,尽量试用官方版本,或者是经过考验的版本,让自己远离这些危险的假冒ChatGPT应用。

最后我们来看看chatgpt、文心一言他们自己是怎么说的: chatgpt自己的答案 文心一言自己的答案