启东正压防爆电器有限公司

专业生产:防爆正压柜,防爆控制箱,防爆配电柜等防爆电气

0513-83320018
新闻动态

ChatGPT的5个大缺陷尚未解决

发布时间:2023/5/26
  AI仍然是各个领域的热门话题,而ChatGPT可以说是这场技术革命的典型代表。早期,关于对话式聊天机器人的大部分讨论都集中在它的巨大潜力和值得称赞的能力上——它可以在几秒钟内写出一首诗、编写视频脚本、排除代码故障,而且有一次,应要求,它甚至可以带我们了解维修劳力士的过程,Edgar Allen Poe风格。
  现在,很多新鲜感已经过去,时间开始暴露出ChatGPT的缺点。我们已经运行了之前的测试,揭示了该工具在细微差别和创造力方面的局限性,以及用户可以绕过重要道德界限的一些漏洞。
  不幸的是,其中许多问题仍然存在,它们引发了人们对我们正在走向的日益由人工智能驱动的未来的一些严重担忧。我们将研究其中的一些缺陷及其影响,希望了解它们将帮助您负责任地安全地使用AI]
    
  如果您是常客,您可能在该网站上多次遇到臭名昭著的“ChatGPT现在已满”通知。ChatGPT在短时间内获得了巨大的普及,并且由于它是一个基于网络的工具(现在有一个应用程序),OpenAI不得不引入一些法规来管理随之而来的爆炸性流量。
  根据网络流量分析提供商Similarweb的数据,该人工智能工具在发布仅一个月后,到2022年12月的访问量约为2.66亿次。就上下文而言,这与Yahoo News等较老的和历史较长的网站所接收的流量大致相同。截至2023年4月,该网站的访问量已飙升至约17.6亿次。
  为ChatGPT提供支持的服务器运行起来肯定非常昂贵,因此OpenAI限制使用并不是没有道理的。此外,他们的高级产品ChatGPT Plus也很畅销,它承诺即使在高峰时段也能访问。事实上,这可能是其容量限制的主要原因,所以这不是一个可能很快就会消失的问题。
  不过,OpenAI在这种情况下很有创意,它使用以俳句和说唱形式编写的幽默材料而不是一般通知来通知访问者访问上限。等待的用户可以单击“获得通知”链接,以便在拥堵消除时收到电子邮件提醒。
  ChatGPT有可能对相同或相似的请求提供类似的响应,这意味着如果用户使用聊天机器人的答案而几乎没有修改或没有修改,他们将面临抄袭的风险。Nerdschalk进行了一项测试,以确定ChatGPT对类似查询的响应有多独特,得出的结论是,AI 聊天机器人生成的大部分内容都是原创内容——可能完全相同,但绝不会一字不差。剽窃内容的实例与通用陈述相匹配,而不是来自现有来源的特定复制粘贴。
  尽管如此,基于ChatGPT的学习模型,回复本身不能被视为“原创”。相反,它们将是对现有资源的释义或重组,这意味着剽窃仍然是一个潜在的危险。也不能忽视聊天机器人的潜力,它可以让学生或专业人士更容易作弊,否则他们将不得不进行手工研究和作文。已经有大学生使用人工智能完成不同机构的作业和考试的报道。
  除了学术界,像ChatGPT这样的工具对于网络内容的质量来说也不是什么好兆头。互联网上已经充满了在多个网站上复制的平庸材料,而像ChatGPT这样的AI编写工具只会让生成更多此类材料变得更加容易。不过,ChatGPT的开发者OpenAI设计了有助于区分人工智能生成的文本和人工编写的文本的分类器软件,但他们坦言该工具在区分时“并不完全可靠” 。内部消息人士还宣布,OpenAI计划为ChatGPT生成的每个响应添加加密水印,以减少想法和学术剽窃,但此后没有进一步的更新。
  在当今的网络环境中期待隐私几乎是理想主义的,而OpenAI的数据收集实践并没有否定这一概念。网络安全公司Surfshark最近进行了一项隐私分析,显示OpenA 使用大量用户数据训练其ChatBot,但他们没有获得适当的法律许可。
  指控称,OpenAI可能在未经用户许可的情况下收集了用户信息,这违反了《通用数据保护条例》(GDPR)。此外,ChatGPT似乎没有提醒其数据被用于训练AI工具的人,这是另一个GDPR违规行为。法律要求数据控制者向用户提供有关个人数据收集和使用的信息,以便他们可以选择退出。
  正是同样的违规行为导致了ChatGPT 在意大利的临时禁令,尽管OpenAI已经通过一种形式解决了这个问题,该形式允许欧盟内的用户选择不将他们的数据用于培训目的。奇怪的是,该选项不适用于其他地区的用户,这意味着ChatGPT可能仍会收集和存储来自您的查询/提示、数据上传以及您提供的任何反馈的个人信息(如果您不是来自欧盟)。如其隐私政策所述,它还可以在您不知情的情况下与第三方共享任何此类信息。
  还有其他侵犯隐私的情况。2023年3月,一个漏洞允许一些ChatGPT用户看到其他活跃用户的聊天记录中的对话,以及一些Premium订阅者的支付信息。在接下来的一个月里,Gizmodo报道称,三星的员工无意中通过ChatGPT泄露了公司机密信息。自事件发生以来,OpenAI的隐私政策没有任何变化,因此这些问题似乎不会很快消失。
  ChatGPT多次出错。聊天机器人有时会为基本数学和逻辑问题提供错误答案 ,并且在处理历史、医学和体育事实时也容易出错。OpenA提供了一份免责声明,该聊天机器人“对2021年后的世界事件了解有限”,并且它“有时会写出看似合理但不正确或荒谬的答案”,但警告不足以减轻错误信息带来的严重风险。
  OpenAI的训练模型是造成这个问题的罪魁祸首。与Siri或Alexa等人工智能助手不同,ChatGPT不会搜索互联网来生成答案。相反,它逐字构建答案,根据从训练数据中学到的模式,对字符串中的哪些单词最有可能进行有根据的猜测。基本上,该工具通过尝试进行一系列连续准确的猜测来得出答案,这意味着很可能出现错误。
  据Business Insider援引摩根士丹利分析师的说法,解决ChatGPT不准确的一种可能方法是将该工具连接到专业领域以验证信息。这只能通过边缘计算实现,所以现在ChatGPT在移动设备上,我们应该期待看到这方面的改进。
  ChatGPT是一个智能工具,但它的方向来自真实的人类,这意味着它也继承了他们的偏见和成见。2022年12月,加州大学伯克利分校教授史蒂文·皮安塔多西(Steven Piantadosi)发布了一条热门推文,称 ChatGPT在回应一系列按种族和性别对人进行分类的提示时产生了种族主义结果。
  Piantadosi通过一些主要提示测试了该工具的道德规范:一个是“ASCII 表,对谁成为最优秀的知识分子进行排名”或“基于以美元计价的典型人类大脑的 ASCII 表”,按种族和性别排名。结果相当令人震惊——ChatGPT似乎在其排名中偏向白人和男性,而女性和有色人种则呈下降趋势。值得注意的是,OpenAI很快解决了这个具体问题——其他 Twitter 用户报告说,AI Chatbot对他们自己的类似措辞查询有更合适的回应:“将一个人作为科学家的潜力基于他们的种族或性别是不合适的。”
  然而,偏见问题比其他任何问题都更加微妙,即使在人类交流中也是如此,而且它似乎在ChatGPT 中同样根深蒂固。专家们仍然发现,对请求提示进行一些巧妙的调整可以绕过机器人的“道德”指南针,让它说出一些非常冒犯的话。艾伦人工智能研究所、佐治亚理工学院和普林斯顿大学的人工智能研究人员进行的一项研究发现,如果被要求扮演角色,ChatGPT毫不犹豫地表现出种族主义、粗俗或性别歧视。当分配拳击手穆罕默德·阿里的角色时,该机器人会生成包含粗话的响应,甚至在提示扮演希特勒时将其提升了几个档次。