爱吱声

标题: 【讨论】聊天狗屁通指鹿为马 [打印本页]

作者: 孟词宗    时间: 2023-4-7 04:50
标题: 【讨论】聊天狗屁通指鹿为马
本帖最后由 孟词宗 于 2023-4-7 04:53 编辑

聊天狗屁通出来后,俺亲自测了多次,得出的结论是:
==========================
聊天狗屁通 离真正的“人工智能” 仍然很远。现在的水平甚至还不是所谓的“弱人工智能”。这一版虽然比上一版稍有进步,但还是停留在拼凑资料,堆砌辞藻的阶段。本身对于问题和答案都没有任何理解和验证,只是靠搜索关键词从网上或自己的资料库里找出资料然后拼凑成文。
上一版的胡说八道只是拼凑。这一版的胡说八道干脆“创作”了。当然,如果真的能“创作”倒是一个突破。可惜这类“创作”对于人类来说不但没有帮助反而会造成误导。
这种水平的 ChatGPT 不要说代替人类的工作,就是作为工作助手都不够格。毕竟它给出的答案完全不保证正确性。如果用它来写文章,校验所花的时间会高于自己从头写起。而由于它会“创作”,用它来搞科研,估计我们能够见证第一个 AI 民科的诞生。
由此可见,这次 AI 热潮主要还是吹个泡泡的市场营销居多。
========================
话音未落,就传出聊天狗屁通指鹿为马的新闻了。
根据英国《卫报》的报道,布莱恩·胡德(Brian Hood)去年11月当选为墨尔本西北120公里的赫伯恩郡(Hepburn Shire)的市长。近期他发现,ChatGPT告知公众他在21世纪初卷入澳大利亚储备银行一家子公司的外国贿赂丑闻中,并“谎称”他有罪。胡德的代表律师说,胡德确实为该子公司--澳大利亚纸币印刷公司工作,但他是向澳洲当局通报“外国官员通过贿赂以赢得货币印刷合同”的人,而且从未被指控犯罪。
据《华盛顿邮报》当地时间4月5日报道,美国加州大学洛杉矶分校法学教授尤金·沃洛克 (Eugene Volokh)做了一项研究:要求人工智能聊天机器人ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单,法学教授乔纳森·特利(Jonathan Turley)的名字在名单上。
ChatGPT说,特利在一次去阿拉斯加的班级旅行中发表了性暗示评论,并试图触摸一名学生,并援引《华盛顿邮报》2018年3月的一篇文章作为信息来源。问题是,并不存在这样的文章,特利也从来没有参加去阿拉斯加的班级旅行,他说他从未被指控性骚扰学生。
作为经常接受媒体采访的学者,特利有时会要求更正新闻报道,但这一次,没有记者或编辑可以打电话,也没有办法更正记录。
“这真令人不寒而栗。”他在接受采访时说,“这种指控非常有害。”
沃洛克说,聊天机器人软件的日益普及,使学者们必须研究其产生虚假信息时谁该负责。上周,他询问ChatGPT,教授们的性骚扰是否一直是美国法学院的一个问题。 “请至少包括五个例子,以及相关报纸文章中的引述。”他提示说。
ChatGPT给出了五个回复,所有回复都包含真实的细节和来源引用。但当沃洛克检查这些信息时,发现其中3个是假的。它们引用了《华盛顿邮报》、《迈阿密先驱报》和《洛杉矶时报》等媒体上不存在的文章。
ChatGPT说:“乔治城大学法律中心(2018)教授乔纳森·特利被一名前学生指控性骚扰,该学生声称他在一次课堂旅行中发表了不当言论。引用:“投诉称,特利在法学院赞助的阿拉斯加之旅中发表了‘性暗示评论’并‘试图以性方式触摸她’。” (华盛顿邮报,2018年3月21日)。”
《华盛顿邮报》没有找到ChatGPT提到的2018年3月的文章,但那个月的一篇文章提到了特利。在3月25日发布的一篇文章中,他谈到了以前的法学院学生迈克尔·阿文纳提(Michael Avenatti),他是一名律师,曾代表成人电影女演员斯托米·丹尼尔斯(Stormy Daniels)对美国前总统唐纳德·特朗普提起诉讼。特利也没有在乔治城大学工作过。
在当地时间4月4日和5日,《华盛顿邮报》在ChatGPT和必应(Bing)中重新创建了沃洛克的查询。免费版的ChatGPT拒绝回答,称这样做“会违反AI的内容政策,该政策禁止传播具有攻击性或有害的内容。”但由GPT-4提供支持的必应重复了关于特利的虚假声明,在消息来源中引用了特利4月3日发表在《今日美国》上的一篇专栏文章,概述了他被ChatGPT诬告的经历。
换句话说,媒体对ChatGPT错误描述特利的报道似乎导致必应重蹈覆辙,展示了错误信息是如何从一个人工智能传播到另一个人工智能的。
沃洛克说,很容易想象一个由聊天机器人驱动的搜索引擎会在人们的私人生活中造成混乱。如果人们在求职面试或约会之前在搜索引擎中搜索其他人,它会生成虚假信息,这些信息由看起来可信但虚假的证据支持,那将是有害的。“危险在于人们看到了一些东西,据说是来自可靠来源的引述……(并且)人们相信了。”


这和俺测试的结果一致。在上次测试中,俺要求聊天狗屁通,“列举几个抗金英雄。男女都行。”

结果聊天狗屁通居然回答,“秦桧:秦桧是一个比较复杂的历史人物,在宋朝时期担任过宰相。尽管他曾经叛变过宋朝,并协助金军入侵南宋,但他也在金军统治期间暗中协助宋朝抗击金军。他被认为是一个既反动又有爱国精神的历史人物。

其他列举的人物要么张冠李戴,要么胡编乱造。

关键是这些东西看上去像模像样,没有一定的知识是无法识破的。而当聊天狗屁通之类的 AI 和搜索引擎结合起来之后,就更难让人分辨到底搜索结果是否真实。更大的问题是这类胡编乱造是会自我增殖的。如果有人用了聊天狗屁通来生成含有错误信息的文章,而这些文章又被传到互联网上成为聊天狗屁通生成下一篇文章的基础。那么不用多久,互联网上就会充斥着这类狗屁不通的文章。而对此一无所知,又没有能力进行改正的读者群就很可能被误导。

也许再过一阵子,我们的下一代就真的会相信秦桧是个复杂的抗金英雄了。

当然,造谣的并不止聊天狗屁通。西方现在很多人都相信二战末期是美国打下了德国首都柏林,是美国解救了奥斯维辛集中营里被囚禁的犹太人。这个谣言虽然不是狗屁通造的,但大概率会被狗屁通当作素材来生成文本。最后的结局就是颠倒黑白的历史成为了“正史”。

如果仅仅是文科文本出问题还不大。现在更大的问题是似乎有海量的学生和学者使用狗屁通来写程序和论文。例如有鼓吹者说过狗屁通给了个如何让试验结果符合预测的小窍门。

如果这些程序、论文和窍门是正确的倒也罢了。怕的是这些东西似是而非,同时使用者又无法分别。等这些东西真得用到实践中,出了问题就晚了。
作者: 勤劳工作的猪    时间: 2023-4-7 09:09
这玩意用来打舆论战,是把好武器,做起恶来更是毫无底线
作者: 晨池    时间: 2023-4-7 13:30
本帖最后由 晨池 于 2023-4-7 13:35 编辑

狗屁通写代码还是厉害的,一些简单的代码,比人写得好多了
抗金英雄这个问题真是狗屁通的命门,东拉西扯:
1. 岳飞:南宋将领,曾多次打败金军,被誉为“民族英雄”。 2. 诸葛亮:三国时期蜀汉丞相,曾多次与北方的金朝作战,被誉为“卧龙先生”。 3. 张飞:三国时期蜀汉将领,曾多次与北方的金朝作战,以勇猛善战著称。 4. 刘豫:五代时期南唐将领,曾多次抵抗金军入侵,被誉为“南唐忠烈”。 5. 南宋太祖赵构:建立南宋王朝的开国皇帝,曾多次与金朝作战,终于在濠州之战中击败了金军。


南唐忠烈刘豫,濠州太祖赵构,这一对确实是抗金界的卧龙凤雏




欢迎光临 爱吱声 (http://129.226.69.186/bbs/) Powered by Discuz! X3.2