一个研究小组最近开发了一种算法,可以生成葡萄酒和啤酒的原始评论。考虑到计算机不能品尝酒的味道,这使得机器学习有了一个奇怪的用例。

人工智能品酒师是在一个包含数十万条啤酒和葡萄酒评论的数据库中训练出来的。从本质上讲,它汇总了这些评论并挑选出关键词。当研究人员要求它为特定的葡萄酒或啤酒生成自己的评论时,它生成的东西与以前的评论类似。

根据研究人员的说法,它的输出与纯粹由人类创造的评论相媲美,而且往往没有区别。
2022年的日程安排现在已经上线!!



我们的演讲者和会议为 "必须观看 "赋予了全新的含义!

这里的大问题是:这是为谁准备的?

研究小组说,这是为那些买不起专业评论员,缺乏灵感来开始一个适当的评论,或者只是想要一个关于饮料的总结的人准备的。
笑话,什么?

根据他们的研究论文。

    我们设想的是一个工作流程,而不是取代人类评论员,在这个工作流程中,机器将元数据作为输入,生成人类可读的评论,作为评论的初稿,从而协助专家评论员撰写他们的评论。

    接下来,我们修改并应用我们的机器写作技术,以展示如何用机器来写一组产品评论的综合。

    对于这最后一个应用,我们在啤酒评论的背景下工作(对于大量的产品,每一种都有大量的可用评论),并产生了机器写的评论综合,这些评论做得很好--再次通过人类评估来衡量--捕捉任何给定啤酒的评论中所表达的想法。

这一切都很好,但很难想象这些虚构的人真的存在。

是否真的有这样的人,他们能够负担得起自己的酒商或啤酒厂,而他们又以某种方式与社交媒体的影响者和庞大的葡萄酒和啤酒爱好者的世界隔绝?

这似乎是一个非常有用的营销计划,但是,同样,很难想象有一些人在阅读人工智能对它的看法之前,不愿意尝试某种特定的葡萄酒或啤酒。

从使用这种人工智能中受益的人是否会对消费其创造的内容的人透明?
评论里有什么?

当涉及到人类评论员的个人品味时,我们可以看看他们的作品,看看我们是否倾向于同意他们的观点。

对于人工智能,我们只是看到它的操作者所挑选的东西。任何内容生成方案都是如此。

在内容生成方面最有名的人工智能是OpenAI的GPT-3。它被广泛认为是现有的最先进的人工智能网络之一,并且经常被认为是业界最先进的文本生成方式。然而,即使是GPT-3,在涉及到输出节制和策划时,也需要一只重手。

可以说,人工智能品酒师团队的模型不可能超过GPT-3,因此,至少需要类似水平的人类关注,这可能是一个安全的赌注。

这就引出了一个问题:生成内容而不归功于机器有多大的道德性?

没有一个可行的世界可以让 "人工智能说我们的酒很好喝 "这样的情绪成为卖点(除了通常由能量饮料和加密货币组织赞助的那种夸张的技术活动)。

这意味着人工智能品酒师最可能的使用案例可能涉及默许人们认为其产出是由某种能够真正品尝到它所谈论的东西产生的。
这符合道德吗?

这不是一个我们在没有对其应用的具体例子进行智力上的严格要求就可以回答的问题。

人工智能侍酒师、GPT-3、创造绘画的神经网络和人工智能驱动的音乐生成器的存在,创造了一个潜在的道德噩梦。

你可能不是葡萄酒爱好者或啤酒饮用者,但这并不意味着你可以免受人工智能生成的内容对现实的扭曲影响。

在这一点上,我们中的任何一个人都可以确定,人们没有使用人工智能来聚合突发新闻,并在以人类署名的方式传递之前生成经过重新措辞的内容?

这一季的一些过度使用的电视陈词滥调和好莱坞的情节重演,是否有可能是编剧室使用人工智能驱动的脚本聚合器,吐出它认为市场需要的任何内容的结果?

而且,在短信和约会应用程序驱动的现代浪漫世界中,你能真正确定你是被一个人类追求者所吸引,而不是被一个机器人Cyrano de Bergerac的话所吸引?
现在不能了

这三个问题的答案都是:不能。而且,可以说,这是个比抄袭更大的问题。

当人类相互抄袭时,至少有一个源文件。但是,当人类把机器人的工作当作自己的工作时,可能没有办法让人真正看出来。

并不意味着使用人工智能生成的内容本身就是不道德的。但是,如果没有防止这种潜在的不道德使用的保障措施,我们就像大学教授不对他们正在评分的论文中的文本进行网络搜索一样,有可能被愚弄。

人工智能品酒师可以成为一种善的力量吗?当然可以。不难想象,一个网站将其人工智能汇总的评论宣传为类似于烂番茄的打碎的葡萄和发酵的啤酒花。只要经营者清楚,人工智能接受人类的输入并输出最常见的主题,就不会有欺骗的风险。

研究人员表示,对人工智能的不正当使用的解毒剂是透明度。但这只是引出了另一个问题:在解释人工智能输出时,谁能决定多少透明度是必要的?

如果不知道一个人工智能在设法输出有用的东西之前产生了多少负面评论或多少难以理解的胡言乱语,它还值得信赖吗?

如果你知道一个正面的人工智能评论之前有几十个负面的评论,而负责的人类没有给你看,你会对它有同样的感觉吗?

显然,当涉及到人工智能生成的内容的道德使用时,问题远远多于答案。