跳转至主目录

“人工智能成为虚拟陪练”

新闻写作如何从 ChatGPT 和 Co 中获益?德国之声创新经理玛丽·基尔格解释了人工智能的机遇和风险。

Lisa Priller-Gebhardt , 28.04.2023
玛丽·基尔格 (Marie Kilg)——记者和德国之声创新经理。
玛丽·基尔格 (Marie Kilg)——记者和德国之声创新经理。 © David-Pierce Brill

自从 ChatGPT 让人工智能的力量在世界范围内受到关注后,在德国,人们也开始对人工智能模型在新闻写作中的应用进行讨论。  玛丽·基尔格是德国之声 (DW) 的记者和创新经理。她解释了这项技术能做什么、不能做什么、带来了哪些危险,以及从长远看是否会损害新闻写作

基尔格女士,人工智能在日常编辑工作中已经应用到了哪些方面?
提前说明一下:不仅仅只有“唯一的一种人工智能”。自动化的新闻写作已经存在了一段时间,被应用于股票市场和体育报道等领域。ChatGPT 的出现使生成式人工智能工具有了重大突破,它可以做更多事务,如总结文本、编写文章和生成图像。德国日报《taz》目前有一个月度专栏,专栏中刊载的文本由我和一个团队开发的虚构的人工智能人生成。另一个不那么常见的例子:在巴伐利亚广播电台的“Münchner Runde”节目中,机器人 Pepper 在 ChatGPT 程序的帮助下与演播室嘉宾进行讨论。  

通过使用人工智能,编辑们拥有什么优势?
首先,人工智能可以使我们减少做刻板无聊或耗时的工作。比如,转录采访文件。而没有必要进行人工转录。这为调查研究节约出大量时间。另一方面,ChatGPT 可以帮助创建基于要点文本的脚本和文章。这不仅使我们速度更快,还能帮助一些人克服写作障碍,因为他们已经有了一份草稿,现在只需要进行修改。这使人工智能成为一位共同打拼的虚拟伙伴。  

人工智能软件无法区分事实和虚构。存在什么危险?
如果遵守新闻写作的标准,人工智能并不会比谷歌搜索或维基百科搜索更危险。只有在人们在不知情的情况下使用这项技术完成工作,并且不知道边界在哪里时,才会出现危险。是的,人工智能也可能会被恶意使用。关键字:虚假新闻。我们必须武装自己才能预防和应对这种情况。 

当人工智能犯错时,谁应该承担责任?
人工智能的发展如此之快,但司法层面的监管制度尚不完善。在人工智能伦理学和媒体中,人们基本同意,人类不应放弃责任。例如,德新社最近公布了处理人工智能的准则,其中规定人工智能只能在“人类的监督下”使用。 

从长远看,这是否会使记者失业?
工作是不断变化的,在新闻写作中也是如此。几年前,谁会想到抖音的内容创作者也可以成为新闻工作者的一种职业类型?但人工智能会进一步改变记者的工作方式。但好消息是:新闻写作的基本模式依然存在。仍然需要有人花时间梳理和总结复杂的上下文关系,使其他人能够理解它们,并在此基础上形成意见,在塑造社会意识形态上积极提供支持。  

© www.deutschland.de