记者跟ChatGPT聊了聊:如何避免人工智能在新闻报导中的误用
人工智能(AI)愈来愈成为新闻报导中一个重要的工具。它可以用于新闻采编进程的许多方面,如新闻搜索、文本分类、摘要生成和自动翻译。
但是,这类技术还不够完善,可能会致使误用。记者采访了一名ChatGPT专家,讨论了如何避免这些误用。以下是记者所学到的内容。
误用1:AI生成的新闻文章缺少人类的思考
现在,很多新闻机构使用AI算法自动撰写文章,以提高效力和数量。但这些文章可能会缺少人类的思考。文章的语言可能会过于规范,没法转达作者的想法。AI虽然可以自动地生成文章,但缺少对实际情况的洞察和感官经验,难以提供与人类一样深度的分析。
记者和ChatGPT专家认为,为了不这类误用,新闻机构应当让AI成为人类记者的辅助工具,而不是取代他们。
误用2:AI可能带来偏见和毛病信息
AI系统的预测结果和结论都来自于已有的数据。因此,如果数据集有偏见或毛病信息,AI系统极可能会重复这些问题。这可能会致使毛病信息和不准确的报导。
为了不这类误用,ChatGPT专家建议新闻机构不但要使用最新、最全面的数据集,还要评估数据的准确性和偏见。在使用AI生成文章时,新闻机构应当指定人类编辑检查文章中的可疑信息。
误用3:AI可能会破坏新闻的公正性和可信度
在许多新闻报导中,公正性和可信度是相当重要的。但是,AI系统可能在这方面存在缺点。AI系统可能会给读者毛病的印象,弱化公正性和可信度。
为了不这类误用,ChatGPT专家建议新闻机构使用AI系统时,确保文章中有正确的事实和观点,同时保持公正性和可信度。
在新闻报导中使用AI不是一项新事物,但它还存在许多需要注意的问题。ChatGPT专家指出,虽然AI技术可以提高生产力和可重复性,但文章的价值是在于其准确性,公正性和可信度。新闻机构应当利用AI技术的优势,但要提供一个具有监督和束缚的人类编辑系统,以确保AI工具能够产生高质量、准确和可靠的报导。
本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/chatgpt/11970.html 咨询请加VX:muhuanidc