ChatGPT|ChatGPT太“卷”了!爆红背后也有挑战( 二 )


过去几年 , 传统媒体更新了其发现虚假信息的方式;社交媒体也在发现、标记和压制虚假信息方面取得了更多成功 。 然而 , 类似人类对话的虚假观点带来了新的挑战 。 简单的机器人可以使用新创建的账户一次又一次地复制和粘贴或多或少相同的社交媒体帖子 , 这些机器人发布的重复性内容和可疑的发布模式使它们相对容易被社交媒体识别和禁止 , 即使这样做也需要花费时间 。
而ChatGPT或类似的人工智能 , 将使伪草根营销(astroturfing , 一种带欺骗性质的营销手法 , 通过雇用写手在网络上大肆宣传某产品 , 试图营造普通消费者热爱某产品的虚假印象)几乎是免费的 , 而且很难被发现 。 与过去的机器人不同 , ChatGPT不需要发送几乎相同的复制粘贴的边缘观点 。 它们可以模仿人类 , 针对各种主题产生无限的具有连贯性和细微差别的独特内容 。 这些机器人账户不仅会主动发帖 , 还会对其他用户的帖子做出响应 , 并展开长期的对话 。
认知科学家加里·马库斯(Gary Marcus)认为 , ChatGPT存在两个核心问题:神经网络既不可靠也不真实 。 谷歌的人工智能研究人员在最近的一篇论文中承认 , 仅仅扩大模型的规模难以成功 。 仅扩大规模不会带来安全和事实基础方面的改进 。 许多对ChatGPT的怀疑和批评都归结为将其与人类的比较 , 而事实上 , 大型语言模型并不能像人类那样思考 。