吉姆·杜根(Jim Duggan)几乎每天都使用ChatGPT为他位于阿拉巴马州亨茨维尔的碳减排信用业务撰写营销邮件。
据美联社报道,但他绝不会相信人工智能聊天机器人能回答关于即将到来的总统选举的问题。
“我不认为AI能产生真实信息,”这位68岁的政治保守派人士在接受采访时说道。“语法和词汇是具体的,但政治思想、判断、意见则不是。”
调查显示,大多数美国人对AI能否准确提供有关选举信息表示怀疑。(美联社图)
杜根是大多数美国人的一员,根据美联社-NORC公共事务研究中心和USAFacts的调查,大多数美国人不信任由人工智能驱动的聊天机器人或搜索结果能提供准确答案。调查显示,约三分之二的美国成年人表示,他们对这些工具提供可靠和事实性信息的能力信心不足。
调查结果表明,尽管美国人已经开始在个人和工作生活中使用生成式AI驱动的聊天机器人和搜索引擎,但大多数人仍对这些迅速发展的技术持怀疑态度。尤其是在涉及到像选举这样重要事件的信息时,情况更是如此。
今年早些时候,一场选举官员和人工智能研究人员的会议发现,AI工具在回答一些相对基础的问题时表现不佳,比如在哪里找到最近的投票站。上个月,几位州务卿警告称,为社交媒体平台X开发的AI聊天机器人传播了虚假选举信息,这促使X调整了该工具,首先将用户引导至一个联邦政府网站以获取可靠信息。
能够生成文本、图像、视频或音频剪辑的大型AI模型,其运作机制尚不为人们所熟知,且监管不力。这些模型基于庞大的数据池,预测句子中最有可能出现的下一个词,从而提供复杂的回应——但这也使它们易于出错。
美国人对AI是否会使2024年选举信息的准确性变得更难判断存在分歧。大约四分之一的美国人表示,AI的使用将使找到准确信息变得“更困难”或“有些困难”,而另外四分之一的人则不确定,认为它不会使信息获取变得更难或更容易。据调查,16%的少数人认为AI将使找到有关选举的准确信息变得更容易。
来自新奥尔良杜兰大学(Tulane University)的21岁大学生格里芬·瑞安(Griffin Ryan)表示,他不知道校园里有人使用AI聊天机器人来查找候选人或投票相关信息。他自己也不用,因为他注意到可以“强迫AI工具给出你想要的答案”。
根据调查,只有一小部分美国人——8%——认为由AI聊天机器人(如OpenAI的ChatGPT或Anthropic的Claude)生成的结果总是或经常基于事实信息。他们对使用AI辅助的搜索引擎(如Bing或Google)的信任程度相似,仅有12%的人认为这些工具的结果总是或经常基于事实。