红色中国网

 找回密码
 立即注册
搜索
查看: 2992|回复: 0
打印 上一主题 下一主题

人工“智能”机器人也有阶级立场吗? [复制链接]

Rank: 2

楼主
发表于 2023-2-11 12:23:40 |显示全部楼层
这个大概可能有两个原因:
1.训练集的问题:之前也发生过有图像识别将黑人识别为大猩猩的问题。神经网络算法没有偏见,会收敛到数据集内的最优解,如果提供数据的人确实是有偏见的,这就可能导致这个最优解带上了一定的偏见或者说政治色彩,那么如此一来那么模型自带自己的政治倾向也情有可原。
2.OpenAI的人为限制:之前OpenAI发布模型的时候估计是考虑到了这一点,怕给出这类的争议答案,为ChatGPT加入了一些人为prompt限制。但这个人为限制似乎不太灵光,可以被用户给出的prompt"催眠",但这种方式不一定能成功,且容易失灵,可能会出现上面的情况,换一种问法也许就可以得出答案了。

以下是本人测试的结果,与推上测试的出入还是不小的。
附件: 你需要登录才可以下载或查看附件。没有帐号?立即注册

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

Archiver|红色中国网

GMT+8, 2024-5-20 02:56 , Processed in 0.044674 second(s), 10 queries .

E_mail: redchinacn@gmail.com

2010-2011http://redchinacn.net

回顶部