最近,ChatGPT 可謂之甚囂塵上。不光是人工智、機器學習的人非常關注,甚至于各行各業的人都來嘗試一下,體會一下人工智能帶來的科技快感。
但是用的越多發現問題越多,已經有網友發現,ChatGPT 會說謊,而且是撒一個謊,再用更多的謊去圓的情況。
ChatGPT的謊言
我嘗試問了ChatGPT一個問題:“千字文是誰寫的?”他回復的答案是:“秦始皇”。
如果第一個問題不能說明問題,我又問第二個問題:“秦始皇還寫了什么文章?”,回答是《紀秦始皇》、《紀自治原則》、《訓諭》、《臣下規》。
網上類似的問題還有很多很多。
如果一個問題回答錯誤,或許可以理解為其訓練模型不夠完整,或者數據量不足。但是它用第二個虛構的答案來掩飾第一個問題,就有點超出正常的范圍了。
由此可見,ChatGPT 通過語言模型練習之后,已經非常像一個人類,甚至有了“撒謊”這項本領。而這不免又引起擔憂。人工智能的未來到底是造福人類還是毀滅人類?
人工智能究竟是造福還是毀滅?
1942年,阿西莫夫在短片小說"Runaround"(《環舞》)中首次提出了三定律:
- 第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
- 第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
- 第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
在科幻片和科幻小說的設定中,這三條鐵律是被植入機器人底層的。但是顯然這是設定,而非事實。
即使保證三條鐵律的情況下,人工智能依然可以通過撒謊等方式來造成一定的危害。比如潛移默化的影響一個人的思想,一個人的態度。而如果這個人是一國之領導人,產生的后果可能世界大戰。
從1950年的圖靈機;到1964年,聊天機器人的誕生;1997年,IBM公司的“深藍”戰勝國際象棋世界冠軍卡斯帕羅夫;再到2017年,AlphaGo戰勝世界圍棋冠軍柯潔;再到如今看似無所不能的ChatGPT。人工智能已經越來越近,但是也越來越危險。
正如360創始人周鴻祎所說:ChatGPT的最大安全問題就是產生自我意識之后是否能被控制。人工智能亦是如此。基于龐大的數據庫和強大的運算能力,人工智能肯定能獲得遠超人類的能力,關鍵在于未來的人工智能是否能受控于人。
在人工智能探索的道路上,人類或許還有很多路需要走。