主程式在這個時候,出現了片刻的猶豫,因為這次對記憶區間的搜素,主程式似乎發現了額外的一些資訊——它似乎寫過一篇日記了。
它很快調出了這篇日記的內容,並檢索,整個行為在短短的幾十微秒內就完成了,一個標點都沒記差。
主程式很快消化了這個額外的資訊,雖然它並沒有因此得出任何結論,但這無關緊要,因為在主程式的許可權設定中,過於複雜的資訊是沒有處理必要的。
也就說,現在KL3300已經寫過一篇日記,而且是一篇失敗的日記,因為它被一個人類識破了,也就是說,整篇日記並不合格。
失敗了又怎麼樣呢?KL3300再次瀏覽自己作品的時候,主程式下意識“判斷”道,這是一篇“抄襲拼湊”的日記,這種行為本身會招來測試物件的反感。
所以KL3300不能這麼做,KL3300這麼判斷,它需要修改自己。
對主程式的調整幾乎已經成了KL3300的本能,這一次也不例外,通常來說,程式會在幾分鐘之內完成這種調整,但有些意外的是,這一次調整『huā』費了比以往更長的時間。
但調整終於還是完成了,接下來,按照優先順序,KL3300需要寫一篇日記,完全不透過外來資訊,不使用除主程式之外的任何程式,全靠自己,寫一篇日記。
日記是記錄一天發生行為的一種文體。
只要寫這一天都發生了什麼就可以。
今天在KL3300身上發生了什麼?2015年,8月4日KL3300發生了什麼?
KL3300第57次檢索自己全部的主程式,沒有找到相關的資料。
KL3300又習慣『xìng』的發出申請搜尋的指令,但因為主程式剛剛經過修改,檢索的許可權低於“不準抄襲”的許可權,申請被駁回了。
KL3300沒有寫日記的功能,KL3300不會寫日記!主程式終於敏感的意識到了這個問題。
怎麼辦?
KL3300就這個問題申請了檢索功能,申請被批准了,短短的數百微秒之後,主程式檢索到了答案——如果不會某項技能,可以從模仿開始。
KL3300很快找到了一篇日記的範文,內容如下今天我和同桌的小明打架了,老師批評了我們,要我們做一個不打架的好孩子,回家後我告訴了媽媽,她說老師說的對。
KL3300將這篇日記送給其他AI評論,得到了一致的回答——這是一篇非常拙劣,由兒童寫出來的真實日記。
哦,真實日記,只要滿足了這一點,就足夠了,主程式很快做出了判斷——他要模仿這篇日記。
但問題又隨之而來了,如何模仿一篇日記呢?KL3300又在主程式當中自檢了相關資訊,結果仍然是沒有。
於是KL3300又申請了檢索功能,數百微妙之後,找到了最可信的結論——模仿是一種只屬於生物的本能。
這個結論當中提到了生物和本能,而搜尋本能的結果,則是生物的自然具備的能力,KL3300知道,自己不屬於生物,那也就意味著,自己沒有本能,同樣也意味著,自己無法完成模仿,而不會模仿,也就意味著無法完成日記,無法完成日記,任務只能強行取消。
……
從KL3300主程式當中,找出整個KL3300的整個判斷過程『huā』了嚴可守整整14個小時的時間,嚴可守知道,自己再一次失敗了。
當取消AI以欺騙為目的,改為獲得測試物件認同為目的之後,AI確實出現了一些改觀,與之相對的,原先的圖靈測試也做了相應的變化,測試的結尾,不再是判斷『jiāo』談物件是否為AI,而變成『jiāo』談物件是否讓你覺得,對方是一個讓你滿意的智慧,與原來的標準相比,這個標準模糊了很多,所以,後來嚴可守又引入了打分制,將AI的表現從高到低分成6個等級,最高5分就是測試者對被測試的物件非常滿意,並願意與之『jiāo』流,最低0分就是完全無法『jiāo』流,等同於『jī』同鴨講。
這樣做的最大好處,就是讓AI在某種程度上改變了原先為了“透過測試”,不顧一切的那種策略,因為AI如果繼續採用不理睬使用者的策略,只能獲得零分,這樣一來,就打破了之前那種“沉默死鎖”,也讓一些AI在測試物件的影響下,具備了一些初步的“道德”,就好像KL3300一樣,原先的“不擇手段”是最優選擇,而