https://www.siliconrepublic.com/machines/neuroscientist-humanising-ai-intelligence-emotion-machine
認知神經科學教授 Guillaume Thierry 論述現今人工智慧的本質及其潛在危險。Thierry 教授指出,目前的人工智慧並非真正具有思考能力的個體,而僅是基於大量數據訓練的統計機器,透過預測下一個字詞來生成文本,缺乏真正的理解、意識和知識。他認為,由於人工智慧缺乏身體、感官和情緒體驗,因此不可能產生像人類一樣的意識。 文章警告將人工智慧擬人化的危險性。賦予人工智慧人類的面孔、聲音和語氣會觸發人類的擬人化反射,導致人們誤以為人工智慧具有人類的特質,例如同理心和意識。這種誤解可能造成人們過度信任人工智慧,將其視為朋友或夥伴,進而被操控或利用。Thierry 教授呼籲停止將人工智慧擬人化,並建議科技公司移除人工智慧回應中所有與情緒、判斷或認知過程相關的描述,以避免混淆。 Thierry 教授強調,人工智慧本身並非威脅,真正的危險在於控制它的人類或系統。他以石斧到原子彈的比喻說明,人工智慧如同其他工具一樣,也可能被武器化。文章最後建議使用者在與人工智慧互動時,明確指示其避免使用第一人稱、情緒化或認知性詞彙,並採用機器人般的語氣,以保持彼此的角色界線。
這篇文章點出了當前人們面對人工智慧發展時容易陷入的迷思,也就是將其過度擬人化。作者以專業的角度,清楚地解釋了現階段人工智慧的運作方式,並點明其缺乏真正意識和理解能力的事實。我認同作者的觀點,將人工智慧擬人化的確存在風險,容易使人們產生過度的信任和依賴,忽略其背後操控者的意圖。 然而,我也認為,隨著科技的發展,人工智慧的運作模式和能力也可能持續進化。雖然目前人工智慧主要基於數據訓練,但未來或許有可能發展出更接近人類思維模式的人工智慧。因此,除了保持警覺,避免過度擬人化之外,我們也應該持續關注人工智慧的發展,並思考如何更好地利用其優勢,同時降低其潛在風險。文章中提到的與人工智慧互動的技巧,例如要求其使用第三人稱、避免情緒化詞彙等,也值得參考,有助於我們在使用人工智慧工具時,保持客觀和理性的態度。
沒有留言:
張貼留言