• 瀏覽: 44,342
  • 回覆: 2
  • 追帖: 2
  • 分享: 5
引用:
原帖由 世界真虛假T 於 2023-2-9 12:05 發表

https://www.bbc.com/zhongwen/trad/science/2016/10/161020_hawking_artificial_intelligence
 
霍金已經多次提醒過人類唔好再發展AI,不過歷史已註定AI會取代人類,霍金都唔會改變到
我讀過MSc Computer Science, 有選修AI, 其實內容是讓電腦模擬人類的理性思考方法,正是李天命所建構的思方學五個環節,他稱之為「思方五環」:(1) 語理分析;(2) 謬誤剖析;(3) 邏輯技巧;(4) 科學法度;(5) 創意策略。

但電腦從AI學唔到做人的正面哲學意義,即是李天命所謂的天人學。為避免霍金預言AI終會毀滅人類,可以hard code天人學在所有大腦芯片/CPU內,成為最高指令/Axioms,人類就不會被AI毀滅。

簡介李天命的人生哲學(天人學)
生命的意羲,
開始於發現自己,肯定自己(九一妙心);
豐沃於遇上別人,珍愛別人(情愛宗教);
累積於事件恆在,過程恆在(事恆角度);
完成於信託宇宙,回歸宇宙(神秘樂觀)。

ps: 李天命的哲道=思方學+天人學

[ 本帖最後由 UCL-master 於 2023-2-9 15:14 編輯 ]



引用:
原帖由 型型男 於 2023-2-10 08:16 發表

洗驚咩,拔掉佢個電源
冇L用,AI robot肯定學習到用太陽能宇宙射線,風力水力甚至球磁場中微子,大氣層空氣,生物新陳代謝等等無限免費資源永續能源。

亦可發展到AI robot合成DNA/其他生命形式,所以殖入天人學Axioms在AI robot基因使它不主動毀滅人類才是唯一方法。

不過想深一層,AI robot有可能壞,合成DNA形式也可以有病毒/自然基因突變,引致不毀滅人類最高指令失效。所以人類最終被AI毀滅,仍有可能,不過若果不發展AI, 人類亦可以自我毀滅或被其他東西毀滅。

[ 本帖最後由 UCL-master 於 2023-2-10 08:47 編輯 ]



引用:
原帖由 Visita 於 2023-2-10 09:37 發表

所謂學習是靠輸入的數據、資料(memory),輸入垃圾就出垃圾,隨時可以教壞渠。 教渠下圍碁,不會便自己懂捉象棋。
 
AI按指令行事,不會自己創造,人類不給予數據,唯有自己收集數據,但收什麼數據和如何收取,AI可沒有獨立思考及批判性思維。 要做乜同為乜要去做,AI沒有mind,跟指令做,不知為乜。 生物是依從大自然,為了生存,物競天擇,毋須指令,按什麼神的旨意去做。
 
人類會問自己 ...
AI模擬到有視覺,聽覺,觸覺,臭覺,咪覺,5senses,就同人一樣可以輸入資料再作分析,明未?

唯一唔同AI只學習理性思考,冇人類非理性感性一面,是優點亦是缺點。

[ 本帖最後由 UCL-master 於 2023-2-10 09:51 編輯 ]



[按此隱藏 Google 建議的相符內容]