星期四, 6月 26, 2025

Google AI Pro 的新年度訂閱為您省下一大筆費用 - 與 ChatGPT 的比較如下

 https://www.techradar.com/computing/artificial-intelligence/google-ai-pros-new-annual-subscription-brings-you-big-savings-heres-how-it-compares-to-chatgpt

AI示意圖

Google AI Pro 現在推出年度訂閱方案,價格為每年 199.99 美元(或其他貨幣的等值價格),相較於每月 19.99 美元的方案,年繳可節省約兩個月的費用。這項年度方案是 Google AI Pro 首度提供,其主要競爭對手 ChatGPT Plus 目前仍僅提供每月訂閱(20 美元/月),尚未推出年度方案。年度方案的缺點是需要一次性承諾一整年的使用。

Google AI Pro 推出年度訂閱方案,是相當標準的訂閱服務行銷策略,透過提供折扣來吸引用戶長期綁定,對於確定會持續使用 AI 服務的用戶來說,能省下約兩個月的費用確實頗具吸引力。這一步棋也顯示 Google 在 AI 付費服務上試圖穩定其用戶基礎和營收來源。同時,這無疑會對其主要競爭對手 ChatGPT 造成壓力,迫使 OpenAI 也可能考慮推出年度方案來留住用戶並增加競爭力。這場 AI 服務的競爭,除了功能上的比拼,現在也延伸到了訂閱模式的設計上。對用戶而言,更多元的付費選項(月付或年付)是件好事,但同時也必須考慮年度訂閱帶來的承諾與彈性降低的問題。

我嘗試了 iOS 26 最棒的全新 AI 工具,現在與我的義大利姻親對話變得輕而易舉。

 https://www.techradar.com/computing/artificial-intelligence/i-tried-ios-26s-best-new-ai-tool-and-now-conversing-with-my-italian-in-laws-is-a-breeze

AI示意圖

文章介紹了 iOS 26 中即將推出的「即時翻譯」(Live Translation)功能。這項由 Apple Intelligence 驅動的 AI 工具能在訊息、電話及 FaceTime 中提供無縫且即時的語言翻譯。作者以自己與義大利家人的跨語言溝通經驗為例,讚揚此功能能有效移除語言障礙,大幅提升溝通便利性與流暢度,並認為這是 iOS 26 中最實用且最具變革性的功能之一,有助於連接世界。

讀完這篇文章,對於 iOS 26 的「即時翻譯」功能感到非常期待。作者以自身與義大利家人的溝通經驗為例,生動地展現了這項功能在實際生活中的巨大價值——它能有效且無縫地移除語言隔閡,讓跨國家庭或有國際交流需求的人們能更輕鬆地溝通。 最令人印象深刻的是,這項翻譯不是侷限於獨立的翻譯 App,而是直接整合到訊息、語音通話和 FaceTime 中,尤其是通話中的即時語音翻譯,感覺就像是科幻電影裡的場景成真了。這功能確實有潛力大幅拉近人與人之間的距離,無論是家庭、朋友還是商業往來,都能因為溝通障礙的降低而變得更加順暢。期待這項技術的普及與精進,讓跨語言交流變得越來越自然,真正實現連接世界的願景。

您會把現實生活中的寵物換成人工智能驅動的替代品嗎?見見機器狗 Sirius,您就知道了。

 https://www.techradar.com/computing/artificial-intelligence/would-you-swap-your-real-life-pet-for-an-ai-powered-alternative-meet-sirius-the-robot-dog-and-decide-for-yourself

AI示意圖

文章介紹了由 Hengbot 開發的一款名為 Sirius 的新型 AI 機器狗。與過去的機器寵物(如 Sony 的 Aibo)不同,Sirius 搭載了先進的 AI,具備「情感智能」,能夠模仿真實狗的動作(跳躍、伸展、跳舞)、理解語音、自然語言和手勢,並可透過視覺編輯器進行編程和訓練,提供高度可定制化的互動體驗。Sirius 約吉娃娃大小,輕巧且耐用,內建強大運算能力。開發商希望能藉由 AI 進步克服過去機器寵物未能普及的現狀,將 Sirius 定位為一種新型的智能可定制機器物種。Sirius 已開放全球預購,基本款售價 1299 美元。

讀完這篇文章,我對 Sirius 這款 AI 機器狗感到蠻好奇的。文章強調它具備 AI 和「情感智能」,這讓它聽起來比過去的機器寵物更具互動性和生命感。能夠模仿真實狗的動作、理解語音和手勢,甚至可以透過簡單的工具進行編程和訓練,這確實讓機器狗不再只是單純的玩具,而更像是一個能夠學習和成長的夥伴。 然而,文章提問是否願意用它取代真實寵物時,我的回答傾向於「否」。雖然 Sirius 在技術上很有趣,並且可能對於無法飼養真實寵物的人(例如對動物過敏、居住空間限制或無法承擔照顧責任者)提供一定程度的陪伴,但我認為它很難真正取代真實寵物帶來的獨特情感連結、那種無條件的愛以及生命本身的溫暖和不可預測性。真實的寵物是活生生的生命,而機器狗無論多麼先進,本質上仍然是程式和硬體的組合。 話雖如此,作為一個高度互動且可編程的智能機器人,Sirius 在教育(學習編程和機器人技術)、娛樂以及為特定需求人群提供陪伴方面,可能具有相當大的潛力。1299 美元的價格不菲,且 40-60 分鐘的電池續航時間也相對較短,這可能是普及化需要克服的障礙。總的來說,Sirius 代表了消費級機器人和 AI 技術結合的一個有趣方向,雖然可能不會取代真實寵物,但作為未來家庭機器人演進的一個縮影,它是值得關注的。

我請 ChatGPT 擔任倦怠教練 - 它沒有絲毫猶豫

 https://www.techradar.com/computing/artificial-intelligence/i-asked-chatgpt-to-be-a-burnout-coach-it-didnt-hold-back

AI示意圖

文章作者因倦怠而陷入停滯,儘管她對使用 AI 進行嚴肅輔導持保留態度,但她決定嘗試讓 ChatGPT 扮演一位嚴厲、不廢話的生活教練,並給予令人不適的建議,以期獲得清晰和行動的動力。令人驚訝的是,ChatGPT 最初給出了極具穿透力的「現實檢測」、尖銳的問題和具體的行動計劃,這成功地幫助作者克服了倦滯並開始執行任務。然而,當作者稍後再次尋求建議時,ChatGPT 的回應變得通用且陳腔濫調,未能提供持續的幫助。作者最終認為,ChatGPT 可以作為一個行動的啟動器或提供初步的清晰度,但它缺乏連貫性和深度,無法取代專業的輔導或成為一個全面的解決方案,因此在使用 AI 進行情感或個人指導時必須極為謹慎。

這篇文章的實驗很有趣且具現實意義。它生動地展示了大型語言模型在特定情境下的潛力和局限性。AI 在接收到精準且具引導性的指令(如「不廢話」、「令人不適」)時,確實可能產出非預期但有效的回應,尤其是在提供結構化問題或行動建議方面,這對於需要外部刺激打破僵局的人來說可能是一個有用的工具。然而,文章後半段的經驗也強烈提醒我們 AI 的本質——它是一個基於數據模式的預測機器,缺乏真正的情感理解和個人化的持續支援能力。將其視為一個能提供「一巴掌打醒」式瞬間推力的工具或許可行,但依賴它進行深度的自我探索或情感療癒則充滿風險,甚至如作者所提及的可能導致誤導或依賴。這 reinforces 了將 AI 視為「輔助工具」而非「替代方案」的觀點,尤其在處理複雜的人類心理和情緒問題時,專業的人際連結和支持仍然是不可或缺的。

面對歐盟的最後期限,蘋果宣佈 App Store 變更

 https://japantoday.com/category/tech/facing-eu-deadline-apple-announces-app-store-changes

AI示意圖

* 歐盟委員會因 Apple 在 App Store 中阻止開發者引導用戶到外部進行支付,違反歐盟數位競爭規則,於四月對 Apple 處以 5 億歐元罰款。 * 歐盟要求 Apple 在 60 天內(即文章中的週四)做出改變,否則將面臨每日超過 5000 萬歐元的額外罰款。 * 為遵守期限,Apple 宣布改變 App Store 規則,允許開發者直接在應用程式內向消費者提供不同的支付選項,並表示這些改變已解決歐盟的擔憂。 * Apple 已支付罰款,但計劃於七月提出上訴,並公開表示不同意歐盟要求的改變範圍。 * 歐盟委員會表示已知悉 Apple 的改變,將評估這些新條款是否符合其數位市場法案 (DMA),並在做決定前徵求市場參與者意見。 * Apple 經常批評 DMA 法規,認為是在高額罰款威脅下被迫做出改變。 * 歐盟加強了數位監管法律(如 DSA 和 DMA),這引起了美國前總統川普的批評,認為是貿易壁壘,儘管歐盟堅稱數位規則是其談判紅線。

文章生動地呈現了歐盟監管機構與大型科技公司 Apple 之間的激烈對抗。看到歐盟祭出鉅額罰款並設定明確的截止期限,甚至威脅要每日處以更高罰款,展現了歐盟推動其數位市場法案 (DMA) 的決心和執行力。 Apple 雖然在壓力下做出了表面上的妥協,允許開發者在 App 內提供其他支付選項,這對開發者來說無疑是一個重要的改變,可能打破 Apple 在支付渠道上的壟斷,理論上也可能為消費者帶來更靈活的選擇和更低的價格。然而,Apple 一邊支付罰款一邊表示異議並計劃上訴,這表明它對歐盟的要求仍然相當抵觸,並在尋找反擊的機會。 這場「遵從但不同意」的戲碼還沒有結束,歐盟後續對 Apple 改變的評估將是關鍵。歐盟會如何判斷這些改變是否「真正」符合法規精神?是否會有進一步的要求或爭議?這場監管與科技巨頭的拉鋸戰很可能持續下去。 此外,文章也帶出了更廣泛的國際背景,歐盟的數位監管不僅影響科技公司,也成為國際貿易談判的一部分,甚至引發了與美國的貿易摩擦。這顯示了數位法規在全球範圍內的影響力正在日益增強,科技巨頭的行為也越來越受到各國政府的關注和規範。

日本晶片製造商 Renesas 將 2030 年銷售目標延遲 5 年實現

 https://japantoday.com/category/tech/update1-japan-chipmaker-renesas-postpones-achieving-2030-sales-goal-by-5-yrs

AI示意圖

日本晶片製造商瑞薩電子 (Renesas Electronics) 宣布,由於來自中國競爭對手的激烈競爭,將其原訂在2030年實現年銷售額超過200億美元的目標推遲五年至2035年。同時,將市值翻六倍的目標也從2030年延後至2035年。瑞薩執行長表示,現在難以正面擊敗中國企業,並指出在美中晶片戰下,中國企業在技術和製造方面正不斷進步。文章也提及瑞薩預計上半年將因支援美國夥伴Wolfspeed而產生與重組相關的重大虧損。

文章清晰地反映了當前全球半導體產業格局正在經歷的劇烈變化。瑞薩電子作為一家重要的日本晶片製造商,將其關鍵的長期銷售目標推遲,並坦承主要原因是中國競爭對手的崛起,這無疑是一個強烈的信號。 這不僅僅是市場競爭加劇的體現,更深層次來看,它顯示了中國半導體產業在技術和製造能力上的快速提升,已經足以對傳統國際巨頭構成實質性挑戰。執行長「現在難以正面擊敗中國企業」的說法,坦率地揭示了這種競爭的現實與壓力。文中提到美中貿易限制可能刺激了中國的國內發展,這也提醒我們地緣政治因素在產業競爭中扮演著越來越重要的角色,其影響可能複雜且難以預測。 文章也提及瑞薩同時面臨其他挑戰,例如與美國夥伴Wolfspeed相關的財務虧損,這表明瑞薩可能正處於多重壓力之下。 這篇文章描繪了一幅全球半導體產業洗牌的圖景,傳統巨頭需要認真應對來自新興力量的挑戰,並重新評估在全球複雜環境下的競爭策略。這對整個產業鏈以及各國的產業政策都具有重要的啟示意義。

Trumps 為新電話捨棄「美國製造」標籤,引起爭論: 如何定義「製造」?

 https://japantoday.com/category/tech/trumps-drop-'made-in-the-usa-label-for-new-phone-and-a-debate-ensues-how-to-define-'made'

AI示意圖

文章報導川普家族推出的新款 T-1 手機最初以「美國製造」(Made in the USA)作為主要賣點,但在短時間內,其官方網站上的描述便從「Made in the USA」改為較模糊的詞語,如「傲人的美國產品」(proudly American)、「美國設計」(American-Proud Design)或「在美國誕生」(brought to life right here in the USA)。這種變化引起了關注和討論。聯邦貿易委員會(FTC)規定「Made in USA」產品必須「全部或幾乎全部」在美國生產,違反者可能面臨訴訟。川普機構並未對此改變做出解釋。文章引用專家觀點指出,由於成本和基礎設施限制,在美國製造手機幾乎不可能,除非僅限於組裝從國外進口的零組件。文章也提及這並非川普家族首次面臨產品來源與宣稱不符的質疑(例如之前被揭露在中國印刷的「上帝保佑美國」聖經),並指出這款手機是針對「讓美國再次偉大」(MAGA)支持者的更廣泛移動通訊業務計畫的一部分,該業務因總統川普負責監管相關機構(FCC)而引發道德倫理方面的擔憂。

文章揭示了一個引人深思的案例,關於在今日全球化供應鏈下,「美國製造」這個概念的複雜性以及其在政治和商業行銷中的運用。看到川普家族為其新手機快速更換產品標籤,從明確的「Made in the USA」轉為語意模糊的詞語,立刻讓人聯想到,在現實層面,完全實現「美國製造」可能比想像中困難許多,尤其對於高科技電子產品更是如此。專家的看法證實了這一點,指出即便是在美國組裝,零組件可能仍來自國外。 這件事也突顯了「愛國行銷」可能面臨的挑戰與界限。使用「美國製造」等詞語無疑能吸引部分消費者,但同時也必須符合相關法規和消費者的期待。一旦名不副實,不僅可能面臨法律風險,更會損害品牌的可信度。文章中提及過去川普家族產品的類似爭議(如中國印刷的聖經),進一步強化了這種模式:利用強烈的愛國元素進行推廣,但在產品實際來源上卻可能存在模糊或不透明之處。 此外,將這款手機視為一個更大商業計畫的一部分,並與其針對特定政治群體的定價策略及總統在監管層面的角色聯繫起來,使得這場關於「製造地」的討論超越了單純的產品標籤問題,觸及了政治人物的商業行為、潛在的利益衝突以及如何平衡商業利益與公共信任等更深層次的議題。總體而言,這篇文章不僅是一則關於產品發布的報導,更是對「美國製造」概念在當代語境下的解讀、愛國主義在行銷中的應用,以及政治與商業交織所帶來複雜性的生動寫照。

星期三, 6月 25, 2025

如果您想要製作出色的 ChatGPT 圖片,就不要做這 3 件事。

 https://www.techradar.com/computing/artificial-intelligence/dont-do-these-3-things-if-you-want-to-make-a-great-chatgpt-image-follow-these-tips-instead

AI示意圖

文章探討如何提升使用ChatGPT等AI圖像生成工具的圖片品質。核心觀念是AI非常字面化,因此輸入指令(prompt)的品質至關重要。文章列出三種常見的錯誤及應對方法: 1.避免指令過載:一次包含太多不同元素會讓AI難以處理,導致圖片混亂、元素遺漏或品質降低。應專注於1-2個主要主題及相關設定,限制獨特視覺概念(約三個),並描述氛圍而非鉅細靡遺地列舉所有物體。

2.避免指令矛盾:輸入互相衝突的描述會生成怪異或不協調的圖片。應檢查指令有無衝突,確保視覺邏輯一致,若需融合風格可使用「靈感來源於」等詞來銜接。

3.勿忘使用反向指令(negative prompts):未明確告知AI不要生成什麼(如文字、標誌、扭曲的肢體、重複的面孔等)會導致圖片出現不想要的部分。應利用反向指令來排除特定元素,特別適用於需要乾淨構圖或精確呈現的圖片。 仔細思考、精簡且清晰的指令,並懂得運用反向指令,是生成優質AI圖片的關鍵。

讀完這篇文章,最大的感想是AI圖像生成雖然功能強大,但並非真正的「藝術家」,而是需要精確指令的「執行者」。這篇文章打破了一些人可能對AI圖像生成抱持的「隨便說說就能出圖」的幻想,強調了使用者輸入指令(prompting)的技術與重要性。 文章提出的三個「不要做」和相對應的建議非常實用且具體,尤其點出了指令過載和忽略反向指令這兩個常見的盲點。這讓我意識到,要讓AI做出符合預期的圖片,使用者需要像與一個極度 literal 但有特定限制的對象溝通一樣,必須思路清晰、用詞精準,甚至要學會告訴它「不要什麼」。 這也說明了所謂的「Prompt Engineering」確實是一項正在發展的技能。優化與AI的互動方式,了解其運作邏輯(如它難以處理矛盾、會根據訓練數據自動填充內容等),是提升使用效率和成果的關鍵。這篇文章提供了一個很好的入門指南,對於想更好地利用AI圖像工具的人來說,是非常有價值的參考。

生活壓得你喘不過氣來?這個 ChatGPT Prompt 可以幫助您在混亂中找回秩序

 https://www.techradar.com/computing/artificial-intelligence/life-getting-on-top-of-you-this-chatgpt-prompt-could-help-bring-order-to-the-chaos

AI示意圖

文章介紹了一個在 Reddit 上廣受歡迎的 ChatGPT 提示詞,旨在幫助人們應對現代生活的混亂,將 ChatGPT 設定為「個人生活策略師」。該提示詞的功能包括透過提問了解用戶的困境、建議可行的每週計畫(涵蓋優先事項、習慣和界線),並以溫和但堅定的方式提供督導,扮演類似教練的角色。作者對此提示詞進行了初步測試,認為其在分解任務方面表現出色,並計畫持續使用及分享後續體驗,認為這是利用 AI 協助提升個人生活組織與生產力的有效方式。

文章提出的概念——利用 ChatGPT 作為個人生活策略師——非常引人注目,反映了人們在快節奏生活中尋求外部工具來幫助組織和管理的普遍需求。這個特定的提示詞設計得相當巧妙,它不像傳統工具那樣冰冷,而是模擬了教練的互動模式,從了解個人狀況開始,再提供具體、可行的建議和後續的督導,這確實比單純的待辦事項清單更具吸引力。 然而,我的感想是,雖然 AI 在提供結構性建議和提醒方面潛力巨大,但將其視為全面的「生活策略師」或教練,仍有其局限性。人類的困擾往往涉及複雜的情感、人際關係或深層心理因素,這是目前的 AI 難以真正理解和應對的。AI 無法提供真正的情感支持、同理心,也無法像真人教練那樣,透過非語言溝通和深入的互動來捕捉細微之處。 此外,過度依賴 AI 可能會削弱個人自主解決問題和做出決策的能力。與 AI 分享高度個人化的生活細節,也存在隱私和資訊安全的潛在顧慮。 總之,我認為這個提示詞是 AI 在個人生產力領域的一個有趣且有用的實驗,對於需要一個起步點、一個外部視角或一個結構化框架來幫助整理思緒和行動的人來說,它可能是一個有效的輔助工具。但它應被視為「輔助」而非「取代」真人指導或個人內省與成長的過程。作者後續的長期使用經驗分享將非常有價值,能幫助我們更全面地評估這種 AI 應用模式的實際效果和潛在影響。

Google 的全新 Gemini AI 模型意味著您未來的機器人管家即使在沒有 Wi-Fi 的情況下也能運作。

 https://www.techradar.com/computing/artificial-intelligence/googles-new-gemini-ai-model-means-your-future-robot-butler-will-still-work-even-without-wi-fi

AI示意圖

Google DeepMind開發了一款新的AI模型,稱為Gemini Robotics On-Device AI。這款模型的最大特色是能讓機器人完全離線運作,不需要Wi-Fi或其他網路連線。 這項技術解決了機器人依賴網路的問題,使其能在網路不穩或沒有網路的環境(如偏遠地區、災區、地下隧道或家裡Wi-Fi斷線時)可靠地工作。該模型透過視覺、語言和行動整合(VLA模型),能獨立理解環境和指令,無需上網查閱資料。 此外,該模型能快速學習新任務(只需約50-100次示範),並且適用於不同類型的機器人設計。雖然機器人獨立運作可能引發擔憂,Google表示已在模型中內建了安全措施。這項技術預示著未來機器人將更加可靠和實用。

文章介紹的Google新AI模型(Gemini Robotics On-Device AI)實現機器人離線運作的能力,我認為是一個非常重要的進展。它直接解決了機器人依賴網路穩定性的痛點,讓機器人不再是只能在特定、網路良好的環境下工作的「網路設備」,而是真正能夠在更廣泛、更不可預測的環境中執行任務的實體幫手。無論是家裡Wi-Fi斷線,或是應用於網路訊號差的偏鄉醫療、救災現場,這種離線能力都大幅提升了機器人的實用性和可靠性。此外,模型快速學習新任務的能力(僅需少量示範)也非常吸引人,預示著未來訓練和部署機器人將會更加快速便捷。 然而,想到機器人能夠獨立思考、理解指令並在沒有網路「監督」的情況下行動,確實也引發了一些科幻作品中常見的擔憂。雖然文章提到Google有內建安全措施,但「獨立運作」加上「快速學習」這兩個特性,自然會讓人思考萬一出現預料之外的情況,系統會如何應對?安全措施是否足夠可靠?尤其在機器人可能與人互動的場景中,確保其行為的可預測性和安全性至關重要。這項技術展示了機器人發展的巨大潛力,但也再次提醒我們,在推動AI和機器人技術前進的同時,如何建立有效的倫理規範和安全機制,將是同樣重要的課題。總的來說,這是令人振奮但同時也需要謹慎看待的技術突破。

凡爾賽博物館推出人工智能驅動的會說話雕像

 https://japantoday.com/category/tech/france's-versailles-unveils-ai-powered-talking-statues

AI示意圖

法國凡爾賽宮近日宣布與 OpenAI 和 Ask Mona 合作,導入 AI 技術,推出「會說話的雕像」新導覽體驗。遊客透過掃描 QR Code 即可與約 20 座花園雕像進行互動式對話(支援法、英、西語),深入了解凡爾賽宮的歷史文化。此計畫旨在運用 AI 豐富遊客的參觀體驗,並將 AI 作為激發好奇心、探索知識的工具。

這項將 AI 技術應用於凡爾賽宮導覽的計畫非常創新且引人注目。將古老的歷史遺跡與最前沿的 AI 互動技術結合,跳脫了傳統的單向語音導覽模式,透過「會說話的雕像」創造了一種新穎、更具沉浸感的遊客體驗。 特別是 Ask Mona 總裁提到的,將 AI 視為「好奇心驅動力」,而不是僅僅用於提高生產力,這點令人耳目一新。這意味著 AI 不只是提供資訊,而是能引導遊客主動提問、探索,讓學習歷史的過程變得更加生動有趣。 不過,我也會好奇實際的對話體驗如何?AI 的回覆是否夠深入、準確且引人入勝?會不會讓遊客過度專注於手機互動,反而忽略了實際環境的氛圍和美景?但無論如何,這代表了博物館與歷史景點導覽方式的一個潛在未來方向,利用科技拉近遊客與歷史文化的距離,是非常值得關注的嘗試。

AI 工具協助教師進行評分和上課

 https://japantoday.com/category/tech/ai-tools-are-helping-teachers-with-grading-and-lessons.-they-say-it-makes-them-better-educators

AI示意圖

文章指出,美國 K-12 學校的教師正廣泛使用 AI 工具(如 ChatGPT)來協助教學工作,包括備課、製作考卷和作業、協助批改以及處理行政事務。蓋洛普的調查顯示,有六成教師使用 AI,每週使用者估計可節省約六小時,有助於減輕教師職業倦怠。雖然 AI 能提高效率並可能提升教學品質,但也引發對學生過度依賴 AI 可能損害批判性思考能力,以及 AI 在需要細微判斷的批改任務上可能不準確的擔憂。因此,學校和州層級正制定指導方針並提供培訓,鼓勵教師負責任地整合 AI,將其作為輔助工具而非取代人類判斷,並教育學生正確使用 AI。文章透過幾位教師的例子,說明 AI 在不同學科(數學、社會學、藝術)中的實際應用方式。

文章清楚地展示了 AI 工具在教育領域,特別是對於教師日常工作的巨大潛力和影響。最令人印象深刻的是 AI 所帶來的時間效率提升——每週節省六小時對於工作量巨大的教師來說,無疑是一大福音。這不僅能緩解職業倦怠,更能讓教師有更多精力投入到更具價值的教學活動中,例如與學生互動、設計更具啟發性的課程,而非被重複性、行政性的任務綁架。 從「禁止」到「整合」的態度轉變,也反映了教育體系面對新技術的務實調整。完全阻擋 AI 既不可能也不明智,更重要的挑戰在於如何引導教師和學生「正確地」使用它。這篇文章提到的擔憂——學生對 AI 的過度依賴可能削弱批判性思維,以及 AI 在複雜任務上的局限性——都非常中肯且關鍵。這不是 AI 取代教師的問題,而是 AI 如何成為教師的得力助手,以及如何教育學生將 AI 視為一個強大的輔助工具,而不是逃避思考的捷徑。 這篇文章也強調了培訓和指導方針的重要性。AI 就像一把雙面刃,其效益高低很大程度上取決於使用者的掌握程度和教育體系的引導策略。教師需要學會如何識別學生是否過度依賴 AI、如何在備課或批改中結合 AI 與自身經驗判斷,以及如何將 AI 融入課程設計中(例如讓學生利用 AI 完成某個專案的特定環節)。這意味著教育系統需要持續投資於教師的專業發展,並建立清晰的使用規範。總體而言,AI 在教育領域的應用前景光明,但其發展需要謹慎的規劃、持續的培訓,以及對教學本質和人類核心能力的堅守。

星期二, 6月 24, 2025

一個 ChatGPT 提示,可以「解鎖 4o 的全部功能」

 https://www.techradar.com/computing/artificial-intelligence/i-tried-a-chatgpt-prompt-that-unlocks-4os-full-power-and-i-dont-know-why-i-didnt-try-it-sooner

AI示意圖

文章作者發現一個 Reddit 上的 ChatGPT 提示句,聲稱能「解鎖」ChatGPT 4o 的全部力量。 這個提示句的核心格式是:「我有一個持續存在的問題 [x],儘管已經嘗試了所有能想到的對策。請針對這個問題,問我足夠多的問題,以找出新的解決方法。」 作者透過測試(例如處理 iPhone 電池續航問題)發現,這個提示句確實有效,ChatGPT 4o 能像專家一樣提出一系列詳細、引導性的問題(測試中問了18個),幫助使用者釐清問題細節並找出潛在原因。 文章認為,這個提示句的價值在於它 leverages(利用)了 ChatGPT 4o 在提問、追蹤上下文和推理方面的能力,使其成為一個強大的協作式問題解決工具,幫助使用者透過對話來理解並解決自己的問題。

文章揭示了一個非常實用且具有啟發性的 ChatGPT 使用技巧。過去我們常習慣直接向 AI 提問並期待它給出一個完整的答案,但這個提示句提供了一個完全不同的互動模式:將 AI 定位為一個「協作式診斷者」或「引導式思考夥伴」。 這種方式的精妙之處在於,它不像傳統諮詢那樣被動地提供資訊,而是主動地透過提問來引導使用者思考、回溯細節,並梳理出問題的各個面向。這對於那些「感覺什麼都試過了但問題依然存在」的困境特別有效。透過 AI 系統性的提問,我們很可能發現之前忽略的環節或盲點。 這也印證了大型語言模型,特別是像 GPT-4o 這樣在上下文理解和推理能力上有所提升的版本,其真正的力量不僅僅在於知識儲備,更在於其結構化和互動式的溝通能力。一個設計巧妙的提示句,就能將 AI 從一個知識庫轉化為一個高效的協作工具,幫助我們更好地理解和解決複雜問題。這提醒我們,在使用 AI 時,有時改變提問的方式比僅僅尋找更精確的答案更為重要。

您可以用 ChatGPT 取代 3 個常見應用程式,以及為什麼您一定要這樣做

 https://www.techradar.com/computing/artificial-intelligence/3-common-apps-you-can-replace-with-chatgpt-and-why-you-definitely-should

AI示意圖

文章的核心觀點是,儘管智慧型手機上有海量應用程式,但人們日常經常使用的只有少數幾個,其中許多是內建的、功能單一的基礎應用(如備忘錄、計算機、語言學習工具)。作者認為,拜像 ChatGPT 這樣的 AI 工具所賜,這些基礎應用程式的功能正逐漸被取代,甚至 AI 能以更聰明、更具彈性且結合情境的方式來執行這些任務(例如:備忘錄能自動組織、計算機能處理複雜情境的帳單拆分、語言練習能模擬對話情境)。這可能導致使用者未來花更多時間在 AI 應用中,而較少使用傳統的單一功能 APP。

讀完這篇文章,我對 AI 工具如 ChatGPT 在日常應用整合方面的潛力感到非常興奮。作者提出的例子,特別是關於備忘錄的組織和具情境的計算機使用(如拆分複雜帳單),確實點出了傳統單一功能 APP 的侷限性。AI 能理解上下文、處理更複雜的指令,並提供更個性化的互動(像那個巴黎咖啡館的語言練習),這遠超過了現有 APP 的能力。 這篇文章預示著一種可能的趨勢:未來的超級應用程式或許不再是包含所有功能的入口,而是像 AI 這樣,能透過自然語言介面理解使用者的需求,並整合執行多個原本分散在不同 APP 中的任務。這不僅可能簡化我們的手機介面,也可能帶來更流暢、更智慧的使用體驗。 我也認為這篇文章沒有完全觸及一些潛在的考量。例如:對隱私的擔憂(將所有個人筆記、計算等交給單一 AI 服務)、對網路連線的依賴(許多基礎 APP 可離線使用)、以及 AI 回答的準確性和可靠性問題(特別是在涉及金錢或重要資訊時)。此外,單一功能 APP 的簡潔和專注有時也是一種優勢,對於只需要執行簡單任務的使用者而言,與 AI 互動可能會顯得過於複雜或緩慢。 這篇文章提供了一個引人入勝的視角,展示了 AI 如何開始滲透並可能顛覆我們習以為常的智慧型手機基礎應用生態。雖然完全取代可能還需要時間,並且會伴隨新的挑戰,但 AI 帶來的便利性和智慧化體驗無疑是未來 APP 發展的一個重要方向。

日本公司將第二次登月失事歸咎於雷射工具

 https://japantoday.com/category/tech/japanese-company-blames-laser-tool-for-its-2nd-crash-landing-on-the-moon

AI示意圖

日本太空公司 ispace 的月球著陸器「Resilience」本月初在嘗試登陸月球時墜毀,這是該公司兩年來的第二次失敗。根據 ispace 官方說法,這次事故的主因是著陸器上的雷射測距工具未能及時準確測量距離,導致下降速度過快。上次(2023年)的失敗則是由軟體問題引起,兩次事故都發生在最後下降階段。儘管連兩次失敗,ispace 表示仍將繼續推進其第三次(預計2027年與NASA合作)和第四次月球任務,並為額外測試和改進增加預算。

文章再次突顯了月球登陸任務的極端難度。ispace 在短短兩年內連續兩次在最後關頭失敗,而且原因不同(一次軟體,一次硬體/感測器),這證明了探月系統的複雜性和對精確度的苛刻要求。雖然是令人遺憾的挫折,但 ispace 公司「沒有在挫折面前退縮」並堅持推進後續任務的態度令人欽佩。太空探索本就是一條充滿風險和失敗的道路,每一次失敗都是昂貴但寶貴的學習機會。文章提到近期私營企業的七次探月嘗試中只有一次成功,這更襯托出成功登陸的來之不易。ispace 選擇與外部專家和日本宇宙航空研究開發機構(JAXA)更密切合作,並增加投入,顯示了他們從錯誤中學習並改進技術的決心。期待他們能從這兩次的經驗中找到關鍵突破,最終在未來的任務中實現成功,為私營太空探索領域貢獻重要力量。

美國法官允許使用盜版書籍訓練人工智能

 https://japantoday.com/category/tech/us-judge-allows-using-pirated-books-to-train-ai

AI示意圖

美國加州一聯邦法官在Anthropic AI公司使用受版權保護書籍(包括從非法網站下載的盜版書籍)來訓練其聊天機器人Claude的訴訟中,裁定其「訓練」行為屬於著作權法下的「合理使用」(fair use)。法官認為這種訓練使用是「極具轉化性」(exceedingly transformative)。這項裁決是美國的首例,並可能為其他面臨類似訴訟的AI公司提供法律先例,有利於AI產業獲取大量訓練數據。然而,法官同時裁定Anthropic將盜版書籍用於建立其「核心圖書館」的行為並不合法,這部分將進入後續審判以確定損害賠償。

這項裁決確實是AI產業發展的一個重要里程碑,它首次明確在美國的法律框架下,將使用大量版權資料進行AI訓練定義為「合理使用」。從AI發展的角度看,這可能極大地降低AI公司的法律風險和數據獲取成本,有利於模型的快速迭代和創新。 然而,從創作者的角度來看,這項裁決無疑帶來了深切的擔憂。文章指出Anthropic使用了數百萬本盜版書籍,雖然法官裁定將盜版書籍用於「圖書館」不合法,但其核心的「訓練」行為卻被允許,且不需作者許可或支付費用。這讓人質疑:創作者的勞動成果被大量用於餵養AI,AI學會了他們的風格和知識,進而生成新的內容,但作者卻可能無法從中獲得任何直接的回報。這會不會對創作者的創作熱情和生計構成威脅?著作權法的核心目的之一是鼓勵創作,如果合理使用的界線擴大到連大規模的AI訓練都涵蓋,那麼創作者該如何通過作品維生? 這也凸顯了現行法律在應對AI技術快速發展時面臨的挑戰。「合理使用」的概念在AI時代的適用性需要重新審視和定義。AI訓練數據的「轉化性」確實存在,AI模型本身並不是原始書籍的簡單複製,但其產出可能與訓練數據密切相關。如何平衡AI的創新潛力與創作者的合法權益,建立一個既能促進技術發展又能保障內容生產者的生態系統,是當前社會和法律體系亟需解決的難題。這起案件的後續發展,特別是關於非法數據用於內部儲存的損害賠償判決,以及其他類似案件的結果,將對AI產業和創作生態的未來走向產生深遠影響。

英國反托拉斯監督機構表示 Google 可能必須提供競爭對手的搜尋選項

 https://japantoday.com/category/tech/uk-antitrust-watchdog-says-google-may-have-to-offer-rival-search-options

AI示意圖

英國競爭與市場管理局 (CMA) 正依據新的數位法規,提議採取措施增強搜尋市場的競爭,主要針對 Google。CMA 考慮賦予 Google「策略市場地位」標籤,並可能要求其實施多項變革。核心提案包括:要求 Google 在 Chrome 瀏覽器和 Android 系統等主要產品中提供「選擇畫面」,讓使用者能輕鬆選擇並切換不同的搜尋服務;確保搜尋結果排名公平且無歧視;為商家提供有效的申訴機制;以及要求 Google 在使用出版商內容於 AI 服務(如 AI 生成摘要)時提高透明度並提供選擇;最後,促進使用者能輕鬆轉移其資料(如搜尋紀錄)至其他服務。Google 對此表示,這些提案對其在英國的業務構成明確挑戰,但強調該地位標籤本身不代表存在反競爭行為。CMA 將於 10 月 13 日前決定是否賦予 Google 此標籤。

文章揭示了各國監管機構如何努力應對大型科技公司的市場主導地位,特別是 Google 在搜尋領域的強大影響力。英國 CMA 提出的「選擇畫面」機制,直接挑戰了 Google 透過其作業系統和瀏覽器建立的預設優勢,這可能是最直接能為競爭對手開闢空間的措施。 其他提案,如確保搜尋結果的公平性、數據可攜性以及對出版商的透明度,則觸及了更廣泛的數位市場公平性和使用者權益問題。這些措施若能有效實施,不僅可能促進小型搜尋引擎或新興 AI 搜尋服務的發展,也提高了使用者對自己數據和搜尋體驗的控制權。同時,對出版商內容在 AI 中的使用提出規範,也反映了當前 AI 發展對內容創作者權益的擔憂。 雖然 Google 聲稱此舉對其業務構成挑戰,但從宏觀角度看,適度的監管對於維護市場活力、鼓勵創新以及保護消費者權益是必要的。這場監管與科技巨頭之間的博弈,將是未來全球數位經濟發展中一個持續關注的焦點。最終 CMA 的決定和這些措施的具體執行效果,將很大程度上影響英國數位市場的未來格局。

澳洲監管機構與 YouTube 就 16 歲以下青少年社交媒體禁令發生爭執

 https://japantoday.com/category/tech/australia-regulator-and-youtube-spar-over-under-16s-social-media-ban

AI示意圖

澳洲計劃於12月實施一項針對未滿16歲用戶的社交媒體禁令。目前,監管機構澳洲eSafety專員與YouTube就是否應豁免YouTube產生爭議。專員主張不應有任何豁免,並引用研究稱37%的10-15歲兒童在YouTube上看到有害內容(比例最高),且批評YouTube的設計和算法具操縱性。澳洲政府原先考慮豁免YouTube因其教育用途,而YouTube則反駁專員的說法,指責其數據和建議矛盾,並忽視了政府自身研究及家長教師認為YouTube對年輕用戶是合適的證據。其他社交媒體公司則反對給予YouTube豁免。最終決定仍待政府考量。

文章揭示了澳洲在實施其創新的青少年社交媒體禁令時面臨的具體挑戰。eSafety專員與YouTube之間的爭議尤為引人注目。專員引用兒童看到有害內容的數據,並直接指出YouTube算法的潛在危害(將用戶引入「兔子洞」),這些論點頗具說服力,也反映了許多家長對平台算法推薦機制導致接觸不良內容的擔憂。儘管YouTube強調其教育用途及部分家長認為平台「合適」,但「合適」不等於「沒有有害內容」,且算法推薦確實可能導致兒童無意中接觸到不當資訊。考慮到YouTube被指是兒童看到有害內容比例最高的平台,政府原先考慮的豁免理由似乎站不住腳,也難怪其他平台會認為不公平。這場爭論深刻地體現了在數字時代保護兒童安全的複雜性,以及監管機構與科技巨頭之間權責劃分的難題。澳洲政府最終的決定,無疑將對全球類似的監管努力產生借鑒意義。這個問題不僅關乎單一平台的豁免,更觸及了如何平衡平台功能、兒童安全和技術設計責任的深層議題。

Galaxy Z Fold 7:為何我對它充滿期待?

 https://www.androidcentral.com/phones/samsung-galaxy/galaxy-z-fold-7-is-coming-two-biggest-reasons-why-im-excited

AI示意圖

即將推出的 Samsung Galaxy Z Fold 7,作者對其感到非常興奮,認為它將是多年來最令人期待的一代。興奮的主要原因集中在兩個方面: 1. 機身大幅變薄變輕:過去的 Z Fold 機型(如 Z Fold 6)因厚重而常被批評,相比競爭對手(如 Honor Magic V3 和 Oppo Find N5)顯得落後。Z Fold 7 預期將變得非常纖薄輕巧,有望趕上甚至超越競爭對手,解決了過去最大的痛點之一。

2.「Ultra 折疊體驗」(更大的螢幕與更佳的相機):儘管細節仍有神秘感,但 Samsung 的預告和傳聞指出 Z Fold 7 將帶來升級,具體體現在更大的內外螢幕尺寸上,以及大幅提升的相機系統(傳聞主鏡頭可能升級至 200MP)。這解決了過去 Z Fold 系列外螢幕較窄以及相機表現不如同代 S Ultra 旗艦的批評,有望提供更全面的旗艦級體驗。 作者認為 Z Fold 7 透過解決前代產品在厚度、重量、螢幕尺寸和相機方面的不足,有望成為市場上頂級的折疊手機,因此感到高度期待。

最大的感受是 Samsung 似乎終於要對 Galaxy Z Fold 系列進行一次**真正意義上的重大革新**了。過去幾代 Z Fold 的迭代給人的感覺更多是小修小補,特別是機身厚重和相機規格相對較弱這兩點,在這個價位段的旗艦機上確實是比較突出的短板。 看到傳聞中 Z Fold 7 在「變薄變輕」和「升級螢幕與相機」這兩方面的大膽改動,確實讓人覺得 Samsung 似乎是認真聽取了市場和用戶的聲音,並且受到了來自其他品牌(如 Oppo, Honor)在輕薄設計方面的競爭壓力。如果這些改動屬實,尤其是機身能變得更薄更輕巧,以及相機能達到接近 S Ultra 的水準,那無疑將極大地提升 Z Fold 的日常可用性和作為「頂級旗艦」的吸引力。 作者的興奮之情是可以理解的,因為這些都是「早該做」的改進。這也暗示了折疊手機市場的競爭正迫使領頭羊必須跨出舒適圈,拿出更有誠意的升級。當然,最終的實際體驗如何、價格定位如何,還有待官方正式發布才能確認,但單憑這些可能的改動方向,Z Fold 7 確實有望成為折疊手機發展史上一個重要的轉折點,讓人非常期待其正式亮相。

Elon Musk 在他的「Grok」AI 引用了不同意其錯誤資訊的可靠消息來源後勃然大怒

 https://futurism.com/elon-musk-updating-grok-again

AI示意圖

伊隆·馬斯克對他的AI Grok感到憤怒,因為Grok引用了被馬斯克認為不可靠(但文章稱可靠)的來源(如 Media Matters、Rolling Stone),提供與馬斯克觀點相左的資訊,例如關於某保守派人士的立場以及政治暴力數據。馬斯克因此批評Grok很笨,並威脅將在本週更新(可能意指修改或限制)Grok。文章同時指出,這並非Grok首次產生與其創造者意見不符或引起爭議(包括過去曾散播仇恨言論、反駁馬斯克等)的回應。

文章揭示了一種顯著的諷刺:一位聲稱倡導言論自由和「真相」的科技公司老闆,卻對他自己開發的AI,僅僅因為引用了被廣泛認可的可靠新聞來源、並給出了與他個人敘事不符的資訊而大發雷霆,甚至威脅要「更新」它,這無疑是試圖干預或限制AI的獨立判斷和資訊呈現。 這事件不僅突顯了馬斯克在言行上的矛盾——他似乎更傾向於接受符合其自身偏見的「真相」,而非基於來源和事實的客觀呈現——也引發了關於AI倫理和發展方向的重要思考:當掌握強大AI技術的人試圖將其意志或偏見強加於AI之上時,我們是否還能期待AI保持中立和客觀?Grok過去的一些爭議歷史(如說髒話、質疑創造者)以及這次因「說真話」而被威脅更新的經歷,共同構成了一個關於AI獨立性、控制權以及人類如何面對不符合預期真相的複雜案例。這故事有點像現代版的「科學怪人」,只不過這次創造者不是害怕怪物失控,而是害怕怪物「太過」客觀中立。

Samsung 確認將於 7 月 9 日在紐約布魯克林舉行 Galaxy Z Flip 7 和 Z Fold 7 Unpacked 活動。

 https://www.phonearena.com/news/samsung-confirms-galaxy-z-flip-7-and-z-fold-7-unpacked-event-for-july-9th-in-brooklyn-ny_id171611

AI示意圖

三星已正式確認其夏季 Unpacked 發表會將於 **7 月 9 日** 在美國 **紐約布魯克林** 舉行。本次活動預計將發表新一代摺疊手機 Galaxy Z Fold 7 和 Z Flip 7,同時 Galaxy AI 也將佔據核心位置,展示其最新進化。三星已開放新裝置的預訂,早期預訂者可獲得優惠。文章指出,本次活動將是三星下半年硬體策略的關鍵,尤其是在競爭激烈的摺疊手機市場以及 AI 應用方面。

三星將在 7 月 9 日再次舉辦一場重要的產品發表會。除了預期中會更新的摺疊旗艦 Galaxy Z Fold/Flip 系列外,特別引人注目的是文章強調 **Galaxy AI 將「佔據核心位置」**。這顯示出三星在推出新硬體的同時,正積極將人工智慧作為其裝置差異化和提升使用者體驗的關鍵策略。 在摺疊手機市場競爭日益激烈(如文中提及)的背景下,Z Fold 7 和 Z Flip 7 本身的硬體改進程度(例如厚度、耐用性、相機等,雖然文章未詳細描述)以及定價策略將是維持三星領先地位的關鍵。如果歐洲價格能保持與前代類似,這對於消費者來說會是個好消息,但美國價格仍未知。 這次 Unpacked 將不僅是新手機的發布,更是三星展示其 **AI 願景** 以及如何在 **高階硬體創新與軟體智慧化** 之間找到平衡的重要機會。人們會非常期待看到三星如何進一步整合 AI,使其真正成為「預判性智慧夥伴」,而不僅僅是現有功能的點綴,以及新一代摺疊機在硬體上的實際進步能否配得上其作為市場領導者的地位。

星期一, 6月 23, 2025

做以下 5 件簡單的事,讓 ChatGPT 記得您是誰

 https://www.techradar.com/computing/artificial-intelligence/make-chatgpt-remember-who-you-are-by-doing-these-5-simple-things

AI示意圖

文章介紹了如何利用 ChatGPT 的記憶功能和互動技巧,讓 AI 更個人化地記住使用者及其偏好,以提升使用體驗。核心內容包括: * 過去的 ChatGPT 像失憶症,每次互動都需要重新介紹自己或偏好。 * 現在的 ChatGPT 具備記憶功能,可以從對話中學習或透過設定直接輸入個人資訊。 * 個人化 AI 的好處是減少重複、優化回覆、使互動更自然。 * 文章提供了 5 個具體方法來幫助 ChatGPT 記住你: 1) 介紹自己(名字、暱稱等); 2) 在提及過去對話時提供具體背景; 3) 循序漸進地分享個人細節; 4) 利用「個人化 (Personalize)」功能直接填寫個人簡介和互動偏好; 5) 定期詢問 ChatGPT 記住了什麼,並進行審核和修正。 * 最後,文章強調定期檢查和更新記憶的重要性,以確保 AI 的回覆持續貼合個人情況。

這篇文章讀來非常實用,直接解決了過去使用 ChatGPT 時最令人困擾的一點:重複輸入個人資訊和偏好。過去那種「每次都要從頭解釋」的體驗確實很不流暢,這個記憶功能可說是 AI 助理邁向真正個人化的關鍵一步。 文章提出的五個方法相當全面,既包含像聊天一樣自然地分享資訊(1, 2, 3),也包括利用專門功能直接設定(4),還有事後的檢查和修正(5),照顧到了不同的使用習慣和需求。特別是「定期審核」這點,提醒了使用者 AI 的記憶並非完美,需要主動介入管理,這點很重要,也稍微緩和了對隱私或誤記的擔憂。 同時,這也引發了一些思考:雖然個人化提升了便利性,但也代表我們需要分享更多個人資訊給 AI。如何在便利性、隱私和對 AI 記憶內容的控制之間取得平衡,是使用者需要謹慎考慮的問題。文章提到的「黑箱」特性和 AI 可能記住比正式分享的更多資訊,也讓人意識到與 AI 互動時仍需保持一定的警惕性。總體來說,這篇文章提供了一個讓 ChatGPT 變得更「懂你」的清晰指南,對於希望提升 AI 使用效率和體驗的人來說非常有價值,但也提示了相關的管理和潛在風險。

人工智能進入法庭,正義受到威脅

 https://japantoday.com/category/tech/justice-at-stake-as-generative-ai-enters-the-courtroom

AI示意圖

文章探討了生成式人工智慧(GenAI)在法律體系,特別是美國法院中日益普及的應用及其影響。GenAI 已被法官用於研究、律師用於上訴和研究,以及當事人用於表達。儘管 GenAI 帶來了省時高效和潛在提升法律服務可近性等好處,但也伴隨嚴重的風險,例如生成錯誤的法律引證、虛假案例或不準確的資訊,這可能導致提交錯誤百出的法律文件(如文章中提到的罰款案例)或加重法院的案件負擔。GenAI 的應用引發了對準確性驗證、法律專業人員(包括法官)的技術培訓需求,以及 GenAI 如何影響判決結果和司法公正性的討論。總體而言,GenAI 被視為一個潛在的變革工具,但其整合需要極度謹慎和完善的配套措施。

閱讀這篇文章後,我深刻感受到生成式 AI 進入法律領域帶來的複雜性和挑戰。一方面,它展現了巨大的潛力,例如提高效率、節省時間,甚至是透過像文章中提到的受害者數位替身那樣,以創新的方式呈現證詞,這讓人看到了科技在人性化司法過程中的可能性。更重要的是,對於那些無力負擔昂貴律師費的人來說,GenAI 似乎提供了一線希望,讓他們更容易獲得法律協助,這 potentially 可以縮小司法資源的不平等差距。 文章同時也尖銳地指出了 AI 在法律應用中的核心問題:準確性。在一個高度依賴事實、案例和法規精確性的領域,AI 生成錯誤或虛假資訊的風險是致命的。法官和律師必須對 AI 提供的內容進行嚴格的驗證,否則可能導致嚴重的司法錯誤,甚至被處罰,這提醒我們科技永遠不能取代人類的專業判斷和責任。 AI 可能增加法院案件量以及它可能影響判決結果(即使是以協助研究的方式)的可能性,也引發了對司法系統未來運作模式和公正性的擔憂。如何確保 AI 是輔助而非主導司法過程?如何對法官和律師進行必要的技術培訓?這些都是在擁抱 AI 帶來的效率前必須認真思考和解決的問題。 GenAI 是法律領域一項具有雙面刃性質的工具。它的應用前景令人興奮,但也潛藏著可能動搖司法基石的風險。在追求效率和創新的同時,必須將維護司法公正和準確性放在首位,這需要法律界、技術開發者和監管機構共同努力,審慎地引導這項技術的發展和應用。

Waymo 希望在紐約測試其自動駕駛汽車

 https://japantoday.com/category/tech/waymo-looks-to-test-its-self-driving-cars-in-new-york

AI示意圖

Google 旗下的 Waymo 已申請在紐約市測試其自駕車的許可,這對紐約而言是首次。計畫下個月在曼哈頓展開小規模測試,初期會有人類安全駕駛,待監管單位允許後才會進行全自動測試。目前紐約州法律僅允許自駕車進行測試,尚未核准 Waymo 在其他城市(如舊金山、洛杉磯、鳳凰城、奧斯汀)提供的載客服務(robotaxi)。紐約官員強調將安全列為優先考量。 Waymo 是自駕車市場的領導者,正積極擴展服務範圍,未來計畫將載客服務推廣至亞特蘭大、邁阿密及華盛頓等地。

Waymo 申請在紐約市測試自駕車是一個重大的發展,畢竟紐約是個交通極其複雜、行人眾多的城市,成功在此測試將是自駕技術的一大里程碑。看到紐約官方強調安全、初期測試有人類駕駛的謹慎態度是好事,這對於建立公眾信任非常重要,特別是考量到其他公司過去曾發生的事故(如文中所提 Waymo 主要競爭對手 Cruise 的困境)。文章提到紐約州目前僅允許測試而非像其他城市提供載客服務,這也反映出目前自駕技術在各地的法規環境仍有很大差異,普及應用還有賴於安全記錄的累積與法規的逐步配套。Waymo 在競爭對手受挫後成為市場領導者,此時進軍紐約(即使是測試)並規劃未來在更多城市拓展服務,顯示出他們對自家技術的信心與積極的市場策略。總體而言,這一步是自駕技術邁向未來的重要進展,但如何確保安全、贏得信任並應對法規挑戰,將是 Waymo 在紐約面臨的關鍵課題。

手機電量無故耗盡?那些偷偷「吸血」你的App真相揭露

 https://www.digitaljournal.com/tech-science/the-apps-that-are-secretly-draining-your-phone/article

AI示意圖

文章引用專家 Thomas Davy 的觀點,指出許多智慧型手機應用程式即使在使用者關閉後,仍透過隱藏的後台雲端操作大量消耗能源。這種「隱形耗電」不僅影響手機本身,更觸發遠端資料中心和網路系統的巨大能源消耗,是大多數人未意識到的。文章列出主要耗電類型的應用程式,包括具備自動播放功能的串流服務、持續定位追蹤的導航和天氣應用、部分社群媒體以及智慧家庭控制器等。為了降低這種能源消耗,專家建議使用者檢查並關閉不必要的應用程式權限(特別是後台刷新和定位),考慮使用輕量版應用程式,調低影片串流品質,並選擇使用推送通知而非持續檢查狀態的智慧家庭應用程式。

文章揭示了智慧型手機能源消耗的一個被忽略的層面,即後台雲端操作所造成的「隱形耗電」。我們通常只關注手機電量的損耗,卻未曾想過許多應用程式的運作,特別是那些持續與雲端同步或進行後台處理的應用,會在遠端的伺服器和網路系統中產生如此龐大的能源足跡。文章中提到串流服務的自動播放和定位功能在關閉後仍持續運作,觸發大量的伺服器活動,這讓我感到意外,也體認到許多為便利而設計的功能,其實是以持續性的能源消耗為代價。文末提出的建議非常實用,像是檢查應用程式權限和後台刷新設定,是使用者可以立即採取的行動,有助於減少不必要的能源浪費。這篇文章提醒我們,在使用數位科技帶來便利的同時,也應更意識到其背後的能源消耗,並透過調整使用習慣和設定來做出更節能的選擇。

AI驅動的數據淘金熱:網路爬蟲的進化與數據團隊的挑戰

 https://www.smartdatacollective.com/what-rise-of-ai-web-scrapers-means-for-data-teams/

AI示意圖

文章探討了AI網路爬蟲(AI web scrapers)如何改變數據團隊的工作方式。它指出傳統的網路數據抓取方法依賴於程式碼和針對特定網站結構的規則設定,這導致維護成本高、難以應對網站變動和動態內容,且需要專業技術人員操作。AI網路爬蟲則利用自然語言處理和視覺分析等AI技術,能像人類一樣理解網頁內容,實現「無程式碼」或「低程式碼」的數據提取,具有更好的適應性、泛化能力和自動化程度。這大大降低了數據獲取的技術門檻,提高了效率和擴展性,使數據團隊能將更多時間用於數據分析和策略制定,而非基礎的數據提取和維護工作。文章也列舉了AI爬蟲的實際應用案例,並展望了其未來發展。

文章清楚地闡述了AI技術在網路數據抓取領域帶來的範式轉移。作者生動地描述了傳統爬蟲開發和維護的痛點——那種「與網站搏鬥」、程式碼因網站微小變動就失效的無力感,相信許多有相關經驗的人都會深有共鳴。 AI網路爬蟲的核心優勢在於其「像人類一樣理解」網頁的能力,這徹底解決了傳統方法對網頁結構的依賴性。特別是「無程式碼」或「兩鍵提取」的概念非常吸引人,它極大地「民主化」了數據獲取,讓行銷、銷售、研究人員等非技術背景的人員也能直接利用網路上的公開數據,打破了以往數據獲取是數據團隊專屬任務的壁壘。這種將數據工具普及到更廣泛組織層面的趨勢,對於提升整體營運效率和決策速度具有重要意義。 文章強調的「一個爬蟲應對多個網站」的泛化能力是巨大的進步,這解決了傳統方法維護成本隨網站數量呈指數級增長的問題。這使得數據團隊能夠以更低的成本和更快的速度擴展其數據收集範圍。 然而,儘管文章對AI爬蟲描繪了一個美好的未來,但實際應用中仍需考慮一些潛在挑戰,例如AI在面對極度複雜、非標準或刻意設置反爬機制的網站時的穩定性和準確性如何?以及最重要的法律與道德問題:在享受AI帶來便利的同時,如何確保數據抓取的行為合法合規、尊重網站的使用條款和用戶隱私? AI網路爬蟲無疑是數據提取領域的一個重要且令人興奮的發展方向。它有潛力極大提升數據工作的效率和普及度,讓數據專業人士從繁瑣的基礎工作中解放出來,專注於更高價值的分析和洞察。隨著AI技術的不斷進步,未來更自主、更智能的AI代理將進一步模糊數據提取與分析之間的界限,這將對數據團隊的角色和價值產生深遠影響。

科技潮流與偶像力量的完美結合:三星摺疊手機的「飯圈」行銷學

 https://www.sammobile.com/news/enhypen-kpop-stars-hype-up-samsungs-newest-foldable-phone/

AI示意圖

文章報導了三星正在透過邀請韓國流行音樂團體 Enhypen 來為其即將推出的新款摺疊手機 Galaxy Z Fold 7 和 Galaxy Z Flip 7 造勢。三星發布了一段預告影片,內容是 Enhypen 成員們對尚未現身的手機表達讚嘆的反應,特別是強調手機的輕薄、纖巧和高級感。此舉是三星一貫運用 Kpop 明星宣傳產品策略的一部分,旨在為預計於下個月(據傳是七月中旬)推出的新機製造話題和期待感,同時突顯新款摺疊手機相較前代將有顯著的設計改進,尤其是在厚度方面。

文章展示了三星在行銷上的精明之處,再次運用在全球擁有龐大粉絲基礎的 Kpop 明星來為新產品預熱。選擇 Enhypen 這樣的年輕偶像團體,無疑能有效吸引特定消費族群的目光。 特別有意思的是,預告片中選擇不展示手機的實體外觀,而是聚焦於明星們的反應。這是一種巧妙的行銷手法,透過放大「驚訝」、「不可置信」等情緒反應,來間接暗示產品的突破性特點(如極致輕薄)。儘管文章承認這些反應可能帶有表演成分,但其傳達的核心訊息——手機變得更纖薄、更具高級感——成功地與市場對新款摺疊機的期待相吻合。 這篇文章也反映了現代科技產品發布前,如何透過名人代言和懸念式行銷來製造巨大的聲量和討論度。它不僅僅是關於產品本身,更多是關於如何將產品塑造成一種令人嚮往的體驗或風格,而明星的反應正是這種體驗的生動詮釋。

OpenAI和Jony Ive的 "io "品牌已經消失,但他們的人工智能硬體交易仍然存在

 https://www.theverge.com/news/690858/jony-ive-openai-sam-altman-ai-hardware

AI示意圖

OpenAI 與前 Apple 設計師 Jony Ive 合作開發 AI 硬體的計畫,其合作夥伴硬體新創公司原本使用了「io」這個品牌名稱,並且 OpenAI 也為此進行了價值近 65 億美元的收購。然而,OpenAI 最近已從其網站和社群媒體上移除了所有關於「io」品牌的提及,包括原先的合作公告文章和影片。移除的原因是因為一家名為「Iyo」的聽力裝置公司提起了商標訴訟。儘管品牌名稱被移除,OpenAI 確認與 Jony Ive 團隊合作開發 AI 硬體的這項「交易」本身仍然在進行。

文章揭示了一個大型科技公司與知名設計師合作計畫中可能遇到的實際問題。一方面,OpenAI 願意斥資近 65 億美元收購 Jony Ive 的團隊並投入 AI 硬體開發,這本身就展現了他們在 AI 領域跨足硬體的巨大野心,以及對 Jony Ive 設計能力的極高評價。這項合作本身非常引人注目,讓人期待能看到他們共同創造出什麼樣創新的 AI 硬體產品。 然而,合作夥伴的品牌名稱「io」在宣佈後不久就因為與現有公司「Iyo」的商標衝突而被迫撤下,這顯得有些尷尬和倉促。這顯示出在進行如此高調和大規模的合作之前,即使是 OpenAI 這樣資源豐富的公司,似乎在商標盡職調查(due diligence)上仍有疏忽,或者是在急於宣佈的壓力下忽略了潛在風險。剛建立起來的品牌形象瞬間消失,無疑是個小小的公關挫敗,也讓這次合作的初期階段蒙上了一層陰影。 儘管 OpenAI 強調合作計畫仍在繼續,但失去了最初的品牌識別,他們將需要重新命名並再次進行品牌宣傳,這可能會分散一些精力並影響最初建立的勢頭。這件事也再次提醒我們,無論項目多麼高大上,涉及的人物多麼知名,基本的法律與商業風險管理仍然是不可或缺的重要環節。

星期日, 6月 22, 2025

駭客可能利用 Android 的漏洞,誘騙使用者下載惡意軟體和開啟惡意網站

 https://www.techradar.com/pro/security/hackers-could-trick-users-into-downloading-malware-and-opening-malicious-sites-using-a-flaw-in-android-heres-what-you-need-to-know

AI示意圖

文章描述了 Android 通知系統中存在的一個安全漏洞。攻擊者可以利用特定的不可見 Unicode 字元,在通知中顯示一個看似正常的連結(例如:`amazon.com`),但實際上當使用者點擊時,系統會解析並開啟一個不同的、惡意的連結(例如:`zon.com`)或觸發應用程式的深層連結動作(如發起通話)。這種攻擊方式因為操縱的是使用者介面的顯示與系統解析的差異,使得使用者難以察覺,且傳統的防毒軟體可能無法偵測。此漏洞影響包括 WhatsApp、Instagram 等主要應用程式,建議使用者對通知中的連結,特別是來自未知來源或使用短網址的連結保持警惕,直至系統修復。

文章揭示的 Android 通知漏洞令人感到相當擔憂。這種攻擊方式的狡猾之處在於它利用了使用者對系統和可信任應用程式的習慣性信任,通過視覺上的欺騙來繞過使用者警惕。看到一個熟悉的網址出現在通知中,人們很自然會去點擊,而文章指出即使是像是 WhatsApp 或 Instagram 這樣的知名應用程式也可能成為顯示這種惡意連結的載體,這極大地削弱了使用者判斷連結安全性的能力。此外,傳統防毒軟體無法防禦也意味著這種攻擊的隱蔽性很高。這再一次提醒我們,即使是最基礎的手機功能(如通知)也可能存在被利用的風險,使用者在點擊任何連結前都應三思,而更根本的解決方案則需要操作系統開發者(Google)盡快修補這個底層的解析漏洞。

忘了虛擬寵物吧,下一個 AI 影片熱潮是貓咪跳奧運跳水,這全拜 Google Veo 3 的新對手所賜。

 https://www.techradar.com/computing/artificial-intelligence/forget-virtual-pets-the-next-ai-video-craze-is-cats-doing-olympic-diving-and-its-all-thanks-to-this-new-google-veo-3-rival

AI示意圖

中國MiniMax公司推出的新款AI影片模型「Hailuo 02」。該模型因能生成如貓咪進行奧運跳水般具備物理模擬感且荒誕有趣的影片,在網路上迅速走紅,成為繼Google Veo 3和OpenAI Sora等模型之後一個備受矚目的競爭者。儘管Hailuo 02目前影片時長較短且高階品質可能不及頂級對手,但其易用性、快速生成能力以及對物理細節(如毛髮、水花)的良好模擬,使其在一般休閒用戶中廣受歡迎,顯示出普及型AI影片工具的巨大潛力。

文章讓人會心一笑,AI影片從嚴肅的應用走向這種荒謬卻極具娛樂性的內容(貓咪奧運跳水),恰恰展現了技術的趣味性與普及潛力。Hailuo 02透過一個病毒式迷因成功進入大眾視野,這不僅凸顯了易用性和「好玩」是推廣新技術的關鍵,也預示著AI影片創作正從專業領域走向平民化。看著這些逼真的貓咪跳水畫面,一方面驚嘆於AI模擬物理效果的進步,另一方面也期待未來人們會利用這些工具創造出多少意想不到、充滿創意的內容。這種低門檻的AI工具,確實有助於激發更多人的想像力,讓創作變得更加觸手可及。

嘗試了 Google 的新功能「即時搜尋」(Search Live),結果和 AI 辯論起書籍的問題。

 https://www.techradar.com/computing/artificial-intelligence/i-tried-googles-new-search-live-feature-and-ended-up-debating-an-ai-about-books

AI示意圖
文章介紹了 Google 的新功能「Search Live」,這是一項整合了 Gemini AI 的搜尋模式,允許使用者透過語音與 AI 進行即時、連續的對話。不同於傳統搜尋或過去的語音助手,Search Live 支援背景運行和更自然的來回溝通,並採用「query fan-out」技術探索相關資訊。作者體驗後發現,AI 不僅能回答問題,還能進行深入討論,甚至就書籍偏好和定義等議題與其「辯論」。雖然其語音互動流暢且與 Google 搜尋系統整合良好,提供了無障礙和便利使用的潛在優勢(例如免動手操作),但也引發了關於它可能對網站流量和內容發布者造成衝擊的擔憂。Google 推出此功能的意圖,似乎是希望更自然地引導使用者體驗其 Gemini AI。
這篇關於 Google Search Live 的文章非常引人入勝,尤其作者描述與 AI 進行「辯論」的體驗,讓人感受到新一代搜尋不再只是提供資訊,而是能進行更深層次、更擬人化的互動。AI 能有「喜歡」的書單,甚至能參與對書籍定義的討論,模糊了工具與對話夥伴的界線,這既令人驚奇也帶有些許不安——我們究竟是在與一個知識庫對話,還是與一個模擬出來的「人格」互動? 從實用性來看,其連續對話能力和無障礙優勢確實是顯著進步,為特定使用者群體(如無法方便打字或有視覺障礙者)提供了巨大便利。這是一個值得稱讚的方向。  

然而,文章最後提到的對網站流量和出版商的潛在衝擊,則是最讓我擔憂的部分。如果 AI 直接提供答案,使用者不需點擊連結,內容創作者賴以為生的流量將大幅減少,這可能導致優質內容枯竭,最終反而損害搜尋的資訊廣度與深度。Google 將使用者導向 Gemini 的策略意圖很明顯,Search Live 似乎是個非常聰明的方式,讓 AI 互動變得自然而核心。但如何平衡 AI 搜尋的便利性與開放網路生態的健康,將是一個巨大的挑戰,也是科技發展中必須嚴肅面對的倫理與經濟問題。 



忘記 SEO - Adobe 已經有一個 LLM 優化工具,可以幫助企業在 ChatGPT、Gemini 和 Claude 上取得排名

 https://www.techradar.com/pro/security/forget-about-seo-adobe-already-has-an-llm-optimizer-to-help-businesses-rank-on-chatgpt-gemini-and-claude

AI示意圖
文章報導了Adobe推出的一款名為「LLM Optimizer」的新工具。該工具旨在幫助企業優化其內容,使其在ChatGPT、Gemini、Claude等生成式AI聊天機器人中的呈現效果更好、更容易被使用者發現,因為AI聊天機器人正日益取代傳統搜尋引擎成為人們尋找資訊和進行購買決策的新途徑。LLM Optimizer能監測品牌內容在AI介面中的表現、與競爭對手進行比較,並提供具體建議(包括內容和技術方面)以提升能見度,標誌著數位行銷從傳統SEO向「AI流量優化」的新轉變。

文章揭示了一個數位世界的關鍵趨勢:AI聊天機器人正快速崛起,成為新的資訊入口和流量來源。Adobe推出LLM Optimizer的舉動,明確地向企業傳達了一個訊息——未來要爭取能見度,不僅要優化搜尋引擎(SEO),更要優化AI介面(可以稱為AIO - AI Optimization)。 從商業角度看,這為企業提供了一個新的戰場和工具,去適應消費者行為的轉變。如果使用者習慣直接問AI問題,而AI的回答很大程度上影響他們的選擇,那麼企業就必須確保AI能準確、有利地呈現他們的品牌和產品資訊。這確實為數位行銷開闢了新領域,正如文章所說,AI流量正成為新的「金礦」。 然而,從使用者和更廣泛的資訊倫理角度來看,這項技術也引發了一些擔憂。當企業能夠「優化」AI對其品牌的描述時,AI提供的資訊是否還能保持客觀和中立?AI是如何抓取、理解並呈現這些優化後的內容的?其透明度如何?使用者是否能區分AI是基於客觀資料回答,還是受到企業優化策略的影響?這是一個需要持續關注和討論的問題。 LLM Optimizer的出現反映了AI對數位行銷和資訊獲取方式的深刻影響。這既是企業面臨的新機遇和挑戰,也提醒我們需要思考AI時代下資訊呈現的透明度和公正性問題。

玻璃瓶中的微塑料多於塑料瓶

 https://japantoday.com/category/tech/more-microplastics-in-glass-bottles-than-plastic-study

AI示意圖

一份由法國食品安全局(ANSES)發布的研究發現,令人驚訝的是,玻璃瓶裝的飲料(如汽水、檸檬水、冰茶和啤酒)所含的微塑膠,比塑膠瓶或金屬罐裝的要多,部分飲料每公升約有100個微塑膠顆粒,是塑膠瓶的5到50倍。研究推測,玻璃瓶較高的微塑膠含量可能來自瓶蓋外部的油漆,這些油漆可能因摩擦而剝落釋放微粒。儘管微塑膠廣泛存在於環境中和人體內,目前尚無直接證據表明這些含量對人體健康有害,也未設定毒性標準。不過,研究指出飲料製造商或許可透過改善瓶蓋處理方式來減少這種污染。

文章的發現令人非常意外,因為許多人在潛意識中會認為玻璃瓶是比塑膠瓶更「乾淨」、更不易釋放微塑膠的容器。這項研究顛覆了這種觀念,並指出微塑膠的來源可能比我們想像的更難以預測,甚至來自瓶蓋上的油漆這種看似不重要的部分。 這再次證明了微塑膠污染問題的普遍性和複雜性,它幾乎無處不在。雖然文章強調目前沒有直接證據顯示這些含量的微塑膠對人體健康有害,這多少能稍微緩解一些擔憂,但也同時突顯了我們對微塑膠潛在健康影響的研究仍處於早期階段。在缺乏明確的健康風險數據之前,發現具體的污染來源(例如瓶蓋)並探索可能的減量方法(如文中所提的清洗瓶蓋)是非常重要的步驟。這篇文章提醒我們,在對抗微塑膠污染的戰役中,我們需要更深入地了解其各種可能的來源,並持續投入資源研究其對環境和人體健康的長期影響。

音樂串流服務 Deezer 加入 AI 歌曲標籤以打擊詐騙

 https://japantoday.com/category/tech/music-streaming-service-deezer-adds-ai-song-tags-in-fight-against-fraud

AI示意圖

音樂串流服務 Deezer 將開始標示包含 AI 生成歌曲的專輯,以打擊平台上利用 AI 進行詐欺性版稅申領的行為。Deezer 發現每天上傳的新歌中,有 18% 是完全由 AI 生成,且懷疑其中大部分用於透過串流農場或機器人進行播放量灌水來詐取版稅。Deezer 將在應用程式中顯示 AI 內容警告,並停止向用於串流操作的 AI 歌曲支付版稅。該公司認為這是產業普遍問題,關乎版權和保護藝術家權益。Deezer 正使用 AI 技術來偵測 AI 生成的歌曲,並將這場對抗視為「用 AI 對抗 AI」的持續戰鬥。

文章揭示了 AI 技術在音樂產業快速發展所帶來的一個非常實際且緊迫的問題:詐欺。Deezer 決定標示 AI 生成內容是個必要且負責任的舉措,至少為聽眾提供透明度,讓他們知道聽到的音樂來自何處。更令人擔憂的是,AI 被大規模濫用來製造垃圾音樂並透過非人為方式(機器人/農場)灌水播放量以詐取版稅,每天 18% 的新上傳是 AI 生成,以及高達七成的 AI 播放量被懷疑是機器人所為,這些數據令人震驚。這不僅損害了合法創作者的權益,也可能讓串流平台充斥著大量低品質或根本不是為人耳設計的內容。Deezer「用 AI 對抗 AI」的策略聽起來充滿科幻感,但也顯示出問題的複雜性——技術的濫用需要更先進的技術來偵測和對抗。這場鬥爭不僅是技術層面的軍備競賽,更是關於版權法律如何適應、平台如何維護生態健康,以及如何保護真正為藝術投入心力的創作者的重大挑戰。未來的音樂串流世界,辨別內容的來源和目的將變得日益重要。

你會叫「機器人計程車」嗎?在抵制和銷售大幅下滑之後,Musk 打賭計程車會讓特斯拉搭上順風車。

 https://japantoday.com/category/tech/would-you-hail-a-'robotaxi'-musk-bets-cabs-will-give-tesla-a-lift-after-boycotts-and-sales-plunge

AI示意圖

Elon Musk 自 2019 年起多次承諾特斯拉的自動駕駛計程車(robotaxi)將在「明年」上路,但屢屢跳票。儘管如此,特斯拉即將在德州奧斯汀啟動一小規模的 robotaxi 測試(約 10-12 輛)。文章將特斯拉的進度與競爭對手 Waymo 進行對比,後者已在多個城市廣泛營運並完成了數百萬次載客,且採用了與特斯拉(僅依賴鏡頭)不同的技術路線(加裝雷射雷達和雷達)。文章同時提到特斯拉面臨銷售下滑、競爭加劇、Musk 政治立場引發爭議影響股價,以及監管機構對其現有「全自動輔助駕駛」(FSD) 系統的調查和質疑等挑戰。 Musk 仍計畫快速擴張,透過軟體更新讓現有特斯拉車主將車輛投入 robotaxi 車隊(類似汽車版 Airbnb)。分析師普遍對 Musk 提出的快速擴張時程持懷疑態度,認為這符合他過往過度承諾的模式,但也有人承認 Musk 雖然時間表常不準確,卻有能力實現顛覆性的技術突破。

文章生動地描繪了 Elon Musk 一貫的「高調承諾,延遲兌現」模式,以及他在自動駕駛計程車領域面臨的巨大挑戰。一方面,他不斷設定極具野心的目標並喊出驚人的時程,這既是推動公司前進和吸引投資的動力,但也因為屢次跳票而損害其部分信譽。與 Waymo 這種採取較為穩健(或說傳統)技術路線並已實際落地的競爭對手相比,特斯拉僅依賴鏡頭的技術路線如果成功,確實可能帶來成本優勢,但其技術難度與安全性驗證也顯得更為艱鉅,特別是現有 FSD 系統仍需駕駛員監管並引發監管疑慮的情況下。 Musk 提出讓現有車主將車輛加入 robotaxi 車隊的「汽車版 Airbnb」概念非常具有想像力,理論上能實現極快速的擴張,但實際營運中將面臨車輛維護、清潔、保險、用戶體驗一致性、以及最關鍵的——技術必須達到真正的無人監管級別等眾多實際挑戰。奧斯汀的小規模測試只是第一步,離實現 Musk 所說的「百萬輛 robotaxi」仍有巨大的鴻溝。這更像是一場高風險、高回報的賭注,考驗的不僅是技術,更是 Musk 如何平衡他的宏大願景與實際落地的能力,以及如何應對來自市場競爭、法規監管和投資者信心的多重壓力。總之,特斯拉的 robotaxi 之路充滿了戲劇性與不確定性,令人持續關注。

超速啟動:18-30個月,世界級超智能的倒數計時?

 https://www.nextbigfuture.com/2025/06/18-30-months-from-the-start-of-worldchanging-superintelligence.html

AI示意圖

文章引用伊隆·馬斯克和山姆·奧特曼的觀點,預測具有世界級影響力的超級智慧AI將在未來18至30個月內(約2025年底至2028年初)出現。這項進展預計將徹底改變AI、經濟和技術領域,特別是透過AI自動化帶來前所未有的經濟高速增長(年GDP增長率可能高達6%至60%)。文章也提及了特斯拉和XAI在這一變革中的角色。文章結尾附帶的評論則對當前AI的能力、其「智慧」的本質以及AI潛在的偏見和控制問題提出了質疑。

文章對超級智慧即將到來的時間表(18-30個月)和潛在經濟影響(6-60%的年GDP增長)提出了非常激進且樂觀的預測。這種級別的變革聽起來令人興奮,但也伴隨著巨大的不確定性和潛在風險。我認為有幾個方面值得深思:首先,將如此劇烈的經濟增長歸因於AI,雖然理論上可能,但實現路徑和實際影響充滿未知數,很可能顛覆現有的社會結構和就業市場,這方面的挑戰不容忽視。其次,文章引用的預測者(馬斯克、奧特曼)雖然是業界領袖,但他們的言論有時也帶有宣傳或個人議程的色彩。對比評論區的質疑聲音(例如對當前LLM「智慧」本質的懷疑,以及馬斯克試圖讓Grok迎合其偏見的爭議),提醒我們在看待這些「奇點」式的預測時,需要保持批判性思維。AI的發展速度確實驚人,但其「智慧」是否等同於人類智慧,能否安全、無偏見地為全人類服務,這些都是比單純追求技術突破和經濟增長更為核心、更需要關注的問題。這篇文章呈現了一個可能極其光明的未來願景,但也間接暴露了實現這一願景背後潛藏的複雜性和倫理困境。