發表文章

目前顯示的是 11月, 2025的文章

AI. 架構 - 訓練資料2測試資料

圖片
 

TPU.Tense(張量)

圖片
 

AI.TPU.T張量(Tense)是什麼?TPU

圖片
  這是一個關於 AI 運算基礎 和 TPU 核心概念 的很好的提問! 您提到的「矩陣乘法加法」和「張量 (Tensor)」確實是現代 AI,特別是深度學習,最核心的運算基石。 💡 AI 運算的基礎:矩陣乘法與張量 1. 矩陣乘法與加法 (Matrix Multiplication and Addition) 在 AI 模型(例如神經網絡)中,所有的計算都歸結為大量的 線性代數運算 。 • 矩陣乘法 (Matrix Multiplication): • 這是神經網絡中最頻繁、也是 最耗時 的運算。 • 它用來模擬神經元之間的 加權求和 。 • 例如, 從一層神經元 A 傳遞到下一層神經元 B ,輸出 B 就是輸入 A 乘上該層的 權重矩陣 W 。 • 深度學習的訓練(尤其是反向傳播)和推論,絕大部分時間都在執行這一運算。 • 矩陣加法 (Matrix Addition): • 用於將不同路徑的結果或偏置項 (Bias) 疊加起來。 • 例如,在矩陣乘法後加上一個 偏置向量/矩陣 b : 2. 高維向量即「張量」 (Tensor) 您說得完全正確! 在 AI 領域,尤其是當數據維度超過二維矩陣時,我們將這些高維數據結構統稱為「 張量 (Tensor) 」 。

Nvida財報 - 泡沫化的論述

圖片
  應收帳款週轉天數:從歷史平均的46天惡化到53.3天 存貨暴增:Nvidia的存貨在一個季度內暴增32% 應收帳款暴增, 客戶欠錢越來越多。 庫存堆積如 山,晶片根本賣不掉。公司為了保持增長,硬塞貨給下游公司。 這聽起來像是一家公司泡沫破裂前夕的完美劇本。 過去幾天,一篇關於Nvidia「驚天黑幕」文章在網上瘋傳,作者洋洋灑灑,引經據典,用各種會計指標直指Nvidia的財報是一場精心策劃的騙局,一場建立在「幻影收入」之上的巨大泡沫。 罪狀1、應收帳款暴增。 作者指出Nvidia的應收帳款週轉天數從歷史平均的46天惡化到53.3天 。這聽起來就像:你開了一家店,生意看似越來越好,但客人賒帳的時間卻越拖越長。一個健康的企業,應該是現金回流越來越快,而不是越來越慢。這暗示著你的客戶可能財務困難,或者你為了催業績,給了他們無法拒絕的超長付款期。 罪狀2、 存貨暴增。作者指出Nvidia的存貨在一個季度內暴增32% 。CEO黃仁勳在電話會議上明明說需求「insane」(瘋狂),晶片供不應求。這就構成了一個巨大的矛盾:如果你開的iPhone專賣店真的賣到斷貨,你的倉庫應該是越來越空才對,怎麼可能反而在短時間內堆滿了賣不出去的iPhone? 這暗示著 需求可能遠沒有說的那麼強勁,貨都積壓在自己手裡了。這兩個指控結合起來,描繪出一個非常恐怖的畫面: Nvidia為了維持增長神話,把大量晶片硬塞給雲端大廠,但這些大廠其實消化不了,也沒打算馬上付錢。營收是「做」出來的,現金卻沒回來,倉庫裡還堆滿了產品。 這 就是典型的泡沫破裂前夕的景象 。 聽起來很可怕,對吧?Nvidia肯定就是下一個安隆了,《大賣空》原型角色Michael Burry都是對的,快點清掉了! 當恐慌蔓延時,我們更應該做的,是拿起計算機,翻開財報的附註,逐一驗證。化的

GPU vs TPU

 【TPU 會終結輝達霸業?黃仁勳說 GPU 其實更便宜是真的嗎?】 Google 的突破不是 GPU 的終點,而是算力需求新一輪爆發的起點。 每當 Google 發表新一代 TPU 晶片,市場總會響起一樣的聲音: TPU 能訓練出更強大的模型、更便宜、更省電,輝達(NVIDIA)似乎離「吃鱉」不遠。這種論調在過去幾週再次出現,特別是當 Google 展示自家模型 Gemini 3.0 Pro 的強大時,許多人急著宣告 GPU 時代結束。 但實際情況可能正好相反。Google 的領先不但沒有削弱輝達的地位,反而在結構上成為輝達的大利多。原因不在晶片,而在於這場競賽本身再次證明:「Scaling Law」仍然有效。 ■ Scaling Law 的續命,是輝達最好的消息 Google 在最新一代模型中證明,只要增加訓練規模,模型效能依然能持續提升。這代表「投入更多算力就能產生更好 AI」的邏輯仍成立。這一發現的意義遠超技術層面 - 它重新啟動了整個市場對算力的信心。 一旦 Scaling Law 被驗證,所有想追上 Google 的科技巨頭都別無選擇,只能加碼算力投入。微軟、亞馬遜、Meta、Anthropic、OpenAI 等公司沒有 Google 那樣成熟的自研晶片與垂直整合能力,唯有依靠輝達的 GPU 才能快速擴張訓練與推論能力。 換言之,Google 的技術突破不會削弱 GPU 市場,反而會刺激整體 GPU 採購。輝達賣的不只是晶片,而是算力擴張的「通用通道」- 只要產業還相信規模帶來優勢,輝達的需求就不會減少。 ■ 外界誤解了 TPU 與 GPU 的效率比較 外界對 TPU 與 GPU 的比較,經常停留在單顆晶片的價格與功耗上。這樣的比較方式忽略了 AI 系統的本質:最終衡量單位不是瓦數,也不是美元,而是「每單位電力能產出的 token 數」——也就是生產效率。 從單顆晶片的理論數據來看,Google 的 TPU v6e 在 FP16 精度下提供 926 TFLOPS 的算力,而輝達的 GB200 約為 5000 TFLOPS。若只看每瓦效能(每瓦 TFLOPS),TPU 以 2.64 優於 GPU 的 1.85,效率高出約 42%。表面上,TPU 看似更效率更高更划算。 但這種比較忽略了實際應用的精度設定。FP16 已非主要推論模式,市場真正的主流是...

AI 讓服務業生產力上升,

 人工智慧會終結鮑莫爾效應嗎?全球經濟增速可望因此顯著提升 過去幾十年來,我們可以發現許多東西的效能越來越好,但價格變動卻不大。例如手機、衣服、電視等等,也就是說,我們用同樣的成本買到了品質更好的商品。 另一方面,也有許多東西是越來越貴,但品質卻很難說有大規模的提升。像是高等教育、幼兒托育、專業服務或是各種時薪制的工作。 為什麼會有這種兩極化的發展呢? 美國經濟學家威廉·鮑莫爾(William Baumol)提出了一個理論。他把經濟分成兩大部門後發現:隨著科技發展、經濟成長, 商品部門的價格持續降低,而服務部門的價格卻持續走高 。 30 年前,在樓下的理髮店剪頭髮,最多 100 元;買一隻電子手錶,要價 1500 元。但今天,我們去樓下剪頭髮,流程與方式沒什麼不同,就要收 500 元;但網購一隻電子錶,還是 1500 元,性能卻大幅提升。 他認為,因為製造業生產力大增,商品產業的報酬因此提高;若服務部門的報酬沒有隨之提高,理髮師就會去電子工廠上班,這樣就沒有人當理髮師了。 換言之,「 商品」產業生產力提高的同時,也提高了「服務」業人員的機會成本,因此服務業的報酬也必須提高。 鮑莫爾認為這是一種成本病。 ━━━━ #成本病導致經濟成長放緩 鮑莫爾效應解釋了許多重要的經濟現象 鮑莫爾在其原始論文中指出,從長遠來看,成本病會導致整體生產力成長放緩,進而導致經濟成長放緩。 因為生產力成長高的產業在總就業中所佔的比例下降,而生產力成長低的產業在總就業中所佔的比例上升。 隨著越來越多的勞動力從高生產力成長產業轉向低生產力成長產業,生產力整體成長率放緩是必然的。而由於經濟成長在很大程度上是由生產力成長所驅動,因此經濟成長也會放緩。 這種向後工業社會(即大多數勞工受僱於第三產業,也就是服務業的經濟體)的轉型稱為第三產業化。由於政府支出專注於醫療、教育和執法等服務,因此受鮑莫爾效應的影響尤為嚴重。 為什麼會這樣? ━━━━ #服務業無法規模化是主因 我認為關鍵在於, 工業革命之後,絕大部分的商品經濟都可以規模化生產, 且以全世界為銷售範圍。所以生產力可以在專業分工與規模經濟下大幅提升。 相對的, 服務業就很難達成這個效果 。想想看你家樓下的理髮師,同一時間就只能在一個地方服務一位客人,過去數十年來的電腦、網路、手機等技術發展,都無法提升他的生產力。 製造業: 1800 年:1...

Gemini 2 NoteboolLM

 Google 最近真的好可怕 😳 NotebookLM再次更新  居然出「一鍵生成簡報」的功能 你只要丟題詞,它就能把整份簡報——版面、圖表、色調、重點——一次做給你。 很多人問:那跟 Gemini 生的簡報一樣嗎?其實完全不一樣 Gemini: 論文簡報 NotebookLM: 商業簡報 🔹 Gemini:偏向專業、數據型簡報 它做的內容超像市場研究報告。 給它 10 年美妝市場、開架 vs 專櫃、功能成分趨勢,它會給你大量圖表、結構清楚、資訊密度高。 → 超適合開會、分析、商務簡報。 提詞範例⬇️ 製作一份簡報,主題是關於“女性美妝保養市場”,內容要有近10年的數據資料分析,開架式與專櫃的銷售分析,功能成分偏愛的變化,需要有數據圖呈現,色彩使用莫蘭迪色調 不會配色的沒關係,直接給色調選擇,比指定色票還好看呢 😉 🔹 NotebookLM:偏向行銷、社群感的簡報 它完全聽得懂你的美感要求。 你說要莫蘭迪色、低飽和、左圖右文、標題要大、字要亮,它就乖乖照做。 → 很像品牌提案、KOL 簡報、社群企劃。 提詞範例⬇️ 請用社群行銷的語氣角度呈現,目前女性美妝保養的趨勢,還有成長空間方向,色彩使用柔和,低飽和莫蘭迪色調,數據的部分使用條圖或是圓餅圖,並強調關鍵字或是數據,描述的內容使用左右排版方式,左圖右文,標題大小48pt 不過小小提醒,軟體剛更新,生成可能來不及你作業提交的deadline喔 😏   #燕秋老師 #燕秋老師教學頻道 #GeminiAI #高效工作

AI 架構 - nvida 2 broadcom

圖片
 Google 的 AI模型 為超大規模雲端服務商(hyperscalers)供應客製化 ASIC 的網通晶片大廠博通(Broadcom),隨著 Google 母公司 Alphabet 最新 AI 模型「Gemini 3」大獲好評,股價也跟著飆升。 CNBC 24日報導,Google是博通ASIC業務的大客戶。博通協助Google設計其研發的「 張量處理單元」(Tensor Processing Units,TPUs) ,主要用於內部的AI基礎設施,被視為輝達(Nvidia)繪圖處理器(GPU)的競爭對手。 Melius Research分析師Ben Reitzes 10月27日曾重申博通投資評等為「買進」,目標價調升60美元至475美元。 Reitzes透過報告表示, Google及夥伴博通自2016年就開始攜手研發客製化ASIC,如今已來到第七代。 對AI工作負載而言,除了輝達GPU外,TPU可說是獲得最多實證的ASIC,如今動能更是最強。 Reitzes認為,Alphabet雖然前景看俏,但博通受惠程度可能更佳,因為除了Alphabet將貢獻大量AI營收外,其他許多夥伴也都看上博通的設計專長、想要分杯羹。他補充說,TPU對Alphabet成長策略的重要性迅速變高。 博通24日終場飆漲11.1%、收377.96美元,創10月29日以來收盤新高,是4月9日以來最大單日漲幅。博通也是SPDR科技類股ETF(Technology Select Sector SPDR Fund,代號為XLK)當天表現最佳的成分股。年初迄今,博通已飆漲63.03%。 D.A. Davidson分析師Gil Luria 9月2日就曾發表研究報告指出,一些人工智慧前沿實驗室(例如xAI)似乎對TPU產生濃厚興趣,但 前提是Google願意對外銷售這些晶片。Google TPU是專為機器學習任務設計的ASIC,可透過Google Cloud平台使用 。 Luria透過報告稱, Google TPU依舊是替代輝達的最佳方案 ,兩者差距在過去9~12個月顯著縮小。在這段期間,市場對TPU的評價愈來愈正面。Google次世代TPU的效能不但擴展至42.5 Exaflops, 高頻寬記憶體(HBM) 容量跳增,成本效益也大幅改善,這正是吸引前沿實驗室關注的主因。

5 種 AI工具 - ChapGpt , Gemini,

圖片
 朱騏 / facebook 【我身為一人公司 CEO,每天都在用的 5 款 AI 工具(真的是每天)】 經營一人公司要同時扛行銷、內容、產品、行政、客服,   沒有 AI 我真的撐不住。 以下 5 個,是我「每天都會打開」的 AI 工具。   不是聽說好用,是我現在就正在用、用到爆的那種。 ▋1:ChatGPT — 我的一號夥伴,所有工作都先問它 我每天 80% 的思考都在 ChatGPT 裡完成。   我會拿它來寫稿、拆 SOP、分析需求、定義角色、改寫內容、找盲點。   只要我腦袋卡住,我就會打開它。 ▋2:NotebookLM — 整理文件、做講義、寫課程的神器   我每天都在產出講義、簡報、SOP。   NotebookLM 可以匯入我的 PDF、逐字稿、文章,   然後直接幫我找重點、對齊結構、找缺漏、生成架構。 它是我的「內容策展人」,不用再自己翻文件翻到崩潰。 ▋3:Perplexity — 做研究、找資料、確認資訊的快刀   我如果要查案例、看市場、理解趨勢。   那就會開 Perplexity。  問問題就能得到整理過的答案、附來源、附脈絡。 它幫我節省 60% 查資料時間。   用過後真的回不去傳統搜尋。 ▋4:Gemini — 做圖解、畫框架、視覺化邏輯的好幫手   我在設計課程、講義、簡報時,   常常需要把抽象概念變成圖。 Gemini 幾乎是專門做這件事:   給它一段文字,它會幫我畫出的圖像結構(循環、金字塔、流程、矩陣)。   它是我的「圖解助手」。 ▋5:Claude — 深度寫作、整理長文本、打磨語氣   有時候我需要更溫柔、更深度、更像人類的語氣,   我會把文章丟給 Claude。   它很適合處理故事、反思、長篇內容。

AI vs AGI

  AI 和 AGI 都是 人工智慧 領域的術語,但它們指的是不同層次的智慧能力: 🧠 AI (Artificial Intelligence) - 人工智慧 (廣義) 這是最廣泛的術語,泛指所有使機器看起來具有 智慧行為 的電腦科學。 • 現狀: 我們現在日常生活中接觸到的大部分 AI,例如 Siri、Google 助理、影像辨識、推薦系統、甚至像我這樣的語言模型,都屬於 AI 的一個子集,通常稱為 狹義人工智慧 (ANI, Artificial Narrow Intelligence) 或 弱人工智慧 (Weak AI) 。 • 能力範圍: 這些 AI 系統被設計來在 特定、預先確定的任務 上表現出色或達到人類水平。例如,一個 AI 模型可能擅長辨識貓咪圖片,但它無法用這個能力來寫詩或管理財務。 • 訓練方式: 必須經過大量 特定領域 的資料訓練,才能在該領域內執行相關任務。 💡 AGI (Artificial General Intelligence) - 通用人工智慧 AGI 是一種 理論上 的 AI 類型,旨在建立具有 與人類相似的全面認知能力 的軟體。AGI 有時也被稱為 強人工智慧 (Strong AI) 。 • 目標: 讓 AI 能夠像人類一樣進行 廣泛的思考、學習和適應 。 • 能力範圍: AGI 系統應能處理各種不同的任務和領域,即使是那些在建立它時 沒有被專門訓練過 的問題。它能夠理解和推理新的資訊,並將其應用於不同的情境。 • 現狀: AGI 目前仍然是 理論概念和研究目標 ,尚未完全實現。它是許多 AI 研究機構(如 OpenAI、Google DeepMind 等)的終極追求。 簡要比較表格