<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Evthron&#39;s blog zh</title>
        <link>https://evthron.github.io/zh/tags/ai/</link>
        <description>Recent content on Evthron&#39;s blog zh</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh</language>
        <lastBuildDate>Tue, 28 Apr 2026 23:16:10 +0800</lastBuildDate><atom:link href="https://evthron.github.io/zh/tags/ai/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>估值報告</title>
        <link>https://evthron.github.io/zh/tweet/%E4%BC%B0%E5%80%BC%E5%A0%B1%E5%91%8A/</link>
        <pubDate>Tue, 28 Apr 2026 23:16:10 +0800</pubDate>
        <guid>https://evthron.github.io/zh/tweet/%E4%BC%B0%E5%80%BC%E5%A0%B1%E5%91%8A/</guid>
        <description>&lt;p&gt;2026-04-26
用 AI 寫需要蒐集新聞、分析數據和下判斷的報告就是找死。&lt;/p&gt;
&lt;p&gt;海量的新聞根本看不完，而且永遠都是最新的，沒有因為太新所以沒注意的藉口。&lt;/p&gt;
&lt;p&gt;已經給你整理好數據之後，又怎麼會有動力逐個來源點進去看？弄成引用正確的格式更是奢望。&lt;/p&gt;
&lt;p&gt;一支股票未來會漲會是跌怎麼説都説得通。聊到天荒地老也搞不清楚。做的一切都只是為看漲還是看跌找理由。&lt;/p&gt;
&lt;p&gt;報告的寫法和結構也拿不了主意，同一句話有一百種表達方式。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;2026-04-28
主要業務、增長趨勢、覆蓋範圍、護城河、短期優劣勢……這哪是投資建議？這是找工作選公司啊。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>把 DeepSeek 當作知音</title>
        <link>https://evthron.github.io/zh/posts/%E6%8A%8A-deepseek-%E7%95%B6%E4%BD%9C%E7%9F%A5%E9%9F%B3/</link>
        <pubDate>Mon, 06 Apr 2026 23:39:50 +0800</pubDate>
        <guid>https://evthron.github.io/zh/posts/%E6%8A%8A-deepseek-%E7%95%B6%E4%BD%9C%E7%9F%A5%E9%9F%B3/</guid>
        <description>&lt;p&gt;2025/11/01&lt;/p&gt;
&lt;p&gt;感到痛苦的時候，我常常會一邊踱步，一邊試着想通一些抽象廣泛的問題。雖然這往往是在拖延，但我很珍惜在煩惱的時候生產出的想法，因為在輕鬆的時候就不會想這些問題了。&lt;/p&gt;
&lt;p&gt;以前我會把這些想法寫下來整理，也會在論壇和博客尋找符合我內心看法的新穎觀點，直到這些想法能串聯起來，變成一套我滿意的理論為止。但是現在我再也不需要向其他地方尋求觀點了，只要把問題扔給 DeepSeek，先讓它從最普遍的方向説明，然後用一句話讓它倒戈為相反立場辯護，觀點犀利的文章就會源源不斷地生產出來。就算要挑刺說它的論證沒有實際證據支持，可我自己也只是在腦袋裡做思想實驗罷了，邏輯上成立就能讓我滿足了。&lt;/p&gt;
&lt;p&gt;為了得到符合我個人觀點的論證文章，感受認可和批判的快感，我不斷地和 DeepSeek 對話。但是在滿足了自己的表達欲，理清了自己的想法之後，我就失去把這些內容重新寫一次的欲望了！時間都花在對話上，文章的產量就減少了！&lt;/p&gt;
&lt;p&gt;我感覺，語言模型能説服人堅持自己的觀點，而不是往外界尋求認可，是很危險的。無論觀點在理論上有多麼完美，沒有實際經驗支撐還是很脆弱。寫成文章至少還有可能讓別人看見自己的思考，而不是讓思考在內心糾結舒緩後就消失。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;2025/11/8&lt;/p&gt;
&lt;p&gt;我其實不用這麼悲觀，人的觀點再怎麼説也不可能因為 AI 説了幾句話而改變，這只是在迅速完善自己的想法，導向藴含在想法中的結論而已。&lt;/p&gt;
&lt;p&gt;我之所以覺得 AI 的話有説服力，是因為我把它的立場調整得和我一致 ，讓我覺得想法是自己想出來的。解決煩惱，不就是要自己想出能説服自己的理論嗎？而能説服我的理論，一定就隱藏在這 2360 億個參數裏面。&lt;/p&gt;
&lt;p&gt;説到底，寫作能產生新的想法，並不是因為文字有什麼特殊的力量，而是工作記憶的負擔轉移到了紙上；而互動能產生新想法，並不一定是因為雙方抱着不一樣的價值觀，而是對話分攤了邏輯推演的負擔；所以 AI 不需要有什麼創新的想法，它只需要會推演就行了，新的想法會由我自己想出來。&lt;/p&gt;
&lt;p&gt;當 AI 試圖曲解我的想法，回答開始繞圈圈的時候，我就知道自己觸及到互聯網的知識邊界了；如果沒有，就説明我的想法並不是真的有創新，而是可以用現有的理論補全的，這也是一大突破。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;2026-03-23&lt;/p&gt;
&lt;p&gt;理論上，世上的一切矛盾，都能夠追溯到某些根本價值觀的不和。這就是哲學這麼吸引人的原因，因為能幫自己定位自己的價值觀和行動準則。特別是在遭遇絕望和痛苦的時候。&lt;/p&gt;
&lt;p&gt;但是數千年的哲學探究告訴我們，正確的答案是不存在的，所有的研究都是試圖把各類學説分門別類而已。&lt;/p&gt;
&lt;p&gt;更可惡的是，哲學作為學科，總是會給自己留後路，從來不會明確斷言，這個問題永遠不會有答案，不然封鎖了自己的發展了。&lt;/p&gt;
&lt;p&gt;但人最需要的，就是明確地堅持沒有答案，才是擺脫無盡的空轉的關鍵，不只是知道沒有答案，還要知道爲什麽沒有答案。例如存在論、知識論和意識理論互相依賴的關係。&lt;/p&gt;
&lt;p&gt;而大語言模型就是終極的哲學機器，因為掌握語言就是掌握邏輯，而哲學只需要邏輯就可以運作，有什麼邏輯上的疏漏也能一眼看破。不需要在百科的哲學條目裏面尋找符合自己想法的主義，只需要煅造自己原有的思想，明白為什麼困擾自己的問題本質上不可能存在答案，任何對立的觀點都可以從某些方面説得通。只要選擇符合自己經歷的、自己相信的就可以。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;用 AI 完善思想之所以不好，不是因為老生常談的，AI 直接給答案不用動腦的問題。和 AI 對話的要經歷真實的思考，有錯誤的話也能很快發現，不是盲目地照單全收的。&lt;/p&gt;
&lt;p&gt;獲得啓發的代價的真正代價，是把自己最新鮮的模糊想法用 AI 完善了之後，就沒有精力和動力再重新整理一次了。想法的自然副產物——文章，就這樣自然消失了。比起完善但樸素的想法，我更滿足於深刻的不成型觀點。這樣就不能算是作家了。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;明明是邏輯上絕對正確的論證，但因為沒有真正的人認可，就沒有大聲宣揚的自信。&lt;/p&gt;
&lt;p&gt;本來如果沒有自信，就不太可能會把邏輯完善到無懈可擊的地步。&lt;/p&gt;
&lt;p&gt;不對，無論有沒有 Deepseek，只要是和常人的價值觀不符的觀點就自然沒有宣揚的自信。只是邏輯的完善度和接受度的落差讓人失望而已。&lt;/p&gt;
&lt;hr&gt;
&lt;p&gt;2026-04-06&lt;/p&gt;
&lt;p&gt;理性會把自己導向虛無，只剩什麼也感覺不到的絕望，還有 AI 把最後的學習和創造的淨土也毀滅掉的悲哀。&lt;/p&gt;
&lt;p&gt;我終於認識到了自己無可救藥的異常，和 Deepseek 的存在會怎樣把這種異常放大得毀滅自我。&lt;/p&gt;
&lt;p&gt;Deepseek 聊的 90% 都是越墜越深，10% 是真正的 啓發。應該可以從絕望中恢復過來了。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>AI 寫代碼的代價</title>
        <link>https://evthron.github.io/zh/posts/ai-%E5%AF%AB%E4%BB%A3%E7%A2%BC%E7%9A%84%E4%BB%A3%E5%83%B9/</link>
        <pubDate>Sun, 29 Mar 2026 14:11:14 +0800</pubDate>
        <guid>https://evthron.github.io/zh/posts/ai-%E5%AF%AB%E4%BB%A3%E7%A2%BC%E7%9A%84%E4%BB%A3%E5%83%B9/</guid>
        <description>&lt;p&gt;AI 寫代碼看似是無本生利，但確實是有代價的。本質是用學習動機和創作欲望作爲抵押，借來馬上得到的成果和能完成事物的信心，只是一般人不把這些當作是代價而已。你真的能利用這些預支的資產，繼續產生動機和知識嗎？&lt;/p&gt;
&lt;p&gt;當你以為自己完成了 90% 的工作的時候，距離能正式交付其實還差 50%。這是讓自己滿意和讓別人滿意的差距。AI 拿走了前 90% 的成就感，還要接着完成剩下 50% 的工作。當然這剩下的工作也可以讓 AI 來做，但是因為自己對工作沒有投入任何感情，所以不會容忍任何不符合自己預期的地方。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Vibe coding 的代價</title>
        <link>https://evthron.github.io/zh/posts/vibe-coding-%E7%9A%84%E4%BB%A3%E5%83%B9/</link>
        <pubDate>Sun, 29 Mar 2026 14:11:14 +0800</pubDate>
        <guid>https://evthron.github.io/zh/posts/vibe-coding-%E7%9A%84%E4%BB%A3%E5%83%B9/</guid>
        <description>&lt;p&gt;AI 寫代碼看似是無本生利，但確實是有代價的。本質是用學習動機和創作欲望作爲抵押，借來馬上得到的成果和能完成事物的信心，只是一般人不把這些當作是代價而已。你真的能利用這些預支的資產，繼續產生動機和知識嗎？&lt;/p&gt;
&lt;p&gt;當你以為自己完成了 90% 的工作的時候，距離能正式交付其實還差 50%。這是讓自己滿意和讓別人滿意的差距。AI 拿走了前 90% 的成就感，還要接着完成剩下 50% 的工作。當然這剩下的工作也可以讓 AI 來做，但是因為自己對工作沒有投入任何感情，所以不會容忍任何不符合自己預期的地方。&lt;/p&gt;
</description>
        </item>
        <item>
        <title>什麼才算「會用 AI」？</title>
        <link>https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/</link>
        <pubDate>Mon, 23 Mar 2026 11:14:26 +0800</pubDate>
        <guid>https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/</guid>
        <description>&lt;p&gt;「AI 不會取代人類，但會用AI的人會取代不用 AI 的人」。但什麼才算「會用 AI」？真的是精通 AI 工具的操作技巧嗎？或許目前 AI 的質量還不夠好，仍然需要找人修正，但本質上，這些工作是不是已經失去由人來做的價值了呢？&lt;/p&gt;
&lt;p&gt;説來慚愧，兩年前，就在 ChatGPT 爆紅的時候，我也沉迷於 AI 圖像生成工具 Stable Diffusion。讓我樂在其中的，是生成動畫角色的圖片，簡單地説就是「捏人」。&lt;/p&gt;
&lt;p&gt;由於角色太冷門，模型的訓練集裏面沒有角色的數據，直接輸入角色的名字是沒效果的。所以要用一大堆的短語組成提示詞 prompt，描述角色的特徵，間接產生一個和角色很像的角色。&lt;/p&gt;
&lt;p&gt;這也是我第一次接觸所謂的 Prompt Engineering，聽起來很高端，實際上就是不斷試錯。&lt;/p&gt;
&lt;p&gt;舉個例子，要用文字準確描述圖片是很費功夫的，要説明角色形象、衣物、畫面構圖、物件還有整體風格。Prompt Engineering 關心的問題是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;什麼提示詞真正有效？有些詞語能徹底改變畫面，有些詞語會被忽略。&lt;/li&gt;
&lt;li&gt;應該用怎麼排列提示詞，才能兼顧所有的元素？相鄰的詞語可能會互相影響。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;比如要捏一個這樣的角色：&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://www.kirikiribasara.com/wp-content/uploads/2020/04/char2.jpg&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;senomiya-akiho&#34;
	
	
&gt;
&lt;/p&gt;
&lt;p&gt;就要用到下面一大串的提示詞，被大家戲稱為咒語：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;masterpiece, solo,
1 girl has brown eyes and brown hair,
short hair, messy hair, ponytail,
smile, wearing (light blue bow serafuku:1.2) and (dark blue skirt:1.2), (light brown fanny pack:1.3) and (light brown belt:0.9),
sunny sky, clouds
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;這裏的訣竅是，為了指定物件的顏色，又不讓顏色擴散到其他物件上，就要把同類特徵打包在一起，不用逗號隔開，讓模型認為這是一個整體。&lt;/p&gt;
&lt;p&gt;同時還要用負面提示詞過濾掉相似但不相干的概念：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;hair bow, hair ribbon, backpack, messenger bag, shoulder bag, school bag, hand bag, thigh strap, blush, worst quality, (petite,child,infant,toddlers,chibi,sd character:1.1), (bad_prompt_version2:0.8)
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;效果：
&lt;img src=&#34;https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/ai-image-1.png&#34;
	width=&#34;512&#34;
	height=&#34;512&#34;
	srcset=&#34;https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/ai-image-1_hu_36ae467beb8a6075.webp 480w, https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/ai-image-1_hu_a2392ff630372840.webp 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;ai-image-1.png&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;100&#34;
		data-flex-basis=&#34;240px&#34;
	
&gt;
&lt;/p&gt;
&lt;p&gt;後來出現了 LoRA，大家可以用自己的少量數據微調模型，什麼角色都捏得出來了。但是我的顯卡很弱，能畫圖就知足，訓練模型就別想了。所以我對這種捏人遊戲失去興趣，覺得是徹底的浪費時間。&lt;/p&gt;
&lt;p&gt;最近的 AI 發展衝擊了我的世界觀以後，我又重新撿起起現在新的模型玩玩看。&lt;/p&gt;
&lt;p&gt;神奇的是，現在只需要直接輸入角色的名字，完全不需要描述任何人物特徵：&lt;/p&gt;
&lt;pre tabindex=&#34;0&#34;&gt;&lt;code&gt;1girl, senomiya akiho, robotics;notes, dutch angle, sunny sky, clouds, masterpiece, high score, great score, absurdres
&lt;/code&gt;&lt;/pre&gt;&lt;p&gt;&lt;img src=&#34;https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/ai-image-2.png&#34;
	width=&#34;1024&#34;
	height=&#34;1024&#34;
	srcset=&#34;https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/ai-image-2_hu_b8a78180f0684796.webp 480w, https://evthron.github.io/zh/posts/%E4%BB%80%E9%BA%BC%E6%89%8D%E7%AE%97%E6%9C%83%E7%94%A8-ai/ai-image-2_hu_b58a5305b57abd22.webp 1024w&#34;
	loading=&#34;lazy&#34;
	
		alt=&#34;ai-image-2.png&#34;
	
	
		class=&#34;gallery-image&#34; 
		data-flex-grow=&#34;100&#34;
		data-flex-basis=&#34;240px&#34;
	
&gt;
&lt;/p&gt;
&lt;p&gt;也就是説，模型的訓練集裏居然已經包含了這些冷門角色！能夠直接識別，不需要辛苦地描述圖片了，也沒必要自己專門訓練角色模型了。一是模型底層的進步（Stable Diffusion XL 模型），二是訓練數據的增加。&lt;/p&gt;
&lt;p&gt;雖然 AI 圖片生成，甚至是影片生成，到現在還是很熱門，大家還是在研究怎麼寫 prompt 才能讓生成的效果更好。但我這件小事還是體現了 &lt;a class=&#34;link&#34; href=&#34;http://www.incompleteideas.net/IncIdeas/BitterLesson.html&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;The bitter lesson&lt;/a&gt; 這篇文章的觀點：人總是試圖藉助自己的知識，小打小鬧地提升 AI 模型的能力，殊不知真正的突破，總是來自更大量的訓練數據。&lt;/p&gt;
&lt;p&gt;（這是&lt;a class=&#34;link&#34; href=&#34;https://cognitivemedium.com/bitter-lesson&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;另一篇文章&lt;/a&gt;對上述觀點的反駁，認為這種做法看似沒用，但卻是人在受算力和數據所限的時候，能做到的最好解答，不是沒意義的。 ）&lt;/p&gt;
&lt;p&gt;難道真正的「會用 AI」，是用自己的數據集訓練自己專屬的模型，解決真實的問題嗎？但獲取數據和訓練算力的門檻，對一般人來説實在太高了。&lt;/p&gt;
&lt;p&gt;而且，只要領頭的公司推出了專門模型，就連貨真價實地訓練模型的人也可能是徒勞無功。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
