→ DrTech: 看要做到多準而已吧。技術都有。不過很多人半桶水而已,例 03/30 08:35
→ DrTech: 如這個連結,文字相似度用CLIP?如果是 OpenAI 版本的CLIP 03/30 08:35
→ DrTech: ,不支援中文。很多人跟本亂用。 03/30 08:35
→ DrTech: 用import clip 根本搞笑。OpenAI版本的CLIP完全看不懂中文 03/30 08:40
→ DrTech: 。 03/30 08:40
推 Chricey: 最近天氣變化大,關節痛好像更嚴重了。 03/30 12:40→ DrTech: 這就是我常說的,claude寫的程式碼很有效率。但專業領域一 03/30 08:44
→ DrTech: 直很爛,日常工作很難用。連CLIP不支持中文都不知道,亂套 03/30 08:44
→ DrTech: 。然後一堆外行人,還以為自己程式是對的,覺得很好用。 03/30 08:44
→ MARKMARK: 看了一下,這個工具用的CLIP好像是圖對圖的KNN比對,我 03/30 09:23
推 Kroner: 關節痛有人有有效的復健方法嗎? 03/30 13:50→ MARKMARK: 對這塊比較沒研究 03/30 09:23
→ DrTech: 對喔,對店家照片。不過CLIP本身就沒有對店家照片這種資料 03/30 10:17
→ DrTech: 做訓練,embedding出來,幾乎純亂數,算相似度也沒意義。 03/30 10:17
→ DrTech: 真的要這樣搞。dinov2, dinov3這種學通用特徵的模型比較適 03/30 10:19
→ DrTech: 合。 03/30 10:19
→ Firstshadow: 真不愧是D大...連滷肉飯都懂 03/30 11:14
推 holypiggy: 除非訓練資料也都是用同個裝置拍 不然色調那些就無法 03/30 12:40
→ holypiggy: 校正了吧 03/30 12:40
→ MARKMARK: 看作者說照片是自己吃飯拍的,感覺資料量不足 03/30 13:12
推 kurtsgm: 直接用通用LLM丟個照片說"看起來好不好吃"感覺都還準些 03/30 13:47
→ kurtsgm: 我剛剛做了實驗 直接丟幾張滷肉飯進去讓gemini 挑... 03/30 13:50
→ kurtsgm: 還真的挑出那張我覺得看起來最好吃的 03/30 13:50
推 viper9709: 用照片感覺不準吧... 03/30 17:08
→ MARKMARK: 晚上剛好吃魯肉飯順便來試試 03/30 20:36