看板 japanavgirls
之前也試過幾次, 可是翻出來天差地遠.. 這幾天重新試了一下,發現翻出來的東西勉強能用的 雖然不是整個正確,但是起碼稍微有點能進入劇情了.. 作法是用whisper desktop,下載medium模型.(因為用large會有bug) 語言選項選日文/英文 ,[不要選擇翻譯] 這種情況下英文片正確率非常高,就跟yt打自動字幕差不多, 日文字幕大概有個7成到9成之間. 然後丟到subtitlecat 去做自動翻譯,就能得到7-9成能接受的中文字幕. 我猜想是因為whisper 的語音辨識是可以的,但是翻譯功能兩光.. 所以元語言辨識ok, 但是翻譯要丟別的地方做. ※ 引述《lalbj (破梗了)》之銘言: : 現在AI 各種分析當道 : 找了幾個 免費分析的 AI影片自動配字幕 且自己翻譯 : 發現沒有一款適合的 : 前面幾句可能瞞準的 : 但到中間 都只有 歐的發生詞 : 這幾天看到GOOGLE 發表新的AI : GPT-4 本地是要錢的 不知道效果怎麼樣 值得花錢嗎? : 因為有字幕 看起來有趣很多 : 有沒有大神 有推薦的解法?謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 150.117.243.27 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/japanavgirls/M.1732861798.A.859.html
reing0213: 我用有道翻譯,至少知道大概劇情,細翻不行 11/29 15:00
BraveCattle: 推 11/29 15:09
n1m5w8tsarp: 目前語音辨識跟翻譯都做得好的大概就是ChatGPT,用 11/29 18:41
n1m5w8tsarp: 虛擬音效軟體搭配電腦版App就可以翻,只是時間軸那 11/29 18:41
n1m5w8tsarp: 些還是要自己來 11/29 18:41
Kroner: 最近天氣變化大,關節痛好像更嚴重了。 11/30 01:42
clv: 我直接用剪映 可以雙語選日本與中文 11/29 20:39
asdasd02tw: Large很吃顯卡啊 起碼要有個12g顯存吧 如果只要辨識英 11/30 01:42
asdasd02tw: 文可以用distil whisper 這是優化過的模型 如果要辨識 11/30 01:42
asdasd02tw: 日文就得用原版whisper模型 或是要找有人專門改進針對 11/30 01:42
Chricey: UC2是天然成分嗎?還是有添加物啊? 12/01 23:54
asdasd02tw: 日文的 不過那種通常性能要更高才能跑了 11/30 01:42
用whisper desktop純粹是省麻煩,不用設定一堆.. 如果你可以給我步驟跟不用調的程式碼我可以試試.. 不然一堆git 下下來都不能直接跑,debug 的時間都足夠自己找文件念了. ※ 編輯: youngglasses (150.117.243.27 臺灣), 11/30/2024 02:41:35
Subliminal: 科技果然要靠色色驅動 11/30 08:45
kinwangsm: 想請問desktop好像會產生沒說話的時段會文字重複問題 12/01 23:53
kinwangsm: 想問一下原po有遇到過嗎? 12/01 23:54
Kroner: 有人知道UC2和其他關節保健品的差異嗎? 12/01 23:54
會,很常發生. 我推測原因是因為whisper 判斷語句的頻率問題, 如果有大段的時間沒有文字, 他們沒有清掉上段語句,也就是斷句的判斷.. 所以空白時間上一句話字幕會一直留著 whisper 還有一個討厭的問題, 就是模型很不穩定. 一段語音或是電影.. 你很有可能重複丟三四次, 出來結果次次不一樣. 有那種完全失敗的,從開頭就錯到尾的 也有那種正確5,6成的, 也有那種正確率9成以上的. 都同一個餵進去的資料. 我覺得是顯卡跟ram 不夠大的問題.. ※ 編輯: youngglasses (150.117.243.27 臺灣), 12/06/2024 22:25:39