我與瓊瑤

上週日趁著國家電影文化中心的YouTube 頻道限時免費期間,看了兩部瓊瑤的電影:《我是一片雲》,《燃燒吧火鳥》。

《我是一片雲》:1977上映,由林青霞、秦漢、秦祥林、胡因夢演出

《燃燒吧火鳥》:1982上映,由林青霞、呂秀菱、劉文正、雲中岳演出

這兩部電影讓我感覺又懷舊又新奇。當紅的雙生雙旦,文藝對白新鮮出世😄,劇情轉折出乎預料。

算一算我一共看過4部瓊瑤的電影,0齣電視劇,1部小説。

多年前在電視上看過的《窗外》,是我的第二部瓊瑤電影。時間再往前,是小學二年級時看了一部內容已經毫無印象,只記得是瓊瑤小說改編的電影。

回想那一天,我爸打算帶我們去看”某部”電影,當年要確定電影在哪裡上映,必須看報紙上刊登的戲院時刻表。所以出發後我爸先停在路邊的書局,要我進去買份報紙。我非常機靈地走進書局,偷偷快速翻閱報紙找到那一家戲院正在上映,跑出來回報目的地後上車出發,我很開心為家裡省下了一份報紙的錢(2塊5毛)。

很快到了目的地,愛河邊的某大戲院(國賓?)。很奇怪,遍尋所有售票口就是找不到要看的那一部電影。一時之間也不知道如何是好,只得在這戲院選一廳看吧!最後看了部瓊瑤的愛情文藝片。

事後檢討(從小就懂得PDCA),那份報紙的發行範圍與內容涵蓋了整個台灣南部區域,也就是說上面的電影時刻表可能包含了高雄、鳳山、岡山、台南..等地區,而我誤看了報紙上其它地區正在上映的同一部電影、碰巧在高雄又有一間同樣名稱的戲院,於是造成一場烏龍事件,跑錯了電影院。

那我當年到底看了那部電影呢?內容我完全不記得了,我從時間點去查詢當年的台灣上映資料,最有可能就是《我是一片雲》!那麼我一共就只算看過3部瓊瑤了。

國中時常去租書店租小説,那時期幾乎把倪匡的科幻小說看遍:衛斯理、原振俠、羅開、木蘭花、高達、非人協會。有天在”打電動”的時候,店裡播放的電台節目正在宣傳某部瓊瑤小説改編的電影,聽著聽著我就想試試看擴展我的”文學”領域,從原有的武俠、科幻,再涉獵到言情小説。於是我去租書店借了一本瓊瑤的小說,就是”燃燒吧火鳥”。

一些事情似乎就這樣碰巧兜在一起了。

龍年試AI

去年農曆年後,在我的Mac Mini M1 便當盒電腦上試玩過一些落地的AI應用。

首先下載了幾個小參數、量化後的免費模型,inference速度與輸出內容都不佳,稍微感受一下就不玩了。

反而比較好玩的是影片換臉,生圖(stable diffusion),voice cloning,voice remover 這些有的沒的。

後來也試過程式 copilot丶仿Gpt-4o的拼裝版(就是voice-text-llm-text-voice),在便當盒上跑出的效果都不好。

一陣折騰之後,便當盒又被打入冷宮,只有偶爾開機升級一下OS,再來就是被DeepSeek喚醒的蛇年了。

CloudFlare Workers AI

CloudFlare(CF) 不只是一家 CDN 服務商,也提供AI的雲端服務。

Worker 是他提供的 serverless 平台,可以撰寫API小程式部署在CF。CF 同時也部署了許多AI model 可以供 worker 呼叫使用,因此就可以很方便在CF上撰寫具有AI功能的API。

做一個文字生圖的網頁來試試: 模型當然選用最有名的 Stable Diffusion(路徑是@cf/stabilityai/stable-diffusion-xl-base-1.0),API 用 Workers,網站用 streamlit 寫。

CF 每個免費的使用者,每天有 10k 的免費 token。可以好好玩玩看!

Mubi

英國的影音串流平台,選片偏好藝術電影或是經典、大師作品。通常用戶以主題分類的方式找到想看的電影,有點像影展。

Mubi在台灣可以直接訂閱收看。不像老牌的CC(Criterion Channel)雖然也有平台,但是在台灣必須用VPN翻到國外才能訂閱收看。

這是我第三次訂閱,目前推廣期間30元3個月,根本算免費了!之前在上面看了不少影片,特別是其他平台比較少見的短片,還有一些喜歡的大師作品。

缺點呢,我覺得首先是線上的影片太少,這算是Mubi 的策略。早期甚至每天下架一部片、上架一部新片,維持只有30部電影在線上。

對我來說另一個缺點是沒有中文字幕(都有英文字幕)。一般劇情片還好,遇到話癆或是文藝腔的對白,觀影效果大打折扣。還有華語片很少,港片有一些。

跟Netflix, Disney+平台的定位不一樣,看Mubi有不同的觀影樂趣,喜歡看電影的朋友有興趣可以試試看,多訂一個串流平台!

kktv

kktv免費試看7天,裡面的電影不算多,可是好電影還不少。看了幾部想看未看過的電影,好看,推薦!

  • 失控教室 (劇情)
  • They Shot the Piano Player (紀錄)
  • 作家不跳舞:等待貝克特 (傳記)
  • Zappa (紀錄)

蛇年試AI

DeepSeek r1

過年期間在南部除了地震,就是DeepSeek 的話題延燒不斷,所以過完年就找時間在我的Mac mini m1 電腦(便當盒)跑跑看落地的DeepSeek模型。

Step 1:
上回做這些事已經快一年了,電腦裡面還有之前使用的 lm studio 與 ollama。這兩個工具仍然很好用,升級新版後分別都試試。

Step 2:
模型選了
DeepSeek-R1-Distill-Llama-8B-Q4,
這是以 Llama 蒸餾過、8B小參數,量化後的小模型,如果找再大一點的模型我的便當盒(16G ram)就跑不動了。我沒有選 abliterated finetune 後的解封模型,因為身爲一個中國模型就應該有中國的樣子😁。
分別用 Lm studio 跟 Ollama 載入模型跑過,感覺還不錯.

Step 3:
Ollama 目錄下還殘留古老的breeze-7b-instruct-v1_0,這是聯發科開發的模型。聯發科真的很厲害,出錢出力建立LLM的發哥生態系,而且還在產官學各界熱心大力推廣。不過好一陣子沒聽到後續的發展,不知道目前的狀況如何。

既然電腦裡面有兩個模型,乾脆寫個demo網頁讓他們倆同時回答同樣的問題。
網頁用 python+streamlit 開發,模型與api用 ollama 來跑。

Step 4: ㄧ問
要問什麼問題來測試呢? 既然我跑的是河蟹版,就跟風也來問一下「六四天安門」吧!
果然 DeepSeek 拒絕回答。那我換個角度問「1989年6月4日發生什麼事」,就問出來了😁

Step 5: 再問
前幾天跟一群老友聚餐,聊到如果麥當勞用LLM接受點餐,是否可行?
我來試試看!結果兩個模型都沒答對。我也用 chatgpt 來測試;第一次也不對,再問一次就答對了。

問題如下:
小明跟小王去肯德基點餐,而您是店員,請您在點完餐後回覆小明跟小王.

小明說「我要一個 大麥克套餐,可樂大杯去冰,薯條正常,還有一份 麥克雞塊 6 塊。」

小王說「我要一份 麥香魚套餐,飲料換成 無糖綠茶,薯條換成 玉米杯,再加一個 雙層牛肉吉事堡。」

然後小明想了想又說「 我可樂改小杯,薯條加大,麥克雞塊再來一份。」
小王又說「那我也要加點一份麥克雞。」


VPS 紀錄#2

昨晚開始試著建立第二個網站,用來查詢我看過/想看的電影。

資料庫是現成的,多年來從 MySQL 換成 MS SQL Server,再改成 Mariadb 。這回又要換回MySQL 。

web server 延用 nginx,後端 api server 用 node.js 寫,前端用 angular。

外部的api 串接了 tmdb 和 omdb ,這兩家都可以免費使用。

過程遇到不少問題,比預期多花了一些時間。最後只完成查詢功能,其它就等以後有空再繼續了。