「老師,AI 是不是有歧視?聽說 AI 會重男輕女?」 「我擔心 AI 給的答案『不公平』,會不會教壞小孩?」 「什麼是『偏見』?AI 自己有想法嗎?」

這些焦慮,是我們在 AI 時代一定會遇到的「進階題」,AI 不只是工具,它還可能帶著「偏見」犯錯,甚至「一本正經地胡說八道」,然而,AI 本身沒有「壞心眼」。它之所以會犯錯,不是因為它「故意」歧視,而是因為它「學習的食物」出了問題。


AI 是怎麼「學」會的?— 靠「吃資料」

AI 不是天生聰明,它是「吃資料」長大的 。這個「資料」,我們稱為「資料集 (Dataset)」 ,你餵 AI 吃什麼,它就變成什麼樣子,問題來了!如果 AI「吃的食物」不夠多元,它就會「偏食」,這就是「偏見 (Bias)」 。

舉例來說:AI 吃了幾萬張「房子」的圖 。但請看: 這些圖如果幾乎都長一樣(大部分都是三角形屋頂的獨棟房),這就是偏見! 因為「資料集」裡的房子長得太像了。結果是,如果你畫一個「公寓大樓」,AI 可能就猜不出來了 。不是 AI 笨,也不是你畫錯,而是 AI「沒吃過(沒學過)」這種食物 ,它對「房子」的理解,因為「偏食」而變得非常狹窄。


👉🏻 怎麼跟孩子玩「抓偏食」遊戲?

這就是我們教孩子「批判性思考」的最佳時機!

  1. 一起玩「Quick, Draw!」:跟孩子一起玩,體驗 AI 猜對和猜錯的樂趣。 👉🏻 https://quickdraw.withgoogle.com/

  2. 一起當「偵探」看資料集:玩完後,您可以帶著孩子去看「Quick, Draw!」的公開資料集(就像教材投影片裡那樣)。

    問孩子(關鍵提問):「你看,AI 吃的『房子』照片,是不是都長很像?」、「我們家是長這樣嗎?阿嬤家呢?」、「你覺得,世界上所有的『房子』都長這樣嗎?」、「如果 AI 只吃這些『食物』,它是不是『誤會』了什麼?」

  3. 從「你錯了」改成「AI 偏食了!」:當 AI 猜錯你的圖時,跟孩子說:「不是你畫錯,是 AI『偏食』了!它的資料庫裡沒有這種圖,我們抓到它的 Bug 了!」


我們為什麼要在意 AI 的「偏見」?

AI 搞錯「房子」可能只是有點好笑,但如果 AI 用「偏食」的資料來決定「誰看起來像醫生」、「誰能得到工作」,那會發生什麼事?這就是為什麼「批判性思考」如此重要。

AI 會給我們「答案」,但我們的責任是教孩子去「質疑答案」,我們不用焦慮,我們的工作很明確:就是培養孩子成為一個冷靜、會思考、懂得抓 Bug 的「AI 偏見偵探」。

image.png