熱門

X

香港家書

簡介

GIST

主持人:張鳳萍

《香港家書》
星期六 09:00-09:20 a.m.

透過書信形式,分析社會現象,細訴個人感受。



最新

LATEST
13/04/2024

課程發展議會STEAM教育常務委員會主席吳大琪教授-二十一世紀科技革命對教育的挑戰

同學們:

我為你們這一代人感到難過,因為你們這一代將要面對的困難會比我們這一代人面對的大得多。

我們很幸運地出生在一個社會穩定、經濟快速增長的時代,我們要成功所要做的就是好好學習,努力工作,不需要太擔心未來。我們的父母感到快樂,因為我們大多數人的生活都比他們好得多。

往前看,這個安穩時代已經一去不復返了。你們正面對一個以科技為主導的社會革命,就像工業革命將人類從農業社會帶入工業社會一樣。然而社會的變化將比從農業社會到工業社會的過渡要快得多。它將在未來10-20年內發生,工業革命需要超過一個世紀的時間完成。

你們將面對一個在科技和經濟上迅速變化的世界。在人工智能的帶動下,科技的快速發展將消除許多現有的重複或文書性工作,並創造新的工作類型。這些新工作確切是什麼我們還不清楚,只知道未來工作將需要分析創新技能和瞭解別人的同理心,而這些技能不是現有大多數工作的需要,也不是今天學校課程主要教導的技能。

STEM教育模式

作為一個負責任的教育工作者,我們必須考慮我們下一代需要什麼教育才能在即將到來的未來世界取得成功,並相應地調整目前的教育策略。我們現在的課程教導的是適合我們當今世界的知識和技能。然而,現今的世界將迅速消逝。為了我們下一代能夠在未來的世界中取得成功,我們需要考慮建構一種新的教學模式。

我們現在的教育體系是基於一套成熟的課程和教學法加上公平的公開考試。這是一個有效、公平的制度,使我們的學生能夠系統地學習一套成熟的知識和技能,在過去的大半個世紀裡,該體系在培養香港的優秀人才方面非常成功。它教授許多重要的基本知識和技能,這些知識和技能在未來仍然很重要,例如語言和數學、科學、人文和藝術的基礎知識。我們的老師和學生都習慣了這個體系。

該系統的最大弱點是缺乏靈活性去應對快速變化的未來,它假設存在一套成熟穩定的共同技能和知識。然而目前我們仍不知道未來世界這些成熟穩定的共同知識和技能是什麼,或者是否仍然存在。只知道現有學校課程教導不足以應對未來世界的需要。

面對這種困難的局面,教育局做出了一個決定,引入STEAM教育,目標是

• 準備我們的學生,新科技將在未來滲透到我們生活的方方面面,無論你想從事什麼樣的職業,包括藝術、音樂和文學。

• 對新科技(例如人工智慧)的優點和限制有一些基本認知。

• 培養學生的基本科學和工程思維技能,為他們從事創新科技相關領域的工作做好準備。

• 讓學生有獨立的自學能力 ,可以在迅速變化的社會自我學習新技術和知識。

STEAM教育也進行了創造性的教育模式改變,它邀請了大量不同工作領域的專家來帶領中學生進行STEAM相關研究題目,讓學生對現實世界有關STEAM的工作有更好的理解。每所學校都必須為它的學生提供STEAM學習體驗。它還將科學成為獨立科目納入小學課程。然而,STEAM並不是香港中學文憑考試的考試科目。我們希望大家明白,紙筆考試將不是未來考察學生能力的唯一標準。

下一代的未來

作為一名學生,我現在會感到迷茫。我聽從家長和老師的建議做一個“好”學生,努力學習,期望畢業後能夠找到一份穩定的工作。這些都是謊言嗎?未來是如此不確定,以至於我獲得了大學學位,仍然要繼續奮鬥學習新知識? STEAM教育更令人困惑。它不是香港中學文憑考試的一部分? 如何公平地評核我們?還是大學根本不重視STEAM教育?

這些壓力和不確定性,加強了現在年輕人的迷茫和沮喪感覺。

要幫助我們的學生,除了依靠心理學家和社會工作者,也許我們應該嘗試更清楚地向學生和家長解釋未來世界的改變。我們理解學生的迷茫,學生現在要面對這些教育改變,是因為我們希望他們能夠更好地裝備自己面對不一樣的未來世界。

挑戰越大,機遇也越大,我希望在不遠的未來能看到更多快樂,為成就感到自豪的香港年輕人。

老師

吳大琪

2024年4月13日

13/04/2024 - 足本 Full (HKT 09:00 - 09:20)

重溫

CATCHUP
02 - 04
2024
香港電台第一台
X

個人資料私隱專員鍾麗玲——人工智能系統有「機」亦有「危」 科企確保數據安全責無旁貸

主持人:張鳳萍

黃教授:

近期人工智能(AI),特別是生成式AI驅動的聊天機械人的崛起,例如 ‘ChatGPT’、 ‘Bard’、「文心一言」和「通義千問」,已在不同司法管轄區和各行各業引起了震盪。不知道你有否使用過這些聊天機械人,去幫助你教學或者研究的工作呢? 

與早期主要透過分析大數據作出決策的人工智能不同,聊天機械人的「神奇」之處在於它們可以秒速回應用戶的請求和問題,並根據所給予的提示,像人類般提供看來理性、完整及令人信服的回應,甚至可用來創作詩詞歌賦,這使它成為人工智能發展史上的一個里程碑。 

最近有報道指,生成式AI的邏輯理解和分析能力已相當接近人類,例如用生成式AI去解答文憑試DSE中史科試卷,可以1分鐘内完成試卷並得到5級的佳績。最近更有世界攝影比賽的冠軍作品是由人工智能生成。究竟我們面對的是真實的人的作品還是人工智能的作品,真是可謂「人機難辨」! 

然而,有「機」亦有「危」。雖然很多人視這科技突破為人類的福音,但人工智能的使用所帶來的私隱及道德問題同時引起各界關注。 

很多人可能不知道,生成式AI的運作建基於「深度」學習技術,當中涉及使用大量的原始資料或數據作為訓練數據,而這些資料或數據可以包括敏感的個人資料,可以是由用戶所提供的,或是由互聯網收集及複製的。 

試想一想,若你的朋友在你完全不知情、遑論同意的情況下,將你的姓名、職位、住址、身份證號碼,甚至信用卡號碼提供予聊天機械人作為對話的一部分,視乎有關程式的演算法,這些個人資料便可能會被儲存到機械人的資料庫中,並可能成為它回答下一個用戶的材料! 

從以上的例子可以看到,由於用戶的對話可能被用作訓練人工智能模型的新訓練數據,若是用戶不經意地向人工智能系統提供了敏感的資料,那麼他們的個人資料便可能會被濫用,超出用戶提供他們個人資料的原本目的。同時,若是相關的資料收集過程透明度不足,又是否會出現在用戶不知情及不公平的情況下收集個人資料,從而構成私隱風險呢?除卻資料的性質及收集過程外,還有其他同樣複雜的問題有待考慮及處理,包括用戶可如何行使他們查閱及改正資料的權利、如何保護兒童私隱、在開發及使用生成式AI的過程中如何減少不準確的資料、具歧視性或偏見的內容,以及減少資料安全的風險。

 最近更有報道指,有些員工因為使用聊天機械人而將公司機密資料,例如公司系統原始碼、甚至一些醫療紀錄放入聊天機械人的系統裏,引來企業機密資料和私隱外洩的憂慮。 

最近,全球超過二萬七千人,當中包括科技專家,聯署了一封公開信,呼籲所有人工智能實驗室六個月内暫停訓練更強大的生成式AI系統,並在這期間共同制定和實施一套安全守則。 

究竟現時是否將人工智能的發展好好地規劃及管理、甚至規管的契機? 

我認為科技公司,尤其是人工智能開發科企,有責任確保人工智能系統的數據安全,相關科企應檢視及評估他們的人工智能系統在運作上對數據私隱及道德的影響,並確保遵從相關法例或適用的指引。 

在這方面,私隱專員公署於2021年8月發出《開發及使用人工智能道德標準指引》,協助機構以保障私隱、符合道德及負責任的方式開發及使用人工智能系統。《指引》臚列了國際認可的人工智能道德原則,涵蓋問責、人為監督、透明度、公平、數據私隱、有益的AI,以及數據可靠、穩健及安全等方面的標準。機構在開發及使用生成式AI時,除了須要符合《個人資料(私隱)條例》的規定外,亦應該遵守這些原則,以減輕私隱及道德風險。 

展望未來,生成式AI的出現已經是一個不可逆轉的事實。我贊成對這新興科技採取一個謹慎開放的態度,在不窒礙新科技長遠發展的同時,亦應考慮以法律法規、指引、行業標準,或甚至國際標準去作出規範,令生成式AI在一個健康、合法及符合道德的空間中發展。黃教授,你從事科技研究多年,在這方面我也想聽一下你的意見。

 

麗玲

2023年4月29日

香港電台第一台

29/04/2023 - 足本 Full (HKT 09:00 - 09:20)