DIGI+中缺少的戰略思考— 資料

DIGI+的全名為「數位國家・創新經濟發展方案」,這個方案是以「數位國家、智慧島嶼」為總政策綱領,其實就是蔡英文總統在競選時就提出的政策方向,後來上任後,由行政院科技會報完成具體內容,並在2016年11 月通過。隔了一年,今天(2017年11月29日) 才召開民間諮詢委員會,會中除了介紹DIGI+方案的內容外,並設定了二個討論提案:

  1. 政府政策如何協助推動企業的數位轉型?
  2. 政府政策如何協助建立軟硬並重的產業生態?

後來,看了一下民間諮詢委員的名單才發現有八成以上的委員都來自於業界,而且都是大公司的老闆或經理,所以會設定這樣的討論提案就不難理解,但這二個問題其實有很大的邏輯問題,DIGI+的方案都已經核定通過,政策不就寫在計畫書中了,現在才討論這二個問題豈不太晚?

先說結論,我認為DIGI+方案缺乏以資料為向度的戰略思考。

DIGI+的戰略思考是什麼?

如果仔細地唸一下DIGI+方案的計畫書,不難發現,這個方案的戰略思考是以提升世界經濟論壇(World Economic Forum)的全球資訊技術報告(Global Information Report)中「網路整備指標」(Networked Readiness Index, NRI)來決定,而台灣在近5年中,由2012年的第11名,2016年已經下滑到第19名,主要的問題有法規和稅務環境不良、人才培育不佳、政府使用ICT技術能不足、對新興技術的採購牛步、以及ICT在社會影響力低,造成排名每況愈下,事實上,以得分而言,分數的變化不大,但其它國家的進步就是我們的退步,與我們最近的國家–日本,則是從2012年的第18名,進步到2016年的第10名,而新加坡在這幾年則是始終維持在第1、2名間,因此DIGI+的目標是在2025年時,我國數位經濟規模能夠成長至新台幣6.5兆元、民眾數位生活服務使用普及率達到80%、寬頻服務可達2Gbps、保證國民25Mbps寬頻上網基本權利、我國資訊國力排名能夠躍進到前10名。還有另一說是要力拚資訊國力為全球第 6 名。

無論要爭取全球資訊國力的第幾名都好,除了眼前的問題,一個國家的數位政策是否也應該兼顧未來ICT變化與挑戰,以及現今台灣ICT體質的改善? 的確,計畫書已經把目前己經發展的資通訊技術都放進去了,但3年後、5年後呢? 這樣的計畫書內容是否能因應未來的ICT發展呢?,是否思考由最基本的地方做起,以改善體質?

資料基礎建設的戰略思考

事實上,DIGI+的計畫書中也回顧了幾個主要及鄰近國家之數位政策,但可惜的是,我們的DIGI+似乎沒有把其它國家對於ICT調適的重點摸清,以及他們的戰略思考看透。

以資訊國力進步很多的日本為例,計畫書中提到,

2013年日本IT戰略本部公布「世界最先進IT國家創造宣言」,安倍經濟學第三隻箭之一的國家IT戰略,以「活用IT,創造未來」為政策願景,「開放資料」與「巨量資料」為主要推動核心,並結合日本向來引以為傲的人工智慧技術,在物聯網環境下,透過世界最高水準的IT應用,打破困頓已久的經濟閉鎖窘境。

可見得日本的IT戰略是以資料為基底來支撐技術發展,但DIGI+的計畫書並沒有這方面深 入的洞察,以分析台灣目前環境得以借鏡的地方,只是片面且粗淺地取了日本的超高速寬頻環境的成果,來背書DIGI+的寬頻基礎建設,且回顧「美國Gigabit城市挑戰計畫」也是同樣地只是為了寬頻基礎建設,難道美國沒有其它的數位政策了嗎? 川普政府不好說,但過去歐巴馬政府時代,確實制定了許多開放政府和數位治理的策略,很多地方都值得借鏡。

回到日本的IT戰略,我相信日本NRI的排名一路走高是因為基礎建設做的好,也因為有基礎打底,許多政策不會是表面功夫,人一換就一切如過往雲煙,很多人可能不知道日本在「世界最先進IT國家創造宣言」的戰略中,有一塊是針對「資料基礎設施」的行動策略,而資料基礎設施不是在做資料平台和Open API這種表象的工作,而是制定「共通語彙基盤」和「文字情報基盤」以利資料互通,不但讓政府各單位的資訊能橫向串聯,而且中央與地方政府的資訊也能縱向串通,在這個基礎上,針對「AI農業」(Agriculture Informatics)的進展,再制定「農業共通語彙」先讓農業資訊標準化,以利農業資訊共通,達到資訊利用最大化,創造以資料活用的經濟效益。

日本人瘋了嗎? IT最先進國的宣言居然在做這麼基礎的工作?! 但各位可以想一想,有多少人在FB或PTT上在靠北政府資料品質不好,連「台」和「臺」都不統一、連UTF8和BIG5也弄不清楚,更別說幾年前一個會議講「資料開放」,可能各自心中都有一個定義,且不太一樣。無論是AI、或是巨量資料,機器可理解愈多,人要處理的就愈少,我們要讓機器做的愈多,資訊愈標準化愈有可能,日本的IT戰略會有這樣的行動方案,一定是遇到很多資料無法整合問題,而造成資料應用和分析上的成本。

反觀台灣,我們沒有這類的問題嗎? 我們的開放資料走的快,得了個第一名,卻有了面子,忘了看裡子,開放了這麼資料,我們卻常被資料品質所苦 ; 有了這麼多資料,卻沒有可以拿出去國際上一較高下的應用案例 ; 政府釋出資料,卻不知道意義是什麼? 忘了開放資料所帶來可能的橫向和縱向串聯,而DIGI+中卻看不到日本IT的戰略思維,把開放資料視為敝屣,看不到資料基礎建設的價值。

科技始於來自於人性、智慧就是來自於資料

DIKW金字塔說明了如何從資料中得到資訊、轉化知識、運用知識成為智慧,因此當一個數位政策冠上智慧XX、如智慧島嶼、智慧城鄉、智慧生活應用、智慧製造服務、…的同時,不禁要問,這智慧從何而來?

會議中有委員提到「政府應推動各產業打造數據中心,以利用數據來提供智慧化服務」,這讓我想到去年在歐洲資料論壇聽到的計畫,Industrial Data Space,是一個藉由資料的數位治理(Digital sovereignty),也是一個由資料為基底來提供智慧化服務的計畫,這個計畫認為在工業的數位轉型中很重要的一個項目是在於資料和服務在公司間交換,藉由資料交換,以及與開放資料的整合來串聯公司,可以在新產品和智慧服務中產生附加價值,也就是說這樣新的數位商業模式是有機會應用在傳統工業的公司上。

Industry Data Space就是一個執行工業4.0的計畫,並大量使用資料治理的方法來達到以資料為底蘊的智慧化服務和產品,其中有一個重要的部份是在於一個「參照架構模型」(Reference Architecture Model),其實這就是前面提到的資料基礎設施的一環,如果各位有空去看看內容會發現,這之中有語彙、又有鏈結資料(Linked Data),所以是不是各位可以更理解,為日本在喊IT最先進國宣言,花了功夫在共通語彙基盤上呢?

資料趨動的轉型是數位治理的基礎

以資料趨動的轉型是一個硬功夫,確實要花很多心血和頭腦,但綜觀許多國際案例,資料基礎設施是一個資料趨動轉型的重要支柱,是數位治理的依據。我們的ICT環境比日本先進嗎? 為什麼我們要忽略這一塊? 有德國Industrial Data Space的案例,做為數位政策的 DIGI+ 有意識到資料在產業轉型的重要性? 會議中有另一位委員提到一段令人贊同的話,「在談產業的數位轉型之前,政府可否先做到數位轉型成功後,再來輔導產業」,所以目前DIGI+的計畫書內容真的有辦法帶給台灣政府數位轉型,以帶動產業嗎? 我存疑。台灣的資訊國力會因為這個DIGI+的計畫推動而提昇嗎? 我也存疑。

 

G20農業鏈結開放資料會議 Part 1 – 會議背景和Keynote

會議背景

LOD in Agriculture Workshop 做為G20 農業首席科學家會議(MACS)之一,聚集農業科技上的科學共同討論農業資料之標準化、結構化、鏈結化、及應用上的問題,這個會議是由GODAN ( Global Open Data for Agriculture & Nutrition)、 德國農業部(BMEL)、和德國農業科技與建立協會(KTBL)等三個單位來共同舉辦。

值得一提的是,GODAN是一個5年的跨國合作計畫,規模為850萬美元,由美國政府、英國政府、荷蘭政府、開放資料研究所(Open Data Institute, ODI)、聯合國國際農糧組織(FAO)、歐盟支援的農業研究與創新全球論壇(The Global Forum on Agricultural Research and Innovation, GFAR)、農業和生物科學國際中心(Centre for Agriculture and Biosciences International, CABI)、國際農業研究諮議組織(Consultative Group on International Agricultural Research, CGIAR)、農業與農村合作技術中心(Technical Centre for Agricultural and Rural Cooperation, CTA)、 和食物與農業研究基金會(Foundation for Food and Agriculture Research, FFAR)等10個單位共同出資,目前全球共有579個公私立單位參與成為該計畫夥伴。

會議開場

會議開場是由德國農業科技與建立協會(KTBL)的 Daniel Martini 主持。首先,由德國農業部(BMEL)官員致詞,說明會議舉辦的背景,是由於德國今年於漢堡(Hamburg)舉辦G20會議,並因此在波茲坦(Potsdam)舉辦G20中首席農業科學家會議(MACS),而去年的G20會議在中國時,就強調資通訊科技在農業上的應用與發展,延續這個議題,有鑑於歐盟近5年來在鏈結資料上的發展,德國今年則嘗試以鏈結資料在農業上的討論為主來承續中國在去年開啟的議題。而他也說明,雖然這是G20的會議之一,但這個會議其實不侷限於G20的成員參與,而是著重於農業和食物科學議題討論,而開放資料的策略提供更多在農業議題脈絡中創新的機會,有助於解決當前全球共同面對的農業和食物問題。

接著是GODAN計畫祕書的Johannes Keizer博士致詞,他是前FAO官員,退休後持續在全球的農業和糧食議題上努力,尋求更多解決的方法。他認為開放資料是解決全球農業和糧食問題的重要策略,許多的經濟效益是可以由開放資料而來,

而開放資料的重要的內涵在於資料再利用,產生資料流動,資料不斷地流動,才有可能有經濟效益和價值,開放資料也透過資料分享、知識分享,讓整個系統更有效率、更加有力量,更加的堅固。資料要流動,就必須讓資料能夠被找的到,資料要再被利用,就必須讓資料的語彙共通。

如何透過開放資料建立更好的農業和糧食資料的利用,進而解決問題,是GODAN計畫在尋找的解決方案,全球各地許多科研單位和科學家加入。他也強調,在剛結束不久的科研資料聯盟(Research Data Alliance, RDA)第10次會議於加拿大蒙特婁(Montréal)舉辦,其中有許多議題都和鏈結資料有關,而鏈結資料的技術與方法在農業和糧食問題的研究發展方興未艾,本次的會議就是想更深入去探討農業上的鏈結資料。

最後,由Daniel Martini給了一些開場的結語,他強調這個會議嘗試找出鏈結資料如何在農業上有用,農業資訊如何能透過當代資通訊技術製造更多的經濟效益,而這些議題不單單是德國的問題,而是全球的議題。

Keynote

會議主辦方邀請Elsevier的Paul Groth博士,以 「The Roots: Linked Data and the Foundations of successful agriculture data」為題進行專題演講。Groth博士先自我揭露說,他的科學背景是電腦科學,著重於開放資料和鏈結資料,而非農業領域,但家鄉是荷蘭,是非常重視農業科技的國家,也算是和農業扯上邊。

他先以三個問題來揭開專題演講,這些問題也是整演講的脈絡。

  1. 鏈結開放資料如何能讓農業不同以往? (How can Linked Open Data make a difference in agriculture? 
)
  1. 什麼樣的技術門檻阻礙了這個發展? (What technical obstacles stand in the way?)
  1. 什麼樣的政策需要配合? (What policies are needed to achieve the potential?)

他首先強調資料在農業的重要性,以精準農業為例說明資料是農業的中心。如圖1所示。他進一步引用Wolfert等人(2017)的文章,藉由該文的農業資料供應鏈之回顧分析中,說明了農業資料的問題,包含了格式、異質的資料來源、資料清理和準備的自動化、語意的異質性等,而這些正是鏈結資料技術可以應用的地方。

圖1: 資料是精準農業的中心

而研究科學資料在很早以前就開始討論資料開始的議題,在國際科學理事會(ICSU)帶領下,國際科學與技術資料委員會(CODATA)及研究資料聯盟(RDA)的會議中不斷地探討科學資料開放的議題,也使得投入科學資料開放的研究者愈來愈多,Groth博士以他為共同作者的Scientific Data期刊文章「The FAIR Guiding Principles for scientific data management and stewardship」為例,引導了科學資料中倡議開放資料的FAIR 原則,即是Findable, Accessible, Interoperable, 和Reusable,其節細內容如圖2,而達到FAIR原則所導向是成功的資料,而達成成功資料的最佳途徑就是鏈結資料。

圖2: FAIR原則
(來源: Wilkinson et al., M.D. 2016, The FAIR Guiding Principles for scientific data management and stewardship, Scientific Data 3, 160018)

資料再使用(reuse)成為科學資料開放的重要議題之一,要被使用就要找得到資料,要讓科學家能把自己的研究資料開放,資料引用(Data Citation)的制度是一個不可缺或因素,近年來也逐漸形成風氣,許多大型的期刊論文出版商目前都有資料論文(Data paper)的制度,且有些已經進入SCI索引。但這些似乎還不夠,期刊論文的使用者是科學家,對於一些特定群體的行為和需求則不一定滿足,例如,年輕科學家、政策制定者、學生等,觀測資料的背景使用比前景使用有較好的文件說明,也常有人需要資料而從別人的期刊論文中之表格再把資料再製,也有人會在搜尋引擎上尋找,或是直接索取資料。事實上,Google 對於資料集做索引,資料集發佈於網頁時,利用schema.org的語彙於HTML中會有助於Google 對這樣的網頁做索引。

對整合和互操作性而言,Groth博士先以ISOBUS這樣硬體規格,來說明標準所建立的整合和互操作性的重要性,接著解釋農業資料中己經有一些不錯的標準語彙,如AGROVOC和Crop ontology,而AGROVOC是促進農業鏈結資料的重要基礎,GODAN計畫更是重要的推手。資料要跨領域的整合,需要語意和語言的對映,Groth博士以植物知識庫的整合為例,來說明植物資料庫的整合過程,在語言方面,他也以Wikidata為例,說明語彙多語言的整合。

FAIR原則並不只是在於人類趨動的活動,而也著重於機器趨動的活動,因此資料的開放後,要考量的使用者並非只有「人」,還有一個重要的使用者是「機器」,FAIR原則所要克服的是人和機器在網路中尋找和處理處料時個別都會面臨到的問題,要弭平這樣子的障礙,機器學習是一個解決途徑。Groth博士引用吳恩達(Andrew Ng) 博士在2016年史丹福灣區深度學習課程中的一句話。

If there’s a task that a normal person can do with less than one second of thinking, there’s a very good chance we can automate it with deep learning.

也就是說我們現今有太多片段的知識可以透過機器學習建立出知識庫,使得人和機器都可以在語意共通的環境使用資料。接著舉NVIDIA利用深度學習於影像辨識,並將圖片中內容的萃取,例如圖3中,經過機器學習可以萃取出人物、酒瓶、和桌子,而影像辨識也在導入深度學習後,準確度大幅度的改善,圖4說明了ImageNet Large Scale Visual Recognition Challenge 在2012年後利用機器學習後,錯誤大量的減少。

圖3: 以分類來源圖片中每一個像素而產生語意圖的案例 (圖片來源: https://devblogs.nvidia.com/parallelforall/author/czhang/)
圖4: 在 ImageNet Large Scale Visual Recognition Challenge中前5大錯誤的比率在2012年使用用深度神經網路後,錯誤大量減少 (圖片來源: https://devblogs.nvidia.com/parallelforall/author/czhang/)

深度學習的叢集運算可以讓更多的知識由資料中被萃取出來,Groth博士再以ImageNet為案例說明以資料為導向的深度學習將會改變模式的建立,他引用了李菲菲(Fi-fi Li)博士受訪的一段話,

The paradigm shift of the ImageNet thinking is that while a lot of people are paying attention to models, let’s pay attention to data. … Data will redefine how we think about models.

ImageNet企圖建立的知識庫有如WordNet對於知識架構的分類(如圖5),這將有助於機器在處理圖片中的知識。他再舉一個例子是如何從社群媒體的文字描述去了Emoji的意義,如圖6中所示,這些Emoji所群集的分類是由文字描述的自然語言處理,輔以SVM演算法的改良,所得到的結果。

圖5: ImageNet 的概念階層是來自於WordNet 圖片來源: https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world/
圖6: Emoji向量在二個維度群集
(下方是國旗、左上方是有關於家庭的符號、在高一點的左上方是星座的符號、最左邊是動物的,中間則是笑臉)
(圖片來源: Eisner, B. et al. (2016). Emoji2vec: learning emoji representations from their description. arXiv:1609.08359v1)

Groth博士接著論述鏈結資料和機器學習的關係,他認為機器可以熟練於學習由文字、語言、圖片和影片中回答問題,是仰賴於我們訓練機器可有效率地由網頁去讀取資訊的能力。先回過頭來看看機器當今如何讀取網頁的,最普遍的方式是搜尋引擎都會做的事,就是透過爬取和索引網頁資源,進一步地可能還有語意化的標籤(例如,使用schema.org),再者,更深層一點的,就語意網的脈絡,可能是尋找且遵循對於知識本體和資料分享和再使用的開放鏈結資料爬取,而在Open API的脈絡而言,機器讀取資料是利用程式可取用的API透過HTTP/S和其它協定來讀取資料,這些機器的讀取方式都需要讓我們去想如何支援標記語言(ML)導向的資料,如XML、JSON、RDF/OWL等。

Groth博士進一步地以FAIR Data的概念來說明資料供應的標準和語彙如何強化資料的品質,在多資料來源和多使用者的平台上更加顯得重要,他就以全球變遷資料庫「The Global Change Information System」來說明如何利用W3C PROV (Provenance Vocabulary) 來幫助平台的資料品質。

圖7: 美國全球變遷資料庫(http://www.globalchange.gov/)

最後,他再回到一開始提到的三個問題,總結而言,他認為要解決這三個問題就是建立成功的FAIR農業資料,而鏈結資料的技術即是建立出FAIR農業資料的關鍵。

接續 Part 2。

英國政府公部門的URI設計

英國政府將政府URI視為資訊基礎建設之一,是「跨政府部門總體架構」(cross-Government Enterprise Architecture, xGEA)一系列的政策和綱領中的一部份,因此英國首席技術辦公室(Chief Technology Officer, CTO)提出「設計英國公部門URI集合(Designing URI Sets for the UK Public Sector)」之報告。

而URI的設計與資料中的概念及其定義有關,有清楚的定義有助資料的分享,以及政府部門發佈和查詢鏈結開放資料。英國政府明確定義URI之目的也在於方便擁有參考性資料(reference data) 的部門,可以讓他們的資料可被再使用(re-use),並且給予那些有可被鏈結資料的部門,可以根據這些規則來使用 URI,因此,URI的定義對於一些與政府部門資料有關係的人更為重要,如在擁有參考資料政府部門、希望透過整併的URI來改善資料再使用(data reuse)的資料擁有者、以及政府部門解決方案的提供者。

報告中指出在2009年時,英國就有一些公部門著手進行URI設計,包含英國廣播公司 (BBC)、英國測繪局(Ordnance Survey)和英國公部門辦公室。經過建立和整合好的實務經驗,對於URI的設計,他們有三個主要重點:

  1. 使用data.gov.uk為URI集合的根網域,以利再使用(reuse)。
  2. URI集合是以部門或機構(如教育、交通、健康等)來分。
  3. 有一致的註釋資料用來描述URI集合的品質特性。

而該份報告所提出的就是一個英國公部門URI設計、架構和原則的技術規範,因此報告中對於URI的進行分類且給予定義,如表1。

表1: URI 類別

資源型態 URI的型態去命名資源 定義/範圍
真實世界的’事物’

Real-world ‘Things’

辨識碼 URI

Identifier URI

這些都是可以在宣告中被指涉的自然或抽象之事物。

自然的真實世界事物,舉例來說,可以是一間學校、一個人、或一條路; 而抽象的事物,舉例來說,可以是一個政府部門、一個族群、或一個事件。

文件或作品也是可以以包含的內容來區別的真實世界事物。

真實世界事物可以大寫的’Things’來表示

一個真實世界事物(Thing)不可能出現在網路中,而只有資訊形容它,因此很重要的是,當有一些宣告是用來指涉它時,事物本身和形容事物的資訊能被區別

在網路上關於真實世界事物的資訊 文件 URI

Document URI

這些命名了位於網絡上的文件,這些文件由每個辨識碼統一資源識別元的發佈者清楚地連接,以提供關於真實世界事物的資訊。
表示 URI

Representation URI

當一個文件URI提供超過一個格式,每一個格式可分別以表示URI來命名

基於格式,有些表示URI可命名機器可讀的文件,且因而可提供進一步關於命名資源的連結

每一個識別碼在一個集合中的索引 列表 URI

List URI

這些提供辨識碼URI的列表,其包含在一個集合中
概念的定義 知識本體 URI

Ontology URI

鑑於一個真實世界事物識別一個事物的個別實例,這是需要提供概念的定義,而知識本體URI可被查詢以提供定義。

 

事物間的關係 知識本體URI

Ontology URI

一個RDF宣告的每一部份可以使用URI來命名,這包含真實世界事物之間的關係。

 

而知識本體URI給予一個到知識本體的連結,可以提供關係和及其所關連的概念的進一步推理。

URI集合

URI Set

URI集合 是指參考資料以URI發佈的參考資料URI之集合,一個URI集休也是表達一個概念,由單一資源來管理,例如,學校公路、司法都是各自的集合

命名URI集合且可以被所解析以提供這個集合品質特性之辨識碼 URI的一個型態

 

該報告由既存的優良實作經驗中衍生且經由修改而導出一些符合UK公部門URI集合原則,如表2所示。

表2: URI設計原則

原則
使用HTTP所以URIs可以被解析 必要
使用固定路徑結構以明確指示出URI的型態 建議
URI集合是否被提升被政府或公眾的其它部份再使用,發佈者會把它弄的更清楚 必要
公部門URI集合應該發佈他們期待壽命和對於再使用的潛力 必要
這些被提升為再使用的公部門URI集合應該至少可維持10年 建議
如果超過有一個代表URI,提供一個文件URI其中內容協商(Content Negotiation)可以用來提供最合適的表示 建議
避免暴露在一個在URI結構中的技術實現(implementation) 建議
至少提供一個機器可讀的表示URI 必須
如果適當,提供一個人可以的URI在HTML中 建議
對於單一文件URI提供發現每一個可用的表示URI的方法 建議
一個URI集合會發佈它的授權、身份驗証、和使用共同語彙的資料品質特徵 必須
一個URI結構不會包含任何會改變的,例如session IDs 必須
一個URI路徑結構是可讀的,以致於人對於它的內容會有合理的了解 建議

 

報告中也提供了當公部門要建立URI集合時的原則和考量,如表3。

表3:  公部門要建立URI集合的原則和考量

原則 考量
負責真實世界的事物的部門或機構應該負責定義URI集合和命名URI集合的實例,合適部門的代表 URIs應該被組織進具有領頭部門或構機的部門

領頭部門/機構應該與利益關係人接觸以確保這集合是能足以符合廣泛的需求

從一個被提昇為再使用的集合的URIs不應該包含現正負責它的部門或機構之名稱 這涉及到政府部門的改變,一部門或機構可以停止或改變業務範圍
圖1: URIs整合到集合之概念圖

一個URI集合可以包含4個部份(如圖1):

  1. 一個命名集合和描述它的品質特徵的URI
  2. 在單一概念中,對於真實世界事物的每一個識別碼URI
  3. 選擇性的,定義綱要的概念和關係的知識本體URI
  4. 選擇性的,列出在集合中的識別碼URI的列表URI

基於上述的定義和原則,該報告提出各個URI類型的案例,如表4所示。

URI 類型 URI結構 案例
識別碼 http://{domain}/id/{concept}/{reference}

or

http://{domain}/{concept}/{reference}#id

http://education.data.gov.uk/id/school/78 http://education.data.gov.uk/school/78#id http://transport.data.gov.uk/id/road/M5/junction/24
文件 http://{domain}/doc/{concept}/{reference} http://education.data.gov.uk/doc/school/78
表示 http://{domain}/doc/{concept}/{reference}/{doc.file-extension} http://education.data.gov.uk/doc/school/78/doc.rdf
綱要概念的定義 http://{domain}/def/{concept} http://education.data.gov.uk/def/school
綱要識別碼列表 http://{domain}/doc/{concept} http://education.data.gov.uk/doc/school
集合 http://{domain}/set/{concept} http://education.data.gov.uk/set/school

 

下圖則是顯 示URI如何被解析,例如http://transport.data.gov.uk/id/road/M5 即代表的是M5高速公路,而http://transport.data.gov.uk/doc/road/M5 則是關於M5高速公路的資訊。

圖2: URI如何解析的案例

 

一個鏈結資料(Linked Data)實作的調查

美國國際圖書館電腦中心(OCLC, Online Computer Library Center)在2014-15年間對全球的圖書館和博物館進行問卷調查,想了解全球的圖書館和博物館界在鏈結資料(Linked Data)的執行狀況,這個調查收集了20個國家90個機構的回應,問卷的原始資料在此,根據這個問卷資料,Karen Smith-Yoshimura 在2016年於D-Lib上發表了一篇文章,以下的內容是來自於這篇文章。

以機構的類別而言,調查對象是以圖書館為主,博物館比例較少。在這90個機構中,有些已經進行鏈結資料的工作超過二年,但也有為數不少的機構其實還沒有開始鏈結資料的工作。

機構進行鏈結資料工作有多久?

如何使用鏈結資料?以鏈結資料的使用而言,多數的單位鏈結資料的使用者,相對地,發佈者比例則較低。

調查如何使用鏈結資料?

那發佈鏈結資料的單位,因為調查對象是以圖書館為主,他們所發佈出來的資料類型,是以書目資料、描述的詮釋資料、權威檔、知識本體/語彙為主。若以發佈鏈結資料的動 機而言,大多數的單位認為資料轉為鏈結資料後,可以擴大資料的使用範圍。

發佈鏈結資料的動機

雖然許多機構的鏈結資料的計畫都是在剛起步的階段,能夠說出鏈結資料工作的成功之機構是相對低的,整理了46個機構的回饋,導出幾個成功的鏈結資料工作之指標:

  • 資料重複使用 (Data re-use).
  • 增加被搜尋 (Increased discoverability)
  • 新知識的建立 (New knowledge creation)
  • 思想的領先者 (Thought leadership)
  • 對於語意網的準備 (Preparation for the semantic Web)
  • 操作的順利進行 (Operational success)
  • 促進機構的發展 (Organizational development)
  • 促進機構的轉型 (Organizational transformation)

其文章也列出其他原因,包含:

  • 在未來的計劃需要發佈鏈結資料來利用及重複使用。
  • 最大化資料的互操作性和重複使用性。
  • 測試 BIBFRAME 和 schema.org。
  • 計畫需求。
  • 提供穩定、整合、正規化資料在跨機構的研究活動。

被提到發佈鏈結資料的障礙依序為:

  1. 學習曲線對員工太高
  2. 和舊有的資料不一致
  3. 選擇合適的知識本體來呈現資料
  4. 建立連結
  5. 在如何建立系統有輕量文件或建議
  6. 工具的缺乏
  7. 不成熟的軟體
  8. 弄清楚資料是誰的

最後,文章整理了受訪者給要進行鏈結資料計畫的單位一些建議:

  • 聚焦於你所要完成的目標,而不是技術的東西
    • 模型化你所要解決之案例的資料
    • 往長期的資料一致和統合 (data reconciliation and consolidation) 之方向去努力
  • 增加獨特的價值: 建立在你有但別人沒有
    • 挑出你可以解決的問題
    • 帶入你所處的機構/社群來思考
  • 對於鏈結資料結構、可取得的知識本體和你的資料能有好的理解
    • 消化你所發佈的資料
    • 一開始就考慮法律授權問題
    • 盡量廣泛地參考相關資料且諮詢專家
  • 現在開始! 就去做吧!

如何利用開放資料解決農業和糧食的問題

以下文字是取自於 ODI(Open Data Institute)在2015年發表的報告「How can we improve agriculture, food and nutrition with open data? 」,主要想分享報告中所整理的14個案例。

因為開放資料是任何人都可以近用、利用和分享的資料,這所形塑的解決問題之道,相對於不開放的資料是昂貴的、耗時的且不可能的。透過加快創新速度,開放資料促進了政府、商業、NGOs和個人的協同合作,得以有新的發現,以幫助永續地提供糧食於不斷增長的人口。這份報告區分出三個關鍵方向,其中開放資料在農業和糧食的挑戰中扮演解決問題的重要角色,這三個方向為:

  • 讓更有效、有影響的決策可以產生
  • 培植讓所有人都可以受惠的創新
  • 藉由透明化,趨使組織和部門的改變

讓更有效、有影響的決策可以產生

1. GroenMonitor: 以植被分佈圖防止害蟲爆發並保護農作物

田間生產量常因農作物受到害蟲侵襲而損害,在廣大的農田中,很難用人工方式偵測到老鼠或其它害蟲的入侵,GroenMonitor (GreenMonitor)是一個利用荷蘭的衛星影像所製成的植被圖來監控害蟲入侵的工具,其衛星影像是來自於歐洲太空總署 (European Space Agency, ESA)所釋出的開放資料,利用開放的衛星影像所製成植被圖,使得害蟲爆發的容易被辨識出來,在2014年,GroenMonitor 已經被用來辨識出12,000公頃受到鼠害的農地,這個工具現在還整合其它不同應用程式,包含植物物候學、作物辨識和產出、農業活動的辦識(如除草、犛田、和收割)、自然和水管理。

2. AWhere: 以氣象應用程式和簡訊預測幫助農夫

對於農夫而言,他們很難去取得影響他們耕作活動的基本資訊,如溫度高低、溼度和降雨,特別是在低度網路使用的地區,但很多資料提供者現在可以提供所需的氣象資料給個別農夫。AWhere 就是其中一個,透過他們全球資料庫和Weather Terrain,AWhere 結合從全球尺度到田間尺度的氣象觀測、預測模式、和歷史資料,幫助農夫做好的預測和規劃農業活動。

許多農夫,特別是發展中國家的,使用行動電話(而不是電腦)作為他們主要通訊的工具,因為這樣,迦納在地社群與AWhere一起合作,去發展一個APP在 Weather Terrain的Open API之上,以讓他們豐富的資料得以透過行動電話來使用,而這個使用方式是,氣象資料被轉換成簡訊服務,使用基本關鍵字(如,部份晴天的、部份多雲的、有風的)和照片,農夫可以低成本的方式使用氣象資料,讓他們可以決定關於耕作的事務。

3. Plantwise: 以最佳實務知識庫來增加農作用產量

約40%的全球作物產量損失是因為植物病蟲害,Plantwise幫助開發中國家的小農處理植物健康問題,它著重於增加糧食安全和改善鄉村生活以減少作物因病蟲害的損失,從 CABI(Centre for Agriculture and Biosciences International)的資料庫、研究論文和政府等資料,整合出全球和地方的開放近用的資料庫,使資料可以在線上平台取得和查詢,從全球各地的植物診所的疾病診斷報告,可以用來補充知識庫,並通知在處理蟲害的在地夥伴。

在二年發展下,Plantwise知識庫己經成為一個必要工具,以支持在33個國家的植物診所診斷,超過來自於198個國家的六十萬農夫造訪了這個知識庫,包含使用了超過九千筆的報表來取用關鍵的與作物蟲害相關的農業資料和最佳實作,去幫忙管理和預防作物在病蟲害的損失。Plantwise在2014年也獲頒ODI的對於社會影響的開放資料獎

4. CIAT Colombia: 以智慧氣候工具在旱災中省下3.6萬

這是一個最近利用公私資料的協作的案例,其成果幫助農夫得到預警,以避免旱災在哥倫比亞所造成的損失,在2007-2013年間,國際稻農組織(National Federation of Rice Growers; Fedearroz)、熱帶農業國際研究中心(Centro Internacional de Agricultura Tropical; CIAT)、和哥倫比亞農業部一同合作來處理旱災在稻米產量減少的議題,稻米是哥倫比亞重要的糧食之一  (詳見 Stuart, E, E. Samman, W. Avis and T. Berliner, 2015, The data revolution – Finding the missing millions, 37p)。

公私資料的使用,私部門資料取得是透過特別條款,CIAT 得以分析來自於每年稻米調查、採收記錄、田間試驗、和天氣資料的大資料集,且辨識出在稻米產量減少背後的複雜和區域特定之議題,根據分析,再去發展智慧氣候農業決策工具給哥倫比亞稻米種植者,而工具其實是開放給任何人的

無論是在農業部門,還是對於哥倫比亞的經濟的影響都是重大的,農業活動進行是根據 資料分析結果,幫助了農夫避免旱災造成的重大損失,省下估計360萬美元可能的經濟損失。這個智慧氣候的工具在2014年羸到聯合國巨量資料氣候挑戰頭銜

5. 加州水資源局: 以資料視覺化管理加州旱災

加州正經歷在過去記錄上最嚴重的旱災之一,缺水造成農業部門嚴重的威脅,農業的水利用是大約是整個州的80%左右,在2014年的農業部門的經濟直接損失預估有15億美元,在食物生產減少上有1萬7千工作喪失 (2014年加州旱災的經濟損失報告),為了確保安全和永續的水資源,加州水資源局宣布水供給計畫,這計畫減少了水分配到農地並減少了25%的用水。

開放資料被用來告訴州政府如何重新分配嚴峻的水資源,其方式是美國地質調查局(USGS)將乾早的情形視覺化,視覺化所使用的資料是由USDA研究機構群所收集,且開放近用的資料,這些資料涉及了農業永續、氣候變遷和自然資源保育在集水區尺度或景觀尺度之長期的自然、化學和生物資料,這使得研究人員和決策者得以監看水管理的狀況和計畫,根基於資料的模式,可以經常的更新、推估真實水量的水準、用水量和其它因子,並允許適時地預測和決策多少水量用於農業上。

美國農業部 (The US Department of Agriculture, USDA) 也研究了相關加州乾旱資料的開放,Catherine Woteki 博士希望這將是刺激公私部門在開放資料的使用,以幫助農夫在用水和作物選擇的決策支援。

培植讓所有人都可以受惠的創新

6. Climate Corporation: 以天氣模擬和智慧保險,省下作用和金錢

在過去,天氣預測模式中讓農夫很掙札,這些模式沒有把在地狀況納入考量,而導致沒效率的風險計算。Climate Corporation是一個開放資料商業公司,提供更為準確的保險和商業諮詢服務,以幫助農夫管理和調適氣候變遷。

透過分析大量來自於開放和其它來源的資料,對於特定作物產量進行模擬天氣事件和評估風險,因此他們得以提供專業的諮詢和準確的保險。

這公司使用開放資料是來自於美國國家海洋暨大氣總署(NOAA)美國國家氣象局的159個都卜勒雷達站、以及美國地質調查署(USGS)的地形圖和土壤分佈圖,Open Data Now的介紹

農夫使用詳細的天氣預測資以強化他們農耕行為和活動,如澆水、施肥、和播種,舉例來說,農夫可以使用這家公司所提供的溼度和降雨分佈圖,知道他們農田的特定區域是否過於溼潤而不能耕作。在一個工業水準上,開放資料加持的服務對這家公司的影響可以是很大的,在2013年,Climate Corporation的客戶使用他們產品耕作了超過一千萬英畝的農地

7. AgTrials: 以育種試驗的開放資料來改善作物品種

培育品種試驗是一個改善農作物品種的重要方法,在全球各地都有各式各樣的試驗在進行,這些試驗各著重於不同的主題,如耐旱、熱逆境和土壤管理,然而,這些資料幾乎都不能被其它研究人員所使用,而只是放在實驗室的硬碟中,甚至因為資料管理不好而造成資料逸失,形成不完整的資料集。

藉由農藝和植物育種試驗資料的整合和開放資料,由CGIAR在氣候變遷,農業和糧食安全研究計畫所負責的 Global Agricultural Trial Repository (AgTrials)  提供豐富的知識庫讓協同合作的計畫得以進行,去除掉非必要且有成本的重複工作。

科學家使用250個開放的AgTrials 資料集,以建立西非區域的農作物模式,這個模式被用在一個氣候變遷對於在地影響的計畫,並用來定義氣候變遷調適的育種計畫

8. FAO AGRIS portal: 把農業研究帶向大眾

AGRIS 是一個研究機構和資料節點的國際網絡,這個網絡讓農業研究資訊在全球可以取得,他們從在65個國家超過150個資料提供者中,收集且分享多樣的食物及農業出版品之書目資訊。

AGRIS 成為書目資料成為一個匯整平台,藉由超8百萬筆記錄的開放資料儲存庫,讓相關內容在線上有位址且可以組織這些內容,應用程式將在這個開放資料儲存中的記錄與連結網址與其它有品質的資料來源,例如世界銀行(World Bank)、自然期刊(Nature)、和中國種質資料庫(Chinese Germplasm Database)

AGRIS 平台已經有來自於204個國家超過750萬的人造訪,這些訪客從大學生到研究生都有,AGRIS 成為科學和技術資訊的最重要節點。

9.  CIARD RING: 讓農業食品(agri-food)資料更容易查找

儘管已經有很多相關於開放資料的資訊 (像資料集、平台、標準),相關資訊的檢索仍然是需要關注的重要議題,在這個脈胳下,CIARD R.I.N.G. 的資訊節點和閘道扮演了全球性農業研究發展(ARD)之註冊的網路資訊服務。

這個註冊服務允許資料提供者登記和分類他們的服務,在確保所有資料集都完成對於那種使用標準的詮釋資料(如語彙、範圍和標準)下,註冊的服務促進且利用了標準,而標準的使用促進資料的再使用(reuse)和被查尋,且允許更好自動化,現在約有1/3的農業食品資料集,即有超過1000個資料服務是具有特徵。

藉由透明化趨使組織和部門改變

10. Syngenta: 以開放且協作的平台來追蹤水、農藥、燃料的使用

在2013年,Syngenta宣布了他們的「好成長計畫 (Good Growth Plan)」,其中有6項承諾以改善農作物產量、保護土壤和生物多樣性,以及訓練小農和確保工作標準,並設定於2020年完成目標。這個行動著重於透過監測活動,如肥料和農藥利用及水和燃料的使用,讓農夫以永續的方法來增加農作物產量。

資料管理系統被建立於用來追蹤這些使用農地和公開農業資料的輸入輸出,由獨立的公司收集、驗証和分析

因應6項承諾的2014年的基準資料以機器可讀的格式(CSV)、CC-BY-NC-ND的條款釋出,透過這些行動,Syngenta和ODI合作,去建立一個開放且協同合作平台,以找出方法解決餵飽日漸增加人口的需求下減少資源使用,以及為生態多樣性而保護棲地。

11.FUNDAR: 在墨西哥找出不當使用的農場補助

在墨西哥,PROCAMPO 是一個最大的聯邦農場補助計畫,支援最貧窮農夫,自從2007年,他們開始關注真正極需要幫助的農夫,卻沒有拿到補助。

為了更了解這個情況,一個墨西哥的NGO組織,FUNDAR 研究分析中心徵求墨西哥農業部處理補助發放的相關資料,這個中心一開始拿到的資料是不完整且機器不可讀格式,在處理分析後,發現57%的受益者是分佈在最富有的10%之補助者,初步確認了他們所 害怕的事

這個重要的結果是來自於FUNDAR和其它NGO建立資料庫 (Subsidios al Campo en México)的貢獻,這個資料庫也不斷地發佈農場補助的資訊,以確保更透明化,以致於一系列的官員下台,且墨西哥政府也增加補助合格的限制。

12. 美國國家營養資料庫: 賦權消費者去聰明的選擇食物

消費者都會想知道他們買的食物之品質和內容物的資訊,雖然基本資訊已經標示在食品包裝上,但更詳細的食物營養資訊可以讓消費者依照個人需要做出更好的選擇,例如,遵從營養師指示。

美國農業部國家營養標準資料庫的(USDA National Nutrient Database for Standard Reference, SR25)是一個食物成份資料的主要來源,提供給公私部門,SR25包含約150食品公司中超過8,500食品品項的營養資料,例如維他命、礦物質、胺基酸、和脂肪酸,這些資料不限於商業應用(如,智慧型手機APP),這資料庫提供政府做了一個基本的服務 ChooseMyPlate.gov,由前美國第一夫人蜜雪兒歐巴馬和農業部祕書長湯姆·維爾薩克( Tom Vilsack)開始倡議,提供實務的資訊給個人、健康專業人員、營養教育者、和食品工業,以資源和工具幫助消費者做出飲食評估、擁有營養教育和其它友善的營養資訊,以建立更健康飲食

13. 歐盟食物警示: 幫助消費者了解他們吃的食物之風險

食物安全是另一個對消費者影響甚大的重要議題, 歐洲 RASFF (Rapid Alert System for Food and Feed) 平台 提供一個使用的資料庫,這資料庫收集的公開可得資訊是最近傳出的食品安全警示和通知,

消費者可近用資料於食品安全議題,例如出現在食品中過敏原,病原體,毒素或其他有害物質,以及分享預防資訊因為2011年福島核災,RASFF被用於監測來自於太平洋區域魚類和其它海洋產品中可能危害消費者的輻射殘留

How does RASFF work

14. LIVES: 標示餐廳檢查分數改善食品安全

開放資料也可以被用來幫助消費者去選擇那裡用餐,同時也促進改善食品安全的動機,LIVES (Local Inspector Value-Entry Specification) 是一個餐廳評分標準,目的在於標準化在不同管轄區的餐廳檢查分數,讓消費者了解不同城市和自家城鎮對食品安全的規格的不同。LIVES是在舊金山、Socrata, Code for America, 和Yelp在2013年所開始的計畫,它提供了餐廳檢查開放資料發佈的標準。因為市民得以更好的使用檢查結果,LIVES 事實上使食物容易清楚了解且可以選擇通過檢查的餐廳,當洛杉磯市開始要求餐廳要放衛生檢查等級在入口處,研究顯示減少了13%的因食源性疾病的住院治療

資料經濟(Data economy)是什麼?

歐盟在數位經濟和數位化社會(Digital Economy and Society)的發展脈絡下,著重於三個面向,也就是在

  1. 技術面,應著重於如何駕馭現今如此大量的、異質的和動態的資料,針對資料的特建構科技和基盤。
  2. 應用面,基於開放資料、鏈結資料、和巨量資料,打造創新的產品和服務。
  3. 社經面,在這個新的資料世代中,對於社會衝擊、法律問題、政府政策和法規、商業模式、商業化的應有調適和改變,以打造創新的環境。

而三個面向其實都是由資料的價值鏈(value chain)中衍生出來的。資料的價值鏈(value chain)主要行動都是在資料,包含資料輸入輸出、處理、分享和維護、而這些行動需要根植於支援的行動,包含政府對於資料的政策、法規、和治理想法,政府對於資料所建立的技術基盤(或者基礎設施),包含共通語彙、資料平台、資料標準和規範,這也是開放政府的透明化治理的一部份,而資料釋出後,技術社群會形成的生態圈,這其實就是公民科技是創新的基本,更重要的是,民眾因政府開放資料得以了解政府運作,甚至利用資料改善政府治理效能,使得政府和民眾的互動和溝通轉變,民眾不再只是一昧接受政府的支配,而是有能力提出改善的做法,這樣的發展則可能影響政府開放文化的態度。

 

以上內容發佈於Facebook

從知識發掘與資料探勘看自願性地理資訊之價值

自願性地理資訊是集結群眾的地理資料,常常記錄一般人對於週遭環境的經驗、感受與喜好,而知識發掘與資料探勘則是綜合各種技術和方法以便從資料中擷取出有用的知識,如何善用知識發掘與資料探勘由自願性地理資訊挖掘出有用的知識成為新世代地理資料科學家課題,讓我們用幾個實際的案例來說明知識發掘與資料探勘帶來解決問題的潛力,以及自願性地理資訊帶來的新的研究視野。

知識發掘與資料探勘

由於網路科技的發展,資料在網路中持續地快速增長,如何有效去蕪存菁,找出資料有用的知識,以解決問題,成為一項挑戰,知識發掘與資料探勘(Knowledge Discovery and Data Mining, KDD)即是一個跨領域的科學,著重於利用各種方法由資料中擷取出有用的知識,這些方法包含統計學、資料庫、圖形辨識、機器學習、資料視覺化、最適化分析、和高效能運算等研究。傳統的地理資料處理方法不足應付當今巨量且多樣化地理資料,知識發掘與資料探勘在地理資訊科學逐漸被重視,近年來常被應用於了解複雜的地理現象,例如,人與環境交互影響和社會經濟動態,同時也著重在於真實世界的危急問題,例如全球氣候變遷和流行性疾病散播(Mennis and Guo, 2009)。

自願性地理資訊

資通訊科技的革新,Web 2.0世代的來臨,改變了網路使用者的角色,從傳統上的資訊消費者,轉變成提供網頁內容的資訊生產者,同時,這個轉變也帶動了地理資訊的改變。傳統上地理資訊的生產是需要透過專業訓練的人員來製作,這些地理資料生產的工作也多數集中在測繪製圖單位、學研機構,然而,上述網路環境的轉變,也帶動地理資料生產方式的改變,新興的資通訊技術,開創了網路上開放性協同合作架構,帶動了網路地圖技術的革新,加上全球定位系統(Global Position System, 簡稱GPS)裝置的普及,使得一般人很容易地就可以在網路上共同地生產出地理資料,例如,開放街圖(OpenStreetMap, OSM),即是一個協同合作的線上地圖,參與者並非都是地理資訊專家,透過網路共同地繪製且編修地圖,這個地圖的產生不是專家學者的規劃,再由訓練有素的人員來繪製,相對地,這是透過一般人以協同合作的方式來產生,他們自願地貢獻時間精力來參與地圖繪製,產生地理資料,這類的地理資料通常被稱為「自願性地理資訊」 (Volunteered Geographic Information, VGI)(Goodchild, 2007)。

群眾外包集體智慧

自願性地理資訊其實就是一種群眾外包(Crowdsourcing)[1]的地理資料,在群眾集體協同合作的完成工作,在同儕相互檢視與競爭下,在生產的資料中產生集體智慧。 由群眾參與的製圖而成的開放街圖,縱然在一些區域的完整度和正確性仍有不足,但讓人驚艷的地方是,有許多地區已經達到商用水準,如西歐、美國、和日本,且與專業的地理資訊的品質亦相去不遠(Haklay, 2010),而包含於開放街圖中的知識,常成為補充專業性地理資訊不足的資源,以香港大學為主的研究團隊,他們利用開放街圖資料擷取土地坵塊的特性與類別,以便進行都市規劃(Liu and Long, 2015),而芬蘭國家土地測量局的一項研究也利用開放街圖擷取自行車道的資料,進而分析自行車道受歡迎的程度(Bergman and Oksanen, 2016)。

社群媒體的地理資料

除了開放街圖,事實上,有更多的自願性地理資訊是來自於社群媒體的使用,使用者為了分享訊息於社交網絡中,常常附帶一組地理座標於照片或文字中,使得這些分享的內容成為地理資料,這樣的地理資料,在多數情況下,不是事前的規劃才去產生的資料,而是一般民眾在日常生活中對週遭環境的觀察與感想,藉由社群媒體中分享於親朋好友,進而逐漸累積成有意義的資料,舉例而言,Flickr是知名的照片分享平台,提供使用者以標籤(tag)分類照片,當一地名被當成標籤而使用於帶有地理座標的照片時,這些照片所形成空間範圍,則可以表示一般人對於該地名所認知的空間範圍,圖1中所顯示的是以「公館」為標籤且帶有地理座標的照片所群聚出之區域,從圖上可以明顯看出,台北市內的公館是以新生南路到基隆路間的羅斯福路為基礎,並往北方的新生南路、東北方台灣大學校園、西南方的寶藏巖擴展,也就是說,當一般人提到台灣大學附近的公館時,其心裡所認知的空間範圍有可能不只有水源市場附近,而是更大的範圍。

圖1: 有「公館」為標籤且帶有地理座標的照片所群聚出之熱區圖

文字訊息是社群媒體中主要的內容,目前己經有許多研究和應用利用文字探礦(Text mining)的方法,由社群媒體的文字訊息來獲取有用的資訊或知識,例如預測群眾運動的發生、輿論的發展趨勢、商品的網路口碑、和災情分析等,同樣的,文字探礦應用於社群媒體也為地理資訊研究帶來不同視野,仇恨的地理(The Geography of Hate)是洪堡德州立大學(Humboldt State University)史蒂芬斯博士(Monica Stephens)團隊所執行的計畫,這個計畫的動機和剛卸任美國總統歐巴馬(B. Obama)有極大關係,他在第二任當選時,不滿他當選的人在推特(Twitter)中大量用歧視性字眼攻擊他,如黑鬼(nigger)和猴子(monkey),歧視性字眼的使用代表著仇恨、忿怒的負面情緒,而這些推特文(tweets)帶有地理座標,可標示於地圖,因此可以呈現出這些「仇恨」的地理空間分佈。該研究團隊收集2012年6月到2013年4月間,超過15萬筆的推特文,利用情感分析(sentiment analysis)將推特文分類,並依照情緒字眼所設計的量表,來區分出正面、中立、和負面,研究團隊不僅處理了對於種族仇視情緒,也處理了同性戀和身障者的仇視程度,當負面的仇恨情緒愈高時,在地圖上顯示的就愈紅、反之則愈藍,圖2所顯示的是黑鬼(nigger)的仇恨情緒的空間分佈,呈現出美國東西二岸相當不同的結果。

圖2: 黑鬼(nigger)的仇恨情緒的空間分佈 (http://users.humboldt.edu/mstephens/hate/hate_map.html)

GPS航跡中的時空間樣態

事實上,GPS航跡是自願性地理資料中不可或缺的一塊,許多人常會把跑步、自行車、開車、登山健行等活動所記錄的航跡分享,透過時空間這些航跡常常可以擷取出一些有意義的事件或地點。德國弗勞恩霍夫爾智慧分析與資訊系統研究所(Fraunhofer Institute IAIS)為主的研究,他們在義大利米蘭中收集了17,241部車子於一週中的GPS航跡,如圖3所示,利用時空間群聚分析把時空間行為相似的航跡歸類,並且區分出塞車事件和興趣點,圖4即是研究團隊從龐雜的GPS航跡中歸類出有意義的事件(Andrienko et al., 2011)。此外,北京大學為首的研究團隊分析北京市的塞車樣態,他們收集北京市中28,519部計程車在24天的GPS航跡,不但以時空間群聚分析把塞車事件區分出來,而且進一步地區分同一路段不同方向塞車樣態,圖5中說明了(a)路段是北三環路,很規律地在週間7:30-10:00和13:30-18:30二個時段都容易塞車,(b)路段的車速偏低,因為是在二個小學間,但週間的7:30-8:00時段是接送學生的時間,最容易塞車,(c)和(d)都是在北京西站旁的隧道,但分屬二個方向,一方向容易在早上塞車,而另一個在下午塞車,一大筆的GPS航跡若不經過處理很難看得出塞車(Wang et al., 2013),但經過適量處理後,不但可以發掘城市中的塞車樣態,可以了解市民的生活動態。

圖3:在米蘭一週中的GPS航跡之時空間分佈(Andrienko et al., 2011)
圖4:以時空間群聚分析從GPS航跡中歸類出有意義的事件(Andrienko et al., 2011)

 

圖5:利用GPS航跡以時間空視覺化分析北京市塞車樣態(Wang et al., 2013)

價值: 地理學研究再進化

自願性地理資訊帶來許多探究真實世界的可能性,而知識發掘與資料探勘的方法則是允許研究人員從資料中挖掘出知識的方法,利用合適的方法從自願性地理資訊中挖掘知識則為地理資訊科學帶來另一個視野,讓我們有可能更深入地了解人與環境的交互影響、區域特性和人文自然現象的空間分佈,即是應用知識發掘與資料探勘於自願性地理資訊的價值。

參考文獻

  1. Andrienko, G., N. Andrienko, C. Hurter, S. Rinzivillo3, S. Wrobel1 (2011) From Movement Tracks through Events to Places: Extracting and Characterizing Significant Places from Mobility Data, Proceeding of IEEE Symposium on Visual Analytics Science and Technology, pp.159-168, October 23 – 28, Providence, Rhode Island, USA
  2. Bergman, C. and J. Oksanen (2016) Conflation of OpenStreetMap and Mobile Sports Tracking Data for Automatic Bicycle Routing, Transactions in GIS, 2016, 20(6): 848–868.
  3. Goodchild, M.F. (2007), Citizens as sensors: The world of volunteered geography, GeoJournal, 69 (4): 211–221.
  4. Haklay, M (2010) How good is volunteered geographical information? A comparative study OpenStreetMap and Ordnance Survey datasets, Environment and Planning B: Planning and Design 37:682-703.
  5. Liu, X. and Y. Long (2015) Automated identification and characterization of parcels with OpenStreetMap and points of interest, Environment and Planning B: Planning and Design, 43(2): 341–360.
  6. Mennis, J. and D. Guo (2009) Spatial data mining and geographic knowledge discovery – An introduction, Computers, Environment and Urban Systems, 33: 403-408.
  7. Wang, Z., M. Lu, X. Yuan, J. Zhang, and H. van de Wetering (2013) Visual Traffic Jam Analysis Based on Trajectory Data, IEEE Transactions on Visualization and Computer Graphics, 19(12): 2159-2167

[1]群眾外包(Crowdsourcing)一詞是傑夫×豪伊(Jeff Howe)於2006年《連線》雜誌中所創造出的新詞,這個詞說明了當時正在發展趨勢,即是企業或組織的工作透過網路向廣大的群眾邀請,來提出解決問題想法(例如,因應氣候變遷的對策)、提供資源(例如,照片)、甚至簡單的勞務(例如,收集資料),最後,企業或組織聯合群眾一起共同地完成工作。群眾外包和外包(outsourcing)不一樣,外包(outsourcing)是將特定工作指派給特定的企業、組織、或個人,雙方會有一定的勞雇關係,而群眾外包是邀請廣大的群眾參與工作,強調協同合作的夥伴關係,參與者常常是自願者,也有可能得到一些回饋。

 

鏈結農產品產銷履歷資料(Linked Traceability Agricultural Product Data)

食品安全是現今社會的課題,歐美日等先進國家為確保食品安全,已先後實施食品「可追蹤系統」(Traceability System),而食品可追蹤系統應有二個方向,一為向上溯源(從下游往上由追查),二為向下追蹤(從上游往下游追查),二個方向的追蹤應都可追查食品在生產、處理、加工、流通、販賣等各階段的資訊。也就是說, 在食品生產、加工處理、流通販賣等各階段中,關於食品的進貨對象和銷售通路等記錄都予以妥善保管,並透過識別號碼的使用,使食品在各階段之產銷資訊能相互連結,進而建構出可以追溯或追蹤產銷資訊的體系,以在農產品而言,生產階段記錄農藥及化學肥料等栽培管理資訊,在加工階段,將原材料資訊等生產者或加工製造者所要傳達的資訊、將消費者需了解的資訊詳加記錄保管並發佈,以建立可供追溯或追蹤產銷相關訊息的體制 (胡忠一,2006)。台灣自2007年開始推動的農產品產銷履歷驗證制度,結合食品可追溯性(Traceability)和良好農業規範 (GAP)驗證制度,除了可追溯或追蹤產銷資訊,且具有採取嚴密驗證體系,以此建立飲食安全的基礎,並提升國產農產品的國際競爭力,創造農產品的附加價值(周念陵,2012),而可追溯性的建立,在食品安全事件發生時,可以讓主管機關、認驗證機構及相關業者,精確釐清危害來源, 並且快速回收問題食品,有效降低傷害(胡忠一,2006)。

農產品產銷履歷是一個關於農產品從這是一個從田間到零售、從生產者到消費者的記錄,包含產地、產品(作物)、生產者、通路商、栽種流程、加工流程、驗證等資訊,資料若能透過語意網技術加以精煉整理,資料本身可以展現許多知識,例如,作物之物候特性和栽種知識,據此知識,可以了解當令農產品,幫助消費者選擇,若農產品產銷履歷能與農情統計資料連結,一方面,生產者可以了解農產品的生產趨勢,商品流動狀態,因此可以訂定栽種策略,另一方面,政府則可進行作物宏觀的管理、制定作物栽種的調控策略,以免作物大量栽種,在市場崩盤,再進一步,若作物資料可與既有的生態資料庫連結,如植物資料庫,以建立長期生態農業的基礎環境。

然而,資料集與資料集之間的最基本的連結是透過主鍵(Primary Key),一般而言,就是一組不重複的唯一識別碼(ID),但以鏈結資料(Linked Data)而言,只要是資料集與資料集中有相同的實體(entity),就應該相互連結起來。相同實體在不同資料集間的連結是智慧化的開始,透過不斷地連結使得描述實體的內容愈來愈多,以作物名稱為例,作物名稱會被使用在產銷履歷中,但沒被區分出來,一旦區別出來,可與農產品批發市場交易行情中的作物名連結,而了解市場價格,這樣的過程就像是用同一作物名稱同時查詢二個資料庫再把資料整合,但同一作物有可能有不同名稱,同一名稱有可能不同作物,舉例而言,我們常吃的高麗菜,在農產品批發市場交易行情中是使用甘藍菜,鏈結資料即是把這二個作物名稱對映,機器處理資料時能透過這樣的連結而處理更多的資料,而這種連結若不斷持續的擴展,即可建立出知識圖(Knowledge graph)。

除了相同實體連結外,對於機器而言,實體的內涵,及其所代表的一種概念,都應該被清晰的解釋,在人的閱讀過程,可以將知識組合,但對於機器而言,這些實體若沒有清晰的定義,機器是沒辦法區辨出實體所代表的含意及其關係,以致於機器沒有提供進一步的有「智慧」的服務,因此,農業資料的鏈結建立,需要從實體的語意層級的定義開始,也就是建立與定義農業資料語彙,進一步地,建立農業知識本體(ontologies),並調查國際上已發展的農業詞彙,研究如何和這些詞彙映對,以擴展在地農業知識與全球的整合。

建立鏈結資料的目的在於提供一個更完善的資料基礎設施(data infrastructure),以便讓資料在不同知識領域的服務系統或資料庫中的流動,減少人為處理,並且疏理出更多知識脈絡,進而找出資料治理(data governance)的策略,因此農業鏈結資料的發展在資料基礎 設施的脈絡下,是可以增加不同知識領域或不同利益關係者的互操作性(Interoperability)和協同合作(collaboration),因而提昇公私部門協同合作的效率和生產力。

本研究利用農委會產銷履歷之開放資料,建立產銷履歷知識本體,及其三元組儲存庫,並利用該成果建立應用示範,本案朝向於如何利用語意化的產銷履歷資料提供智慧化的服務,讓使用者在瀏覽食譜過程中,有一智慧化元件利用語意化的產銷履歷資料自動地推薦產銷履歷農產品要去那裡買,或者可以去那家餐廳吃到使用產銷履歷農產品的料理。

資料與方法

為了說明如何建立利用語意化的產銷履歷資料的智慧化元件,以可以自動化推薦使用者產銷履歷農產品的服務,本節利用情境案例的方式說明該元件可以達成的服務,及建立該智慧化元件所面臨的問題和解決方法。

情境案例(use case)

小娟是一個家庭主婦,當她開始準備晚餐時,來到了iCook瀏覽蕃茄炒蛋的食譜,如圖1所示。在瀏覽食譜時,小娟可以透過一個瀏覽器上「外掛元件」的服務,找到該食譜網頁中食材所相對應的產銷履歷農產品,以及販賣產銷履歷農產品之賣場和餐廳,並利用簡單的邏輯和空間運算,可以找到在離小娟住家最近的商店,以便購買。在前往購買之前,小娟透過該元件的服務,了解該農產品的價格,估算做這道菜的成本。對於同一種農產品可能有很多的選擇,該元件後端系統整併了產銷履歷達人的資料,因此可以推薦小娟產銷履歷達人的農產品。因為食安問題,販賣產銷履歷農產品之賣場和餐廳是否為合格廠商亦是被關心的問題,衛福部食藥署之登錄的食品業者,該外掛元件後端系統將販賣產銷履歷農產品之賣場和餐廳與衛福部食藥署之登錄的食品業者先進行比對且連結,因此可以提供小華欲前往之賣場是否為衛福部食藥署已登錄的食品業者。

圖1: 在iCook中的蕃茄炒蛋食譜

問題與分析

情境案例中的「外掛元件」,可以利用JavaScript去建立Chrome瀏覽器擴增模組(extension),讓使用者在瀏覽食譜網站時,不需要跳出本來瀏覽的食譜網頁,而這個外掛元件基本上應該進行二件工作,一是讀取iCook食譜網頁中食材,二是以食材送出查詢以取得產銷履歷農產品,以及販賣該產銷履歷農產品之賣場與餐廳,並提供條件設定,可過濾不符合條件之結果。由這二件工作中,我們列出問題,並藉由分析問題中提出解決的方式。

(1) iCook食譜網頁中的食材如何清晰地被取得?

iCook網頁中使用schema.org的語彙,如圖2所示,蕃茄炒蛋中的食材,如牛蕃茄、蛋、青蔥、鹽、…等,都以schema:ingredients 這個語彙所釋詮,因此Chrome的外掛在設計上可以利用Schema.org的語彙,以避免在語意的模糊,而可以清晰地的取得食材。

圖2: iCook網頁中使用schema.org的語彙

(2) 產銷履歷農產品資料雖然已使用結構化的資料儲存方式(JSON),但資料中的實體,如作物名稱、銷售通路商、混雜在文字之中,如何被區分出來?

產品名稱中通常會夾雜作物名稱,如圖3中的產品名稱「檸檬-產銷履歷檸檬(產銷履歷檸檬)」夾雜著「檸檬」,再者,銷售通路中,也夾雜著商店名,如「惠康Wellcome超市(全台各分店), …」這一項中提到,頂好、愛買、家樂福、全聯、好市多等商店,但全在一個欄位,進一步地,「全台各分店」是指這商品在該商店的全台每一家分店都有買,就資料的語意而言,應該區分至每一家分店。

圖3: 產銷履歷農產品開放資料的JSON格式

(3) 產銷履歷農產品、產銷履歷農產品之賣場與餐廳、產銷履歷農產品達人、衛福部食藥署之食品業者登錄分屬不同資料集,資料結構亦不同,如何透過語意技術達到跨資料集的查詢?

產銷履歷農產品、產銷履歷農產品之賣場與餐廳、產銷履歷農產品達人、和衛福部食藥署之食品業者登錄之建立並不是同一個資料集,以關連式資料庫的基礎的傳統做法,是將所有資料透過主鍵的方式將資料串連,而語意網的做法,則朝向於聯合式SPARQL查詢,此查詢得以進行,是因為RDF資料集中,已經先將語意相同的事實相互連結,或以owl:sameAs語彙對映,因此SPARQL查詢過程中,以圖形(graph)為主的三元組資料(RDF),可以整合在一起,以提供完整的結果。

當然,產銷履歷農產品、產銷履歷農產品之賣場與餐廳、產銷履歷農產品達人、和衛福部食藥署之食品業者登錄等資料需要以三元組資料(RDF)方式編碼,且以知識本體為基礎,並分別建立SPARQL查詢端點(endpoint)。

(4) 產銷履歷農產品和產銷履歷農產品之賣場與餐廳中只有地號地址沒有XY座標,如何過濾結果?

產銷履歷農產品和產銷履歷農產品之賣場與餐廳之資料中只有地號或地址,為了進行空間查詢與運算,必需把地號和地址轉化為經緯度坐標。所幸內政部TGOS中有提供地址轉經緯度坐標的服務,且Google Maps亦提供地址轉經緯度坐標之服務。地籍地號方面,地政司也有地籍查詢便民系統,可查詢地籍之經緯度坐標,但無提供API查詢,本研究則是使用社群所建立的地籍地號轉座標的API 達成轉換,可透過這二個系統來取得空間座標。

技術與方法

農產品產銷履歷資料是開放資料,但產銷履歷農產品之賣場與餐廳、和產銷履歷農產品達人只公開在網頁上,但尚未以開放資料釋出,本示範案會設計網頁爬蟲,以自動化抓取這三個網頁中的內容。

取得資料後,需要清理資料,並利用自然語言處理,例如具名實體辦認(Name Entity Recognition),來區分出實體。藉由實體所表達概念與關係,建立知識本體,並利用W3C在語意網的規範,例如,OWL和RDF來編碼三元組資料,且儲存三元組於三元組資料庫(triple store),以及三元組資料服務端點(SPARQL endpoint) 。

而衛福部食藥署食品業者登錄已是開放資料,農產品產銷履歷之銷售通路商和餐廳有許多應是已登錄的食品業者,再者,這些銷售通路商也應該可以在經濟部商業司的公司登記資料中查詢的到,然而,這三者的商店或公司名稱常所指的是同一家公司,但名稱卻不一致,需要自然語言處理,找出相同的銷售商名稱和餐廳,待找出相同的實體後,利用owl:sameAs對映。

圖4: 具名實體辨識處理的示意圖

自然語言處理

具名實體辨識(Named Entity Recognition)是一種從一組文字中區分出具有意義之人事時地物名稱的自然語言處理方法,此方法將文字斷字的處理後,判斷單字會在句子之中出現的特定位置,根據文法結構,單字被分類至所屬的預設的分類,如人名、組織名、地方名、時間、數量、百分比、貨幣…等,圖3所示 。再者,為了對映二資料中相同的實體,如作物名稱,也需要字串相似度的比較 方法。

知識本體

本體論(Ontology)一詞是由亞里斯多德(Aristotle)在 Metaphysics IV, 1 中所提 出,為哲學之一個分支,是研究「 在」本身的問題,即一切現象事物的基本特質。哲 學家所探討的問題著重在於「 在是什麼?」、「 在的特徵是什麼?」和「 在所歸類 的共同特徵是什麼?」等一系列形而上學的問題。然而,本研究中的「知識本體」 (Ontologies)一詞,並非在哲學領域的討論,而是資訊工程中用來定義資料本身語意 (Semantics)的方法,Guarino(1998)為了區分哲學和資訊科學中的知識本體不同, 建議哲學領域所使用的知識本體為英文大寫單數的專有名詞 Ontology,而資訊科學所使 用的知識本體為英文小寫複數一般名詞 ontologies,也就是說,將知識本體(Ontologies) 視為資訊的一種。
而知識本體的的建立即是知識工程,是知識呈現的技術與方法,Noy and McGuinness(2001)認為建立知識本體應該定義

  1. 知識本體中的類別(Classes);
  2. 安排分類體系中的類別(Subclass–Superclass);
  3. 定義屬性(Slot)和描述這些屬性的允許值;
  4. 給實例(Instance)填入屬性的值。

就知識工程的方法,他們認為知識本體的建立應包含三個步驟:

  1. 定義領域和範圍;
  2. 考慮重覆利用性;
  3. 列舉本體中的詞;
  4. 定義類別和層級;
  5. 定義屬性;
  6. 重新定義屬性;
  7. 建立實例。

Gruber(1995)提出用框架和第一階邏輯(First Order Logic)來建立知識本體,並定義 5 種基本要素:類別(Classes)、關係(Relations)、功能(Functions)、正規的原則(Formal axioms)和實例(Instances)。而知識本體(Ontologies)根據表達方式有不同的正規化 (Formal)程度,如果表達成自然語言,知識本體可以是高度非正規的;如果表達在一個限制和結構的自然語言形態中,則是一個半非正式的; 如果表達在人工和正規定義的 語言,如 RDF 和 UML,是一個半正規知識本體,而如果一絲不苟地以正規的屬性的語意(Semantics)、定理(Theorems)和證據(Proofs)來定義知識本體中的詞,則是 一個完全正規的知識本體,如第一階邏輯(Uschold and Gruninger,1996; Gómez-Pérez et al.,2004)。隨著,語意網技術的發展,W3C已製定了知識本體的語言OWL(Web Ontology Language) ,其中使用描述性邏輯(Description Logic) 來定義語意,目前大多數知識本體的建立皆以 OWL 為主,只是在格式上採用較為簡單的Turtle或N3。而知識本體的建立工具則以Protégé 為最多人使用。

三元組儲存庫

原始資料透過知識本體,將資料轉化為RDF格式,若是原始資料為表格型態(spreadsheets)可以用Google Refine的 RDF擴充模組、XLWrap、RDF123、或NOR2O等工具,若資料是關連式資料庫,則可以D2RQ、 ODEMapster、或W3C RDB2RDF WG 所發展的R2RML等工具。而若是 XML格式,則可以使用GRDDL或ReDeFer。
資料轉為RDF後,必需由三位組資料庫(triple stores)來儲存, 將RDF資料處理後, 以便提供查詢與管理,因為RDF的查詢語言為SPARQL,因此提供於網路上提供 SPARQL來查詢和管理RDF的接口,又稱為SPARQL端點(endpoints),目前已經有許多開源的工具可以使用,如Jena、Virtuoso、Sesame、4Store、OWLIM、和BBN Parliament等,而為方便RDF資料在網頁上瀏覽,且可以直接透過網頁展示連結資料,目前也有數套前端連結資料服務的工具可以使用,如Pubby, TalisPlatform、Fuseki、和D2RQ等,值得注意的是Pubby和D2RQ是二個受歡迎的前端連結資料服務,但其資料處理與提供方式並不相同,D2RQ強調資料儲存於關連式資料庫中,透過turtle格式映對(mapping)編輯,D2RQ可以直接將關連式資料庫中之資料轉為RDF,並直接顯示於網頁上,而Pubby的後端則必需接上一個三位組資料庫來提供資料。

SPARQL查詢

SPARQL為RDF的查詢語言,其設計的概念很像關連式資料的查詢語言SQL。為展現圖型式資料集和鏈結資料的好處,本案使用聯合式(federated) SPARQL查詢來建立前端的示範平台,為說明聯合式SPARQL查詢,本案利用Andreas Schwarte (2011) 的投影片來解釋,如圖5所示。

圖5: Federated SPARQL Query示意圖

RDF是一個方向性的、標籤的圖型(graph)資料,向來表達在網路中的資訊,SPARQL可以用來表達跨不同資料來源的查詢,其中資料需要是RDF或以RDF做為中繼的媒介,聯合式的(Federated) SAPRQL Query 也是一個W3C所 倡議的標準 之一。圖6為聯合式的SPARQL查詢之範例,其查詢跨過二個資料集,或者說二個SPARQL Endpoints,欲查詢紐約時報報導美國總統的頭版文章,透過DBpedia,可以找到美國總統,如圖6 所示,這些被找到的美國總統,則可以對映到紐約時報中總統,紐約時報所用的語彙只是總統,並沒有說明是那一個總統,但因為利用sameAs指向了DBpedia,因此,機器知道在紐約時報找到的這個Barack Obama總統,是美國總統,如圖8所示,聯合式的(Federated) SAPRQL可以一直利用這種方式查找下去,並找到更多的總統,及其報導文章,如圖9所示。

圖6: 聯合式的SPARQL查詢的範例
圖7:先找出DBpedia中的美國總統
圖8:利用owl:sameAs對映所找的美國總統
圖9:對映出更多的美國總統

系統架構

根據問題分析和技術方法的討論,本案預計以聯合式SPARQL查詢方式建立Chrome擴增模組,以提供產銷履歷農產品的應用示範,其系統架構如圖10所示,除了第一期所建立之產銷履歷農產品之三元組資料及SPARQL查詢系統(endpoint),本案會另建立產銷履歷農產品之賣場與餐廳、產銷履歷農產品價格、衛福部食藥署之食品業者登錄、和經濟部商業司工商資料庫等五個資料集之三元組資料及及查詢系統(endpoint),其所有空間參照也都將利用內政部的服務系統轉化成經緯度座標,以便空間條件的查詢過濾。整體而言,系統的運作方式,如圖11所示。

圖10: 系統架構圖
圖11: 系統運作

資料擷取與清理

產銷履歷農產品賣場資料的處理

於農產品產銷履歷網頁上,可查尋到賣場的資料,如圖12所示,且開放資料平台亦釋出「產銷履歷供需資訊-找通路」,這資料集只有8筆資料。根據農產品產銷履歷網頁上的賣場資料,大約可以得到300多筆賣場資料,但這些資料並不完整,因此,本案是以農產品產銷履歷JSON資料中,在「StoreInfo」所提到的商店名稱,該欄資料中包含了大量連鎖商店,如圖3中,惠康Wellcome超市(全台分店),因此先透過網路爬蟲將所有連鎖商店之分店資料擷取,如名稱、地址,若一農產品產銷履歷產品是記載供貨到「惠康Wellcome超市」,則該農產品產銷履歷產品是對映到頂好的全台所有分店,而不是只是記載惠康Wellcome超市。而該欄中常只有農民名稱和連絡方式之銷售通路,這部份不納入整理,主要原因沒有住址無法定位,而在本案平台中展示。最後,將所有資料一一清理並整理成銷售通路資料庫,圖13所示。

圖12: 產銷履歷銷售通路

 

圖13: 產銷履歷銷售通路資料庫

產銷履歷農產品餐廳資料的處理

由產銷履歷農產品供貨資訊網站中,「那裡吃」可以取得使用產銷履歷農產品的餐廳的資料,餐廳的食材溯源又分為台灣農業跨領域發展協會和有心肉舖子所建之平台,如圖14和圖15所示,二者要呈現的資料都是餐廳有那些餐點使用了產銷履歷農產品,但網頁結構不同,因此需要設計二個爬蟲程式去捉取資料。最後,整理成使用產銷履歷農產品餐廳資料庫,如圖16所示。

圖14: 有心肉舖子所建立的有心溯源餐廳平台
圖15: 台灣農業跨領域發展協會所建立的溯源餐廳系統
圖16: 使用產銷履歷農產品餐廳資料庫

產銷履歷達人資料的處理

每年的產銷履歷手冊都會把獲獎的產銷履歷達人的採訪和資料整理刊出,如圖17,而這些再被產銷履歷農產品資訊網中一則一則分出來,提出PDF檔,如圖18所示。因產銷履歷達人筆數目前不多,本案是以人工方式逐一整理,成為資料庫,如圖19所示。

圖17: 獲獎的產銷履歷達人
圖18:產銷履歷農產品資訊網中的產銷履歷達人
圖19:產銷履歷達人資料庫

衛福部食藥署食品業者登錄之處理

通路商和餐廳整理好之後,利用自然語言處理,自動地去比對產銷履歷中的通路商名稱和衛福部食藥署食品業者登錄中公司的名稱,計算其字串的相似度,因名稱常有重複,再者再以地址輔助來判斷是否為同一商家。在地去比對產銷履歷中的通路商名稱對應到衛福部食藥署食品業者登錄的公司後,可取得統一編號,利用統 一編號可串連經濟部商業司公司登記。

三元組資料與應用系統

知識本體的建立

為清楚解釋農產品產銷履歷資料,知識本體的設計分為三個部份,產地之地理空間、農業概念、和產銷關係,如圖20所示。在產地之地理空間方面,是以「產地 (Place of Origin)」為基礎,每一個「農產品產銷履歷 (Traceable Agricultural Product)」都透過「產於(isProducedAt)」指涉一個「產地 (Place of Origin)」,其產地則是由一個「地址(vCard:Address)」或一塊「農地(Parcel)」來表示,地址表達是再利用vCard的語彙,則可以轉換成「點(geo:Point)」,重複利用OGC GeoSPARQL語彙來表達,農地是一個圖徵概念(geo:Feature),實際上是指涉到一個地號,而地號可以轉換成「點(geo:Point)」或「多邊形(geo:Polygon)」,同樣是使用OGC GeoSPARQL語彙來表達。無論是「點(geo:Point)」或「多邊形(geo:Polygon)」都是幾何的概念(geo:Geometry),也都有geo:WKTLiteral來記錄經緯度資料。

就農業概念而言,「農產品產銷履歷 (Traceable Agricultural Product)」是一個相等於AGROVOC語彙中的農產品(agrovoc:Agricultural Product),該農產品是產品的子類別,而每一個「農產品產銷履歷 (Traceable Agricultural Product)」中都可以區別出一種「作物(Crop)」,該作物概念也同等於AGROVOC語彙中的「作物(agrovoc:Crop)」,該作物是植物的子類別,也就是植物的一種,雖然農產品和作物都是簡單的概念,若沒有充份、有邏輯的解釋,機器是沒有解讀其語彙的語意,本研究所設的知識本體並不需要「重覆製造輪子」,利用農業專業領域中所製定的國際標準語彙,即可將概念充份解釋,讓機器解讀。

同樣的,在產銷關係方面,本研究所設計的知識本體則是利用Friend-Of-A-Friend語彙(簡稱foaf),每一個「農產品產銷履歷 (Traceable Agricultural Product)」都會有一個「驗證單位(Certification Agency)」、「通路商(Store)」、和「農產品經營業者(Producer)」,這三個概念都可歸納成foaf中的「組織(foaf:Organization)」,而每一個「農產品產銷履歷 (Traceable Agricultural Product)」也都有一個「生產者(Farmer)」,該生產者是foaf中的「人(foaf:Person)」。此外,每一個「農產品產銷履歷 (Traceable Agricultural Product)」也具有一個XML schema格式之整數值的追蹤碼、一個XML schema之日期格式的包裝日期、和一個XML schema日期格式之驗證有效日期。

圖20: 農產品產銷履歷知識本體

三元組資料的轉換與資料查詢端點的建立

本研究是透過D2RQ將農產品產銷履歷資料轉換為三元組資料(triplify),且發佈三元組資料。D2RQ Server是用來發佈關連式資料庫內容在語意網上的一個工具,語意網即是一個包含鏈結資料的全球資訊空間,為達到鏈結的資料,資料需要被模型化且表達成三元組的編碼,D2RQ Server使用客制化D2RQ映對語言(mapping language)來對應資料庫內容和三元組資料編碼,並且可以讓這些三元組資料被瀏覽和透過SPARQL語言查找,這二個方式都是語意網開放近用(access)的典範。

三位組儲存庫(triple stores)是來儲存、管理、查詢RDF資料集的平台,而RDF的查詢語言為SPARQL,因此提供於網路上提供SPARQL來查詢和管理RDF的接口,因此,利用三元組儲存庫來提供SPARQL服務的平台,又稱為SPARQL端點(endpoints),目前已經有許多開源軟體的工具可以使用,如Jena、Virtuoso、Sesame、4Store、OWLIM、和BBN Parliament等,而為方便RDF資料在網頁上瀏覽,且可以直接透過網頁展示鏈結資料,目前也有數套前端鏈結資料服務的工具可以使用,如Pubby、TalisPlatform、Fuseki、和D2RQ等,值得注意的是Pubby和D2RQ是二個受歡迎的前端鏈結資料服務,但其資料處理與提供方式並不相同,D2RQ強調資料儲存於關連式資料庫中,透過turtle格式映對(mapping)編輯,D2RQ可以直接將關連式資料庫中之資料轉為RDF,並直接顯示於網頁上,而Pubby的後端則必需接上一個三位組資料庫來提供資料,如圖 21所示。

圖21:D2RQ和Pubby之比較

D2RQ平台包含三大部份,分別是D2RQ 映對語言(D2RQ Mapping Language)、D2RQ 引擎(D2RQ Engine)、和D2RQ 伺服器(D2RQ Server),如圖22所示。映對語言是一種敘述性映對語言,用來描述知識本體和關聯式資料庫的資料模型之間的映對關係。D2RQ 引擎是Apache Jena 的外掛模組(plug-in),Jena API是接受SPARQL語言接口,而這個外掛模組即是用來重寫來自於Jena API的SPARQL語言查詢為SQL語言,使得查詢得以在關聯式資料庫中運作,另一方面,也將在關聯式資料所查詢的結果,轉成RDF資料,使得關聯式資料庫成為三元組儲存庫的使用,因此也可以透過這個外掛模組將關聯式資料庫中所有的資料,以RDF的格式倒出,或者再與其它JAVA的應用程式一起使用。D2RQ 伺服器則是一個HTTP的伺服器,提供鏈結資料的以HTML的方式瀏覽、查核RDF資料的正確性、和提供SPARQL的查詢。

圖22:D2RQ平台架構
圖23:產銷履歷農產品的D2RQ server

D2RQ Server是依靠映對檔將資料庫中的資料轉化成為三元組資料,進 一步地可將三元組資料顯示於網頁中,使資料可以容易用瀏覽器閱讀。為實現鏈結資料,本案將產銷履歷農產品、通路商、和餐廳三個資料集 ,分別建立SPARQL Endpoint,圖23即是產銷履歷農產品的D2RQ server,運作於 http://tap.linkedopendata.tw 上,包含作物(Crop)、生產者(Farmer)、產銷履歷達人(Expert)、 農產品經營業者(Producer)、產品名稱(Product Name)和產銷履歷農產品(Traceable Agriculture Product)等類別,除了瀏覽HTML和RDF資料的功能,D2RQ server亦提供SPARQL的查詢。

完整的映對檔在附錄中,此章節只解釋重點關鍵的宣告表達方式,圖24即顯示本研究所設計的映對檔中的一段,對於「產品名稱 (tap:ProductName)」和「產銷履歷農產品 (tap:TraceableAgriculturalProduct)」二個類別(class)映對定義。在「產品名稱 (tap:ProductName)」類別(class)的定義中,第一段中說明了產品名稱本身被化為唯一的URL(urlify),如「http://tap.linkedopendata.tw/page/ProductName/小白菜(履歷)是唯一的,第二段中宣告了資料庫中產品名稱欄位的值並用於產品名稱的標記(label)。

但還是有許多產銷履歷農產品名為為「小白菜-履歷小白菜」,因此第三段宣告了所有具有相同產品名稱的產銷履歷農產品都歸於同一產品名稱,為確保唯一性,利用產品名稱和產銷履歷農產品的追蹤碼產生雜湊值(hash)來做為產銷履歷農產品的URL,確保產銷履歷農產品的唯一性,然後,再宣告這些具有相同名稱的產銷履歷農產品為產品名稱的「成員」(tap:member),如圖25 所示。

# Class ProductName
map:ProductName a d2rq:ClassMap;
d2rq:dataStorage map:database;
d2rq:uriPattern "ProductName/@@agricultureProduct.ProductName|[email protected]@";
d2rq:class tap:ProductName;
#d2rq:condition "";
#d2rq:classDefinitionLabel "ProductName";
.
map:ProductName_label a d2rq:PropertyBridge;
d2rq:belongsToClassMap map:ProductName;
d2rq:property rdfs:label;
d2rq:pattern "@@[email protected]@";
.
map:ProductName_member_TraceableAgriculturalProduct a d2rq:PropertyBridge;
d2rq:belongsToClassMap map:ProductName;
d2rq:property tap:member;
d2rq:uriSqlExpression "CONCAT('http://linkedopendata.tw/tap/resource/TraceableAgriculturalProduct/', cast(MD5(CONCAT('Name:', agricultureProduct.ProductName, 'Tracecode:',agricultureProduct.Tracecode)) as char))";
.
#Class TraceableAgricultureProduct
map:TraceableAgricultureProduct a d2rq:ClassMap;
d2rq:dataStorage map:database;
d2rq:uriSqlExpression "CONCAT('http://linkedopendata.tw/tap/resource/TraceableAgricultureProduct/', cast(MD5(CONCAT('Name:', agricultureProduct.ProductName, 'Tracecode:',agricultureProduct.Tracecode)) as char))";
d2rq:class tap:TraceableAgricultureProduct;
.
map:TraceableAgricultureProduct_label a d2rq:PropertyBridge;
d2rq:belongsToClassMap map:TraceableAgricultureProduct;
d2rq:property rdfs:label;
d2rq:pattern "@@[email protected]@";
.
map:TraceableAgricultureProduct_tracecode a d2rq:PropertyBridge;
d2rq:belongsToClassMap map:TraceableAgricultureProduct;
d2rq:property tap:hasATracecode;
d2rq:column "agricultureProduct.Tracecode";

圖25: 映對檔中定義「產品名稱 (tap:ProductName)」和「產銷履歷農產品 (tap:TraceableAgriculturalProduct)」二個類別(class)的一部份

第四段是宣告「產銷履歷農產品 (tap:TraceableAgriculturalProduct)」類別的映對,第五段是宣告產銷履歷農產品之標記(label)是使用資料庫的的欄位,第六段是宣告「產銷履歷農產品 (tap:TraceableAgriculturalProduct)」類別的屬性(property),這段所描述的是產銷履歷農產品具有一個追蹤碼。產銷履歷農產品的其它屬性的宣告方式與追蹤碼宣告方式相似,完整的映對檔可以參考附錄。

圖26:產品名稱「小白菜(履歷)」所具有的「產銷履歷農產品」之成員(tap:member)
圖27: 產品名稱為小白菜(履歷)且追蹤碼為10601020580的產銷履歷農產品

圖27即顯示追蹤碼10511150594及名稱為小白菜(履歷)的產銷履歷農產品,其驗證單位、追蹤碼、農產品經營業者、通路商、產地、生產者姓名、包裝日期、驗證有效日期、詳細栽種流程、詳細履歷資料、詳細加工流程、和其他驗證資訊皆一一列出。與產銷履歷農產品和產品名稱同樣的處理方式,生產者也可以透過唯一辨別的URL和產銷履歷農產品相互指涉,如圖27中的生產者「蘇軍達」,透過蘇軍達的URL即可了解這個生產者產出多少產銷履歷農產品,如圖28所示。同樣地,由於所有的農產品履歷中的事物皆已URL化,因此選擊「保證責任雲林縣漢光果菜生產合作社」的URL可以知道該單位所產出的農產品履歷,如圖29所示。

圖28:生產者「蘇軍達」所產出的產銷履歷農產品
圖29:農產品經營業者「保證責任雲林縣漢光果菜生產合作社」所產出的產銷履歷農產品

D2RQ平台提供SPARQL查詢,圖30顯示出產銷履歷農產品產地之查詢結果。

圖30: 產銷履歷農產品產地之SPARQL查詢

除了產銷履歷農產品的SPARQL endpoint,本研究亦建立通路商和餐廳二個SPARQL endpoint,分別在store.linkedopendata.twrest.linkedopendata.tw。在通路商的部份,如圖31所示,除了名稱、住址和經緯度坐標之外,經過名稱相似度比對後,利用owl:samaAs,連結衛福部食品業者登錄資料集,取得統一發票號碼後,再連結經濟部商業司公司登記資料,此外,從產銷履歷農產品資料中整理通路商和作物的關係,因此可以跨Endpoint,以通路商連結產銷履歷農產品,反之亦然。在餐廳的部份,如圖32所示,除了基本的名稱、地址和經緯度坐標,有使用的作物名稱,也有使用產銷履歷農產品的餐點。

圖31: 通路商Endpoint中的「家福樂板橋店」
圖31: 餐廳Endpoint中的「京華煙雲」

Chrome瀏覽器擴增模組的設計

Chrome瀏覽器擴增模組的建立容易,但核心其實是包含在其中JavaScript所執行的任務。RDFLib 是一套專為鏈結資料所設計的套件,其功能包含讀寫RDF資料、 在用戶端進行以SPARQL 讀寫Linked Data、解析 RDFa、建立在地端的查詢API、和處理owl:sameAs的結點,利用RDFLib,我們開發Chrome瀏覽器擴增模組「LinkedFood」。

iCook愛料理網站使用schema.org的語彙來編輯食譜,有利於資料的詮釋,LinkedFood即針對schema.org的語彙來設計資料的讀取,當LinkedFood擴增模組安裝後,開啟iCook的食譜時,LinkedFood即會自動地讀取到食材,透過讀 取的食材,LinkedFood則分別向產銷履歷農產品、通路商和餐廳的SPARQL Endpoint送出查詢,而得到RDF的三元組資料。當在LinkedFood的介面操作時,按了食材,後,在地端可在整合的RDF三元組資料進行查詢,如圖32所示,在那裡買的分頁中,按上方的食材後,如蕃茄,在下方地圖會顯示有賣這個食材的商店,同樣的,如圖33所示,也可以顯示出有那個餐廳可以吃到產銷履歷農產品,利用twfood.cc網站中所整理的價格資訊、產量、以及綜合二種資訊所得到的推薦指數,可以提供使用者購買的參考,如圖34所示,而食材所涉及的每一項產銷履歷農產品,可以在LinkedFood中的最後一個分頁瀏覽,如圖35所示。

圖32: Chrome瀏覽器擴增模組「LinkedFood」的那裡買
圖33: Chrome瀏覽器擴增模組「LinkedFood」的那裡吃
圖35: Chrome瀏覽器擴增模組「LinkedFood」的產銷履歷瀏覽
圖34: Chrome瀏覽器擴增模組「LinkedFood」的推不推

整個Chrome擴充模組的操作可見Youtube影片。

參考文獻

  1. 周念陵(2012),健康美麗產銷履歷,行政院農業委員會。
  2. 胡忠一(2006),建立我國農產品產銷履歷紀錄制度,安全農業生產體系研討會專集,13~40頁