WWDC/蘋果釋出SwiftUI及ARKit 3.0 釋出 獲開發者讚賞

SwiftUI 是一項蘋果最新提供的開發工具框架,可簡化開發工作並縮短開發時間。
2019/06/05 04:32

今年度的蘋果全球開發者大會(WWDC )中,蘋果除了發表 iOS 13、iPadOS、macOS Catalina(10.15)、tvOS 13、watchOS 6 以及 Mac Pro 跟 Pro Display XDR 螢幕之外,也針對開發者提供不少能更便利的開發工具,這些工具都在公布之際獲得開發者熱烈迴響,受到相當程度的歡迎。

WWDC 2019 當中,蘋果針對開發者釋出多款工具,可以協助開發者更輕鬆的開發,並有效縮短開發時間。其中包含 ShiftUI 開發框架、ARKit 3.0、RealityKit、Reality Composer ,此外還有可以協助使用者將 iPad App 搬移到 Mac 的開發工具以及 API。且藉由 CoreML 以及 Create ML 的更新,得以讓在設備上的(on-device )採用機器學習的 App 處理更為強大的任務。

SwiftUI

蘋果指出,SwiftUI很大程度能降低開發時間,替使用者在 App 中在介面設計、支援Dark Mode、輔助功能、書寫順序從右至左的語言以及國際化的開發任務中,都能帶來十分有力的幫助。

開發 iPad筆記軟體「GoodNotes」的時基科技有限公司創始人 Steven Chan 就表示,過去他們透過 Swift 編寫程式之時,都需要透過編譯(compile)才得以看見最終 UI 的樣貌。而 SwiftUI 這項工具,則不僅可以大幅簡化開發難度,降低開發時間,還可以即時看見程式碼執行後在 App 介面中所呈現的樣貌,對於開發工作來說非常有幫助。

蘋果指出,最新版的 Xcode 11 便內建了最新的圖形化開發工具,讓 UI 設計師可以快速的透過 SwiftUI 來設計使用者介面。SwiftUI 可實時展現編碼調整後的效果,對於軟體工程師以及 UI 設計師之間的協作的工作流程也將帶來幫助。此外,不僅可透過 UI 模擬器來預覽程式碼編譯後的成果,也可即時在連接上的 iPhone、iPad、iPod touch、Apple Watch、Apple TV 當中觀看實際上應用程式在多點觸控、相機調用狀態下,以及各種感測器實際運作的情況。

AR擴增實境領域

繼去年在 WWDC 推出 ARKit 2.0 之後,蘋果在今年接棒推出 ARKit 3.0,支援動作捕捉功能,可以將人們的動作整合到 App 中,而藉由 People Occulusion 特性,AR 物件則可以更自然的在人物的前方或後方顯示,展現彷彿綠幕的沈浸式 AR 效果。

藉由 ARKit 3.0,也可讓前置鏡頭得以追蹤多達三張人臉,也可前後鏡頭一同支援,此外也可支援多人共享 AR 內容的體驗。

對於開發者來說,RealityKit 將是可以把虛擬物件以更為真實、更貼近於生活中物理互動的方法來呈現,而 Reality Composer 則是可以讓開發者更輕易地打造 AR 應用的內容。

藉由主題演講中《Minecraft》(我的世界)的開發團隊實際展示接下來一段時候後才會正式發表的《Minecraft Earth》App,也就是《Minecraft》AR 版本的內容與執行效果後,可以清楚展示 App 運用 ARKit 3.0 等相關開發工具能輕鬆的將現實生活中的人物以及動作融合到 AR 場景中,並且與之互動,展現了另一程度的 AR 遊戲之趣味。

除了以上工具之外,蘋果也更新了 CoreML 以及 Create ML,還有提供開發者可透過 Xcode 將 iPad 開發專案轉置到 macOS 的平台的工具,讓開發者能夠一次編寫同時適用於 iPadOS 以及 macOS 的應用程式。

此外,在提供開發者便利工具之際,也提供了 Sign in with Apple 的隱私保護工具。有鑒於這項工具可以保護用戶隱私(不一定需要向開發者提供慣用Email),又能省下繁複的登陸時間,也將是開發者在未來可加入在應用程式內的工具。且因為這項工具支援兩階段驗證,能進一步提升安全性,對於用戶來說,也將對應用程式感到更為安心。

【巴西華人資訊網】

image_print列印文章

發表迴響