2017년 6월 6일 화요일

[WWDC17] 애플이 풀어놓은 선물 보따리 - 소프트웨어편

산호세에서 애플의 연례 개발자 컨퍼런스인 WWDC17이 그 막을 올렸다. 행사의 시작을 알리며, 가장 이목이 집중되는 기조연설에서 애플은 두시간 삼십여분가량을 가득채운 선물 보따리를 풀어놓았다. 새로운 하드웨어를 기대하는 많은 사람들에게 기대 이하였던 적이 많았던 예년의 행사와는 달리, 오늘 행사에서 애플은 정말 많은 것을 보여주었다. 애플은 오늘 새로운 것들을 크게 여섯 가지 카테고리로 나누어 소개했는데, 이 글에서는 키노트의 소개순서를 그대로 따라가기보다는 내용을 다시 분류해서 소개해 드리려고 한다. 이 글에서는 키노트의 전체적인 내용을 살펴보고, 애플이 1년동안 어떤 일들을 해 왔는지, 애플이 어디를 바라보고 있는지에 대한 내용을 살펴볼 것이다. 물론, 각각의 제품이나 소프트웨어 기술에 대한 좀 더 깊은 분석 역시 각각에 대한 별도의 포스트로 역시 찾아올 것이니 많은 기대 부탁드리며, WWDC17 기조연설을 다시 한 번 톺아보도록 하자.

WWDC라는 행사 이름에 걸맞게 오늘 행사에서 애플은 소프트웨어에 많은 시간을 할애했다. 자사의 메이저 운영체제인 tvOS, watchOS, iOS, macOS를 모두 판올림한 것은 물론 VR과 AR에 대해서도 많은 이야기들이 있었다. 앱스토어가 완전히 개편되었다는 이야기 역시 개발자들의 환호를 얻어내기에 충분했다. 또 애플 파일시스템, 메탈2 등의 기술적인 업데이트 역시 있었다. 특히 이번 키노트 전체를 관통하는 몇 가지 단어가 있었는데, 머신 러닝과 프라이버시가 바로 그것이다. 애플은 거의 대부분의 제품군에 전방위적으로 머신 러닝 기술을 투입한 것에 그치지 않고, 소프트웨어 개발자들이 좀 더 쉽게 이런 머신러닝 기술을 이용할 수 있도록 Metal을 기반으로 한 머신러닝 프레임워크인 CoreML 역시 공개했다. 프라이버시 보호 역시, 애플은 대부분의 기능을 기기에서 연산을 수행하도록 하는 방식으로 구동하고, 애플이 사용자의 정보를 받아야 할 경우 이를 익명화시키는 분산 프라이버시 기술을 적극적으로 채용함으로써 사용자들의 개인정보를 지키겠다는 의지를 분명히 보여주었다. 그렇지면 이제 이 내용들을 하나하나 짚어보도록 하자.

iOS 11, 아이패드에 집중하다

* 사진: 애플

지금까지, iOS의 중심은 아이폰이었다고 해도 과언이 아니다. 많은 사람이 아이패드가 더 커진 아이폰일 뿐이라고 지적하는 것은 완전히 옳은 소리는 아니지만, 이런 관점에서 봤을 때 틀린 이야기라고 하기도 어려웠다. 특히 12.9인치 아이패드 프로가 출시되고, 그 광활한 화면에서 기존과 같은 형태의 앱 배치를 봤을 때 받은 첫인상은 안 어울리는 옷을 입고 있다는 것이었다. 물론 아이패드가 탄탄대로를 달리고 있을 때는 애플은 여기에 대해 큰 고민을 하지 않았을 것이다. 아이패드의 중심은 여전히 아이폰처럼 컨텐츠 소비에 맞춰져 있었고, 일부 작업에서 생산성 있는 작업’도’ 할 수 있는 기기가 아이패드였다. 

하지만 컨텐츠 소비용도로써의 아이패드의 성장은 정체되었고, 애플은 새로운 활로를 컨텐츠 생산 시장에서 찾으려 했다. 아이패드 프로는 애플의 이런 노력을 잘 보여주는 산물이라 할 수 있겠다. 하지만 아이패드 프로 역시 여느 애플 제품처럼 잘 팔리긴 했지만 엄청난 반향을 일으키는 데는 실패했고, 아이패드는 계속해서 완만한 하락곡선을 그리고 있다. 그리고 이제, 애플은 반전의 기회를 소프트웨어에서 찾으려 한다. iOS 11에는 많은 기능 업데이트들이 있었는데, 이 중에서도 가장 흥미로운 것들은 아이패드에 추가될 기능들이다. 실제로 애플은 키노트 진행에서 iOS 11을 소개하는 부분과 별도로 아이패드를 위해 추가된 iOS 11의 새 기능을 따로 발표했다.

가장 먼저 눈에 띄는 것은 아이패드 홈 화면의 UI가 달라진 것이다. 아이폰보다 조금 더 많은 앱을 담을 수 있는 데 그쳤던 기존의 아이패드 홈 화면과 달리, iOS 11이 탑재된 아이패드의 홈 화면은 맥의 Launchpad를 보는 것같다. 화면의 대부분을 차지하는 앱 영역은 기존과 큰 차이가 없지만, 기존에 네 개에서 여섯 개의 앱이 덩그러니 들어가 있던 독에는 더 많은 앱이 들어가 있다. 이 독에는 이제 최대 13개까지의 앱이 표시된다. 앱의 위치를 옮기는 동작 역시 앱이 흔들릴 때까지 앱을 누르고 기다릴 필요 없이, 앱을 잠깐 터치하고 드래그해서 수행할 수 있게 함으로써 더 간편하게 수행할 수 있도록 바뀌었다. 특히 독 우측 세 개의 앱은 시리가 최근에 썼던 앱이나 사용 패턴상 이제 사용할 확률이 높은 앱 등을 추천해주는 영역이다. 이 확장된 독은 기존의 아이패드와는 달리 홈 화면이 아닐 때도 언제든지 스와이프 한 번으로 꺼낼 수 있게 되었다. 

이렇게 꺼낸 독에서 원하는 앱을 탭해서 그 앱으로 전환할 수 있을 뿐 아니라, 그 앱을 살짝 끌어내면 앱이 플로팅 윈도우의 형태로 동작하게 된다. 애플은 이 기능을 Slide over라고 부르는데, 이렇게 앱이 플로팅 윈도우의 형태로 떠 있을때 기존의 앱과 플로팅 윈도우의 앱은 둘 다 활성화된 상태로 동작한다. 이렇게 Slide over로 동작하는 앱은 Split view로 전환시키거나 그대로 화면 밖으로 던져버릴 수도 있다. 뿐만 아니라 앱 전환기 역시 큰 변화가 있었다. 기존에는 아이패드에서 앱 전환기를 불러오려면 아이폰과 마찬가지로 홈 버튼을 두 번 눌러야 했다. 그리고, 동시에 동작하는 여러 앱을 보여주는 방식 역시 아이폰과 같은 카드 형태어셔 아이패드의 큰 화면을 제대로 이용하지 못하는 인터페이스를 가지고 있었다. 

* 사진: 애플

하지만 이제는 기존의 홈 버튼을 두 번 눌러 앱 전환기를 불러오는 방법에 더해 기존에 컨트롤 센터를 불러오듯이 화면을 쓸어올려 앱 전환기를 불러올 수 있다. 이 때 새로운 앱 전환기는 아이패드의 큰 화면을 십분 활용하고 있다. 새로운 앱 전환기에서는 실행중인 각 앱이 타일 형태로 나열되게 되고, 이 중에서 원하는 앱을 선택하는 방식으로 앱을 전환할 수 있다. 특히 Split view로 실행되고 있었던 앱들은 앱 스위처에서도 여전히 함께 동작하게 된다. 앱을 완전히 종료하는 방식 역시 자연스럽다. 기존에는 각 앱을 화면 윗쪽으로 밀어내는 방식이었다면, 이제는 앱 전환기의 앱을 누르고 있으면, 각 앱들의 좌상단에 종료할 수 있는 버튼이 생기게 된다.

* 사진: 애플

또, GUI를 적용한 PC의 가장 강력하고 직관적인 기능 중 하나인 드래그 앤 드랍 기능 역시 아이패드에 맞게 재해석되었다. 한 앱 내에서 특정한 객체를 드래그 앤 드랍 방식으로 옮길 수 있을 뿐 아니라 여러 앱을 넘나들며 객체들을 드래그 앤 드랍 방식으로 옮길 수 있게 되었다. Slide over나 Split view 기능 등으로 한 화면에서 동시에 동작하고 있는 앱들 사이에서 객체를 옮길 수 있는 것은 물론이고 객체를 누른 상태에서 어떤 동작을 하더라도 객체는 계속해서 선택되어 있는 상태이기 때문에 독을 불러들여 독에 있는 앱으로 객체를 옮기거나 아예 홈 화면으로 나와서 원하는 앱으로 원하는 객체를 드래그 앤 드랍 방식으로 옮길 수 있다. 드래그 앤 드랍의 정확한 동작 방식은 새 아이패드를 좀 더 자세히 조명하는 글에서 간단한 영상과 함께 살펴보도록 하고, 지금은 계속해서 전체적인 내용으로 돌아가도록 하겠다. 

지금까지 언급한 두 기능들은 기존의 아이패드에서도 동작하는 기능이었다면, 지금부터 소개할 기능은 애플펜슬을 사용할 수 있는 아이패드 프로에 특화된 기능들이다. 애플펜슬은 발표 당시부터 뛰어난 반응성과 필기감으로 주목받았지만, 애플펜슬에 맞는 소프트웨어 유저 인터페이스 지원이 부족하다는 지적을 받아왔다. 애플 역시 이런 의견을 반영하여 애플펜슬을 좀 더 즉각적이고 적극적으로 사용할 수 있도록 유저 인터페이스를 개선하는 데 힘썼다.

* 사진: 애플

이제 아이패드에서는 캡처 동작을 수행하게 되면, 몇 초간 캡처 화면이 좌하단에서 작은 썸네일 형태로 머물게 된다. 만약 아무 일도 하지 않는다면, 이 썸네일은 사라지고 기존과 같이 해당 스크린샷을 사진 앱에서 확인할 수 있다. 만약 이 썸네일이 사라지기 전에 썸네일을 탭하면 방금 찍은 스크린샷이 화면 가득히 나타나게 되는데, 이 상태에서 스크린샷을 크롭할 수 있을 뿐 아니라, 애플펜슬을 이용해 스크린샷 위에 바로 무언가를 표시하거나, 글을 쓰는 등의 동작이 가능해졌다. 또, 잠금 화면에서 애플펜슬로 화면을 콕 찍게 되면 바로 메모 앱으로 넘어가게 되고, 애플펜슬을 이용해 메모를 수행할 수 있다. iOS 11은 이렇게 쓰여진 수기를 자동적으로 인식하고, 이를 검색할 수 있도록 인덱싱해주는 작업 역시 수행한다. 이 역시 머신 러닝 기능을 통해 기존의 OCR 기능을 강화시켰기에 가능한 일이다. 다만 아쉬운 것은 손필기를 인식할 수 있는 기능은 현 시점에서는 영어와 중국어에서만 지원된다는 점이다. 

이 외에도 기존에는 메모 앱에서 애플펜슬을 사용한 그림을 추가하려면 우하단의 버튼을 통해 별도의 그림 영역을 생성한 뒤, 이를 추가해야 했지만, 이제는 메모의 어느 부분에나 애플펜슬을 가져다대면 적혀있던 텍스트들이 위아래로 밀려나면서 즉각적으로 애플펜슬을 위한 드로잉 공간을 마련해준다. 사실 애플펜슬 기능을 적극적으로 활용하기에 기본 메모 앱이 너무 불편한 부분이 많았는데, iOS 11은 이 부분들을 해소하는 것을 넘어 애플펜슬을 서드파티 앱들에 비해서도 더 편리하게 사용할 수 있는 앱으로 바꿔주었다. 애플이 이런 기능 추가에 영감을 받은 개발자들 역시 앞으로 애플펜슬을 좀 더 적극적으로 이용하는 기능들을 개발할 것이라 믿는다. 

* 사진: 애플

또, 메모 앱에는 문서를 카메라를 통해 찍어낼 수 있는 도큐멘트 스캐너 기능 역시 추가되었다. 이 기능은 서드파티 앱인 스캔봇을 생각하면 이해하기 쉬울 것이다. 다만 iOS 11의 메모 앱에서는 이렇게 스캔한 문서에 애플펜슬을 이용해 즉각적으로 서명하거나, 내용을 표시할 수 있도록 되어 있어 역시 애플펜슬 사용성 향상에 기여한다. 이 외에도 기존에는 Numbers나 Swift Playground 등의 앱에서 제한적으로 지원하던 QuickType 키보드를 운영체제 기본 키보드에서 지원하게 되었는데, 숫자나 특수문자를 입력할 때, 키보드 자체를 전환시키지 않고 버튼을 스와이프해서 쉽게 입력할 수 있도록 하는 기능 역시 아이패드만을 위한 새로운 기능이다. 이렇듯 iOS 11에는 아이패드만을 위한 기능들이 대거 추가되었는데, 하지만 가장 크고 근본적인 업데이트는 아직 다루지 않았다. 바로 새 앱인 ‘파일’에 대한 것이다.

* 사진: 애플

아이패드가 출시된 이래 지금까지 애플 유저들은 꾸준히 PC와 같은 방식의 계층적 파일 관리 구조를 요구해 왔다. 물론 한 앱 안에서 제한적으로, 혹은 일부 저장공간에 대해서 이런 기능을 지원해오긴 했지만 애플은 결코 아이패드에서 전체 파일을 계층적으로 관리할 수 있는 앱을 제공하지 않았다. 하지만 애플은 오늘 계층적 파일관리를 지원하는 파일 앱을 출시함으로써 이런 고집을 꺾었다. 파일 앱은 기존의 아이클라우드 드라이브를 대체하며, 맥의 파인더에 있는 여러 기능들을 아이패드로 가지고 들어왔다. 파일 앱에서는 최근 본 파일들을 모아서 볼 수도 있고, 여러 공간에 있는 파일들의 계층을 보고, 관리할 수 있다. 파일들에 태그를 붙여서 관리할 수 있는 기능 역시 포함되어 있다. 또, 아이클라우드 드라이브와 아이패드 로컬 저장공간을 넘어서 드랍박스나 원드라이브 등 서드파티 웹 저장공간에 대한 접근과 관리기능 역시 제공하게 된다. 새로운 파일 앱과 위에서 설명한 드래그 앤 드랍 기능이 합쳐지면서, 생산성 면에서 아이패드의 사용은 크게 달라질 것으로 보인다.

* 사진: 애플

여러 모로 iOS 11은 지금까지 소외되었던 아이패드를 위한 업데이트라고 해도 과언이 아니다. 하지만 당연하게도 아이폰에 올라가는 iOS 11 역시 몇 가지 개선점이 있었다. 물론 여기서부터 언급하는 내용은 아이폰과 아이패드에 공통적으로 적용되는 내용이다.

* 사진: 애플

먼저 가장 눈에 띄는 기능은 라이브 포토의 강화이다. 지금까지 라이브 포토는 켜도 그만, 안 켜도 그만인 기능이었다면, iOS 11에서의 라이브 포토는 훨씬 더 강력한 기능을 지원한다. 이제 라이브 포토는 사진을 찍는 시점 외에도 대표 사진으로 선택할 수 있는 여러 개의 사진을 생성하게 된다. 라이브 포토를 편집하는 화면에서 라이브포토가 찍힌 순간 중 가장 마음에 드는 순간을 골라 ‘키 사진’으로 선택할 수 있다. 하지만 특히 흥미로웠던 것은 라이브 포토로부터 생성할 수 있는 것들이다. 애플은 라이브 포토를 이용해 gif처럼 이를 계속해서 반복하게 하거나, 재생 뒤로감기를 반복하는 루프와 바운스라는 기능을 추가했다. 이 기능들은 라이브포토를 좀 더 생동감있게 즐길 수 있도록 해 준다.

* 사진: 애플

하지만 필자가 핸즈온 세션에서 가장 감명깊게 봤던 것은 라이브 포토 기능을 통해 구현한 장노출 사진이었다. 이는 라이브 포토가 3초간 물체를 찍어내는 기능이라는 점에 착안해서 구현한 효과이다. 라이브 포토에서 찍힌 여러 장의 사진과 영상을 합성하여 움직임이 없는 부분은 그대로 두고 움직임이 있는 부분을 포착하여 이 부분을 합성하고 블러 처리하는 방식으로 실제 장노출로 사진을 찍은 것과 같은 효과를 부여했다. 키노트에 소개된 것 같이 흐르는 물이나 핸즈온 세션에서 확인했던 야경 등에서 이런 장노출 기능의 진가를 볼 수 있었다. 물론 이렇게 만들어진 장노출 사진의 세부적인 품질은 DSLR 카메라를 삼각대에 거치하고 긴 시간을 촬영하는 장노출 사진에 비할 바 아니겠지만, 사용자가 찍은 라이브 포토를 이용해 그럴싸해보이는 장노출 사진을 만들어주는 기능은 아이폰 7 플러스이 인물 사진 모드를 봤을 때와 비슷한 느낌을 주었다.

또, iOS 11에서는 아이폰 7 플러스의 인물 사진 모드가 좀 더 향상되었다. 이제는 기존에는 인물 사진 모드를 사용할 수 없었던 더 낮은 조도에서도 인물 사진 모드를 사용할 수 있게 되었으며, 무엇보다 두 카메라로부터 얻어낸 깊이 정보를 Depth API를 통해 개발자들에게 제공한 것 역시 인상적인 부분이다. 이 외에도 iOS 10부터 추가되었던 인공지능 기능이라고 할 수 있는 메모리 기능이나 얼굴인식 기능 역시 1년간의 추가 학습을 통해 더 정교해졌다. 이제 얼굴 인식 기능은 아이클라우드를 통해 동기화되는데, 작년에 보안 문제로 동기화 기능을 제공하지 않았던 것과 상반되는 것이다. 애플 역시 이런 불안을 불식시키기 위해 이 데이터들이 모두 안전하게 암호화되어 있다는 것을 특히 강조했다.

* 사진: 애플

사진 부분의 강화 이외에도 바로 와닿을 만한 몇 가지 변화가 있었다. 가장 눈에 들어오는 것은 제어 센터의 변경이다. 아이패드의 앱 전환기 소개에서 본 것과 같이, iOS 10에서 두 개 혹은 그 이상의 탭으로 구분되었던 제어 센터가 다시 하나로 합쳐졌다. 기존과 달리 제어 센터는 여러 버튼들의 배열이며, 각각의 기능을 직관적으로 제어할 수 있다. 또 이런 디자인을 채택함으로써 제어 센터를 사용자화하는 기능 역시 추가하여 제어 센터를 좀 더 유용하게 사용할 수 있도록 개선했다. 또, 좁아진 공간에 여러 기능을 넣은 만큼 3d 터치를 통해 더 많은 기능에 접근할 수 있도록 제어 센터를 설계했다. 기술적인 문제로 3d 터치를 넣을 수 없는 아이패드는 제어 센터에서 롱 프레스로 해당 기능에 접근할 수 있도록 배려하는 것도 잊지 않았다. 이 외에도 운전중 방해금지 모드 등 안전에 관련된 업데이트와 지도 앱, 그리고 머신 러닝으로 그 성능이 향상된 시리 등의 업데이트가 있었다. 

정리하자면 iOS 11은 지금까지 소외되었던 아이패드를 위한 종합 선물세트이다. 아이패드는 이제 더 넓은 화면을 자기만의 방법으로 효율적으로 활용하기 시작했으며, 파일 앱의 추가와 드래그 앤 드롭 기능은 아이패드의 생산성을 지금과는 다른 방향으로 향상시켜 줄 것이다. 애플펜슬 역시 단지 소프트웨어적인 향상만으로 그 사용이 훨씬 편해졌다. 아이패드 프로라는 하드웨어의 추가가 그려주지 못했던 아이패드 라인업의 미래를 iOS 11이 그려줄 수 있을지 살펴보는 것도 흥미로울 것이다.

macOS High Sierra, 시에라를 가다듬다

* 사진: 애플

언제나 WWDC 발표에서 개그를 담당하는 애플 소프트웨어 총괄 수석 부사장 크레이그 패더리기는 오늘도 쾌활하게 무대에 올랐다. 그리고 언제나처럼 새 macOS 작명에 대한 조크를 시작했다. 그리고 처음으로 공개된 이름 High Sierra. 그 옛날의 weed나 sea lion처럼 당연히 가짜 이름이겠거니 생각했지만, 그것이 진짜 macOS 10.13의 정식 명칭이었다. 오늘 애플 키노트는 패더리기가 농담 할 시간조차 없을 정도로 빽빽하게 채워져 있었다는 반증이 될 수도 있겠다.

본론으로 들어가서, 새 macOS인 High Sierra(이하 하이 시에라)는 적어도 소비자가 느끼는 관점에서 큰 변화는 없다. 하지만 시에라에서 하이 시에라로의 이행에는 보이지 않는 기술적인 진보가 있다. 먼저 가장 큰 변화는 운영체제의 기본 파일 시스템이 HFS에서 애플 파일시스템(APFS)로 바뀌었다는 점이다. HFS는 거의 30여년 전에 처음 만들어진 파일시스템으로 긴 세월을 거쳐오면서 매우 많은 개량이 가해졌다. 물론 지금 우리가 사용하는 HFS는 최초의 HFS와는 완전히 다른 파일시스템이라고 보는 게 적합할 정도이다. 하지만 애플은 언제까지나 HFS를 고쳐 쓸 수는 없다고 판단하고, 자신들의 새로운 파일시스템을 개발했고, 이것이 바로 APFS이다.

APFS는 현대적인 파일시스템의 개념들을 대부분 채용했다. APFS는 64비트 아이노드(파일 메타데이터를 저장하는 일종의 자료구조)를 도입해 아이노드의 크기 제한으로 인해 발생하던 문제를 없앴고, 꽤나 먼 미래의 업데이트에 충분히 대비할 수 있는 기반을 닦아두었다. 또, 애플 파일시스템은 Copy-on-Write 정책을 채택하여 파일이 복사되었을 때 실제 파일의 데이터를 복사하는 것이 아니라 파일의 메타데이터만 복사하여 새로 생성하는 방식으로 키노트에서 시연한 것과 같이 거의 즉각적으로 복사가 수행된 것처럼 보이게 한다. 만약 이후 복사된 파일의 데이터에 변형이 가해진다면 그 때 APFS는 비로소 그 파일의 데이터를 복사하게 된다. 이 방식은 키노트에 소개한 것과 같이 복사가 즉각적으로 이뤄지는 장점뿐 아니라 SSD 시스템에서 두드러지는 장점이 있다. 읽기, 쓰기 속도가 같은 하드디스크와 달리 SSD는 읽기 속도에 비해 쓰기 속도가 느리다. 게다가 기존의 데이터를 그대로 덮어쓸 수 있는 하드디스크와 달리 SSD는 새로운 데이터를 쓰기 위해서는 반드시 기존의 데이터를 삭제하고 쓰는 작업이 필요한데, 따라서 SSD 시스템에서는 쓰기 동작을 가급적 최소화하는 것이 유리하다. 이런 Copy-on-Write 정책은 기존과 같은 방식에서 2번 써야 할 것을 한번만 쓰는 것이므로 단순히 복사 속도가 빨라지는 것을 넘어 시스템 전체의 반응성과 안정성을 높여주게 된다.

뿐만 아니라 APFS는 볼륨 단위로 기존의 파티션보다 훨씬 유연한 용량 관리를 선보일 수 있고 cloning files and directories나 snapshot, sparse file을 지원하는 등 여러 신기술을 탑재하고 있고, atomic safe-save premitives 등의 알고리즘을 이용해 파일시스템의 안정성을 높인다. 무엇보다도 APFS는 개발단계에서부터 보안에 대한 깊은 고민을 담은 파일시스템으로 전체 디스크를 암호화하는 기능은 물론 필요하다면 메타데이터와 데이터 영역을 각각 다른 키로 암호화 할 수 있는 등의 강력한 암호화를 지원한다. 게다가 이런 기능들이 추가적인 소프트웨어 레이어로 지원되던 이전과는 달리 이를 파일시스템 네이티브에서 지원함으로써 높은 수준의 암호화를 지원하면서도 성능 하락을 최대한 막을 수 있게 되었다. 애플 파일시스템에 대한 더 자세하고 기술적인 내용은 작년 WWDC16에서 발표됐을 때 썼던 이 글에서 읽을 수 있다.

다음으로는 메탈의 대대적인 개편을 들 수 있다. 메탈은 애플의 그래픽 API로, 단순히 그래픽을 그려내는 것 뿐만 아니라 그래픽 프로세서의 셰이더 유닛을 활용한 범용 연산 등에도 적용되는 범용 API이다. 쉽게 말하자면 OpenGL과 OpenCL의 기능을 메탈이라는 단일 API가 모두 수행하고 있다고 볼 수 있다. 이번 WWDC에서 메탈은 다시 한 번 큰 기능 확장을 맞이했는데, 애플은 하이 시에라에 탑재된 메탈을 메탈 2라고 부르며 이를 강조했다. 메탈 2는 게임 개발자 등에게 더 많은 기능을 제공할 뿐만 아니라 머신러닝이나 뒤에서 소개할 VR 관련된 부분에서도 효과적으로 GPU를 사용할 수 있도록 해 준다. 

* WWDC 현장에서 발표된 외장 GPU 개발자용 키트 (애플 키노트 영상 캡처)

또, 하이 시에라는 공식적으로 외장 GPU를 제공하며, 애플은 개발자용 키트라는 이름으로 RX580과 썬더볼트 3로 연결되는 외장 GPU 섀시, 썬더볼트 3 케이블을 599달러에 판매한다. RX580의 MSRP나 기존의 외장 GPU 섀시의 가격을 생각해보면 그리 비싸지도, 싸지도 않은 수준이라고 보는 것이 적당하다. 물론 애플이 공식적으로 외장 GPU를 지원하기 때문에 앞으로 써드파티 외장 GPU 섀시가 좀 더 많이 풀리게 될 것이고, 이는 강력한 그래픽 성능에 목말랐던 맥 게이머들에겐 가뭄에 단비같은 소식이 될 것이다.

* 사진: 애플

기술적인 부분을 지나와서 직접 사용자가 사용하는 기능상 업데이트에는 사진 앱 업데이트를 가장 먼저 꼽아볼 수 있겠다. 애플은 자사의 프로용 사진 앱인 Aperture를 죽이고 맥용 사진앱을 출시했다. 그리고 이번에 업데이트된 사진 앱은 편집 기능을 강화하며 Aperture의 빈자리를 조심스럽게 메꾸려고 시도하고 있다. 업데이트된 사진 앱은 사진의 컬러 곡선을 직접 조절하는 등의 정교한 작업을 수행할 수 있도록 했다. 뿐만 아니라 순차적인 가져오기 정렬이나 사진 검색 필터의 강화 등 사용자 편의를 높이는 부분 역시 잊지 않았다. 물론 iOS의 사진 앱 업데이트에 발을 맞춘 기능인 강화된 라이브 포토 편집 기능이나 메모리 기능, 얼굴 인식 동기화 등도 새로운 사진앱의 개선점으로 꼽을 수 있다.

* 애플은 macOS 하이 시에라의 사파리가 "세계에서 가장 빠른 브라우저"임을 강조했다. (애플 키노트 영상 캡처)

다음으로 살펴볼 것은 사파리의 개선이다. 애플의 테스트 시나리오에 따르면 하이 시에라에서 구동되는 사파리 브라우저는 모든 데스크탑 인터넷 브라우저 중 가장 빠르다. 기본적으로 빠른 속도에 더해, 이번 사파리는 사용자의 편의와 개인정보 보호를 위해 많은 업데이트를 수행했다. 사파리는 머신러닝 기술로 사용자의 동의 없이 사용자의 행동을 추적하는 광고 프로그램을 식별하여 이들이 남긴 데이터를 삭제하는 방식으로 사용자의 개인정보를 보호한다. 이런 첨단 광고 기술로 큰 이익을 내는 구글에 대한 은근한 견제라고도 볼 수 있겠다. 또, 웹사이트에 접속하자마자 자동재생되는 동영상 컨텐츠의 자동 재생을 막는 기능 역시 탑재했다. 당연히 이 기능은 비활성화시킬 수 있으며, 원하는 페이지에 대해서만 비활성화시키는 등의 조절도 가능하다.

이 외에도 iOS 시리와 같이 macOS의 시리도 머신러닝의 혜택을 입었다. macOS의 시리 역시 더 자연스러운 발음과 더 다양한 기능을 갖췄다. 메일 앱의 검색 기능을 강화하거나 중요한 메모에 핀을 지정해 항상 목록 상위에 있도록 하는 등의 소소한 사용자 편의 기능 업데이트 역시 있었다.

정리하자면 macOS 하이 시에라는 시에라를 좀 더 가다듬은 운영체제이다. 겉으로는 큰 차이가 없어 보이지만 운영체제에서 매우 큰 역할을 담당하는 파일시스템이 통째로 교체되고 메탈 그래픽 API에 큰 발전이 있는 등 매우 커다란 기술적 진전이 있었다. 또, 애플은 머신러닝 기능을 이용해 사파리의 광고 추적 제거 기술을 붙이는 등 사용자의 사생활 보호에 좀 더 적극적인 자세를 보이고 있다는 점을 높게 평가할 만하다.

watchOS 4, 시리는 더 이상 음성비서가 아니야

애플워치는 출시 시점부터 가장 개인화된 스마트기기라는 모토를 가지고 있었다. 그리고 watchOS 4는 그 목표를 달성하기 위한 수단으로 시리를 선택했다. 이제 watchOS 4는 시리 시계 페이스를 선택할 수 있다. 시리는 사용자의 생활 패턴을 파악하고 시계 페이스에 사용자가 다음에 할 일과 그에 맞는 정보들을 보여준다. 예를 들어 다음 일정이 여기서 차로 30분 떨어진 거리에 있다면 애플워치는 대략 45분쯤 전에 다음 일정으로 출발해야 한다는 알림과 바깥 날씨를 보여주고, 사용자가 매일 그 일정을 갈 때 우버 등의 앱을 사용했다면 그 앱을 추천해주는 시나리오를 생각해볼 수 있겠다. 사실 이런 개인 보조는 구글 나우의 동작과도 비슷한 것으로, 애플이 작년에 이어 시리를 더 이상 음성비서에 국한시키지 않겠다는 것을 다시 한 번 보여준 것이다.

* 사진: 애플

그 외에도 watchOS 4는 애플워치를 여러 면에서 더더욱 개인화시켰다. 이제 활동 앱은 사용자에게 좀 더 효과적으로 링을 달성할 것을 요구한다. 이제 애플워치는 기존에 수행하던 여러 재촉 뿐 아니라 아니라 현재의 달성량 등을 좀 더 정교하게 평가하여 사용자에게 구체적인 수치와 함께 활동 링을 완성시킬 것을 권유하고, 링이 완성됬을 때 새로운 화면 효과로 보상하는 등 게이미피케이션 요소를 더 심화시켰다. 또, 월별로 개인화된 도전 과제를 부여함으로써 각각의 사람이 달성할 수 있는 현실적인 목표를 제시한다.

운동 앱은 좀 더 빠르게 시작할 수 있도록 유저 인터페이스를 재설계했고, 서로 다른 운동을 연달아 하는 등의 경우에 더 편리하게 사용할 수 있게 되었다. 애플워치 시리즈 2는 물속에서도 차고 수영을 할 수 있기 때문에 애플워치 시리즈 2의 출시 당시 운동 앱에 수영에 관련된 항목 역시 추가되었는데, 이 역시 좀 더 세분화되어 영법별 스트로크 거리 등을 측정해 주는 등 더 나아진 피트니스 밴드로써 기능한다.

또, 애플 워치는 음악 역시 개인화시킨다. 기존에는 사용자가 애플워치에 담을 재생목록을 지정하면 애플워치는 해당 재생 목록에 있는 음악을 담고 있었는데, 이제 애플워치는 조금 더 능동적으로, 사용자가 좋아하는 음악을 살펴보고 이를 자동으로 담아두게 된다. 이전 에어팟 리뷰에서도 말한 것과 같이 애플워치와 에어팟은 매우 좋은 궁합을 보여주는데, 이 기능을 통해 아이폰을 두고 애플워치와 에어팟만 차고 운동할 때 더 나아진 사용자 경험을 보여줄 수 있을 것이다. 이 외에도 사용자가 선택한 이미지에서 특징을 뽑아 동적인 만화경 이미지로 시계 페이스를 삼거나 토이 스토리 캐릭터들이 등장하는 시계 페이스가 추가되었다는 것 역시 재미있는 부분이다. 

watchOS 4는 엄청난 업데이트가 있었던 watchOS 3에 비하면 그리 크지 않은 변화를 겪었다고도 볼 수 있다. 다만 여러 면에서 좀 더 개인화된 경험을 제공하고, 이를 통해 사용자의 만족도를 높이려는 전략을 엿볼 수 있었다. 다만 이 기능들이 실제로 잘 와닿을지는 사용해보지 않고서는 알기 어려울 것 같다. 특히 핵심 기능 중 하나인 시리 시계 페이스가 한국에서 얼마나 잘 작동할지를 장담하기 어렵기에 한국의 소비자들은 watchOS 4에 대한 감흥이 떨어질 것으로 보인다.

머신 러닝, AR 개발자들을 위해서…

글의 도입부에서도 설명한 것과 같이 이번 WWDC의 진짜 주인공은 머신 러닝이라고 할 수 있다. 애플은 이런 머신 러닝을 자신들의 새 소프트웨어에만 넣는 것이 아니라 개발자들 역시 쉽게 사용할 수 있도록 Core ML이라는 프레임워크를 함께 공개했다. 머신러닝 연산을 효율적으로 구동시키는 것은 쉽지 않은 일이다. 머신러닝은 병렬적이고 낮은 정밀도의 연산을 빠르게 수행하는데, 이런 병렬로 동작하는 프로그램을 성능 손실없이 짜는 것은 매우 힘든 일이다. 개발자들이 여기에 매달리게 된다면 그 시간동안 다른 기능을 만들거나 다듬을 수 없게 된다. 컴퓨터 공학의 목표 중 하나는 개발자들이 이런 낮은 단계의 최적화를 수행하지 않고도 훌륭한 프로그램을 만들 수 있게 하는 것이다. Core ML 프레임워크는 이런 목적에 부합하는 프레임워크라 할 수 있다. Core ML은 그 자체로 Metal 등의 낮은 수준의 API와 밀접하게 연관되어 동작하면서 개발자에게 낮은 수준의 API에 맞춰 최적화를 하는 수고를 덜어줄 수 있다.

개발자들은 Core ML을 사용해서 자신의 앱에 쉽게 얼굴 인식, 장면 인식 등을 포함하는 머신러닝 모델을 포함시키거나, 자연어 처리를 수행하는 머신러닝 모델을 포함시킬 수 있다. 물론 직접 개발한 머신러닝 모델 역시 Core ML 프레임워크 위에서 돌릴 수 있을 것이다. 이런 고품질의 프레임워크는 개발자들의 편의를 증대시킬 뿐 아니라, 결과적으로 사용자들에게 더 창의적이고 높은 품질의 앱들이 공급될 수 있게 하는 원동력이다.

그런 관점에서 본다면 이번에 새로 추가된 ARkit 역시 주목할만하다. 증강현실이라는 것은 스마트폰 초창기에서부터 계속적으로 떠오르던 개념이었다. 스마트폰 초창기에는 단순히 카메라를 가동시켜 메신저 앱 배경에 앞 풍경을 띄워줌으로써 스마트폰 화면을 보고 걷더라도 앞에 무엇이 있는지를 알 수 있게 해주는 정도에 그쳤지만 말이다. 스마트폰의 연산 능력이 점점 발달하자 이를 이용해서 좀 더 다양한 시도들이 생겨나기 시작했다. 이케아는 가구를 미리 집에 배치해보는 형태의 증강현실 앱을 만들었고, 얼마 전 전 세계를 휩쓴 포켓몬 고 역시 대표적인 증강현실 앱이다. 하지만 이런 앱들을 사용해보셨다면 아직은 어딘가 모르게 어색하다고 느낄 것이다.

이는 일반적인 개발자가 스마트폰에 내장된 카메라와 각종 센서들을 통해 정교하게 현실의 물체를 인식하고 이를 기반으로 정교한 앱을 만드는 것은 매우 큰 노력이 들기 때문이다. 즉, ARKit은 이런 개발자들의 수고를 애플이 대신함으로써, 개발자들은 자신의 아이디어에 집중할 수 있도록 해주는 역할을 하는 것이다. ARKit은 카메라와 기기의 모션 센서를 동원해 실제 물체의 윤곽등을 높은 정확도로 측정해준다. 또, 이렇게 만들어진 데이터를 기반으로 가상 광원에 의한 주변광 등을 계산하는 기능 역시 갖추고 있는데 이들을 이용하면 정말 실감나는 증강현실을 볼 수있다. 실제로 핸즈온 세션에서 살펴본 증강현실 데모는 상당히 정교하게 동작했다.

개발자들은 이런 ARKit을 기반으로 자신의 증강현실 앱을 더 정교하고 쉽게 개발할 수 있을 것이다. 당장 이케아 같은 큰 가구 회사가 아니더라도 이런 ARKit 기반으로 앱을 개발해 고객들에게 자사의 가구를 집에 맞춰보게 하고 바로 주문을 유도한 앱을 개발할 수 있을 것이다. 이런 ARKit이 더 발전한다면 고객들은 옷을 주문하기 전 증강현실 속에서 그 옷을 몸에 대 보고 구매를 결정할 수도 있다. 다만 ARKit은 높은 연산 성능을 요구하기 때문에 애플 A9, A10 칩이 탑재된 기기에서만 동작한다. 아이폰의 경우 6s 시리즈, 아이폰 se, 아이폰 7 시리즈가 여기에 해당되며, 아이패드의 경우 아이패드 프로 시리즈 전체와 새로 발표된 2017년형 아이패드가 여기에 해당한다.

애플은 자사의 소프트웨어 역량을 이용해 개발자들에게 멍석을 깔아주었다. 이 멍석 위에서 어떤 놀라운 아이디어가 앱으로 탄생할지를 지켜보는 것도 재미있을 것이다. 과연 애플의 이런 노력이 AR 시장을 크게 확대시킬 수 있을까?

총평 : WWDC라는 이름에 걸맞는 가득 찬 소프트웨어들

이번 WWDC는 발표된 하드웨어를 제외하고 소프트웨어만을 살펴봐도 충분히 가득 찬 행사이다. iOS 11은 아이패드에 계층적 파일관리를 허락했고, 이와 함께 드래그 앤 드랍 기능까지 부여했다. 이 기능은 지금까지 프로 소비자들이 가장 원하던 기능들 중 하나이다. iOS 11은 단순히 이런 기능들을 추가하는 데 그치는 것이 아니라, 아이패드의 넓은 화면이 어떻게 활용할 수 있을지에 대한 깊은 고민의 흔적을 찾아볼 수 있다. iOS 11을 탑재한 아이패드, 특히 아이패드 프로의 사용성은 지금과 완전히 달라질 것이다.

macOS의 경우 겉으로 드러나는 기능적 변화는 거의 없었다. 다만 내부적으로는 상당히 큰 변화를 겪었는데, 작년에 발표된 애플 파일시스템은 이제 macOS의 메인 파일 시스템으로 동작한다. 그리고 애플의 그래픽 API인 메탈 역시 큰 변화를 겪으면서 이제 맥에서 외장 그래픽 카드를 사용할 수 있게 되는 등의 변화가 있었다. 

그리고 iOS와 macOS, watchOS를 모두 아우르는 기능 향상은 머신 러닝을 기반으로 한 좀 더 개인화된 서비스에 대한 내용이었다. 이제 애플 제품들은 사용자의 의도를 좀 더 정확하게 읽고 거기에 맞춰 동작할 것이다. 그러면서도 애플은 항상 이런 기능을 소개하면서 사용자의 프라이버시를 강조하고 이를 어떻게 지킬지에 대해 이야기했다. 

개발자 행사라는 이름에 걸맞게 개발자의 관점에서 행사를 본다면, 개발자들은 애플에게 큰 선물 두 개를 받은 셈이다. Core ML과 ARKit 프레임워크는 개발자들에게 저 수준의 최적화나 AR 환경 구성에 대한 부담을 크게 덜어주었다. 이제 개발자들은 해당 프레임워크를 이용하여 자신의 상상력을 펼친 앱을 만들 일만 남았다 

애플이 프라이버시를 강조할 때 많은 사람들은 애플이 인공지능 경쟁에서 뒤쳐질 것이라 예상했다. 인공지능 신경망을 학습시키는 데는 대량의 데이터가 필요하고, 이런 것들을 수집하면서 프라이버시를 지키는 것은 어렵기 때문이다. 또, 이런 인공지능 기능을 제공할 때 사용자의 스마트폰 성능이 보장되지 않는다면 이런 기능들을 기기에서 실행시킨다는 것은 오히려 사용자 경험을 저해시킬 가능성이 높다. 하지만 이번 WWDC 행사에서 애플은 머신 러닝으로 추가된 기능과 사용자 프라이버시를 모두 강조했다. 심지어 macOS 사파리에 새로 추가된 기능 중 하나는 머신러닝 기능을 이용하여 사용자의 프라이버시를 지키는 기능이다. 애플은 이번 기조연설 내내 이렇게 외치는 듯 했다. 

“프라이버시를 지키면서도 머신 러닝을 잘 할 수 있어”

물론 실제 기능들이 정말 애플의 설명대로 잘 동작할지는 이 기능들을 조금 더 깊게 써 봐야 하겠지만 적어도 이런 애플의 자세는 높이 평가할만하지 않을까?

저작자 표시 비영리 변경 금지


from Back to the Mac http://ift.tt/2s0IWAv
via IFTTT