상호작용 유형
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
Wear OS를 사용하면 사용자가 정보를 빠르게 확인하고 조치를 취할 수 있습니다. 앱, 카드, 정보 표시, 알림, 음성 작업은 사용자가 시계로 작업을 완료하는 데 도움이 됩니다.
앱
개발자는 Wear OS 앱을 사용하여 브랜드 참여도가 높은 환경을 만들 수 있습니다. 이러한 앱은 시계의 하드웨어 기능을 최대한 활용하여 풍부한 대화형 환경을 제공할 수 있습니다.
앱은 사용자가 콘텐츠와 상호작용하고 작업을 완료할 수 있는 대상입니다. 정보 표시, 카드, 런처 항목, 알림을 탭하는 등 앱에 관한 여러 진입점이 있습니다.
그림 1. Wear OS 앱 런처
카드
카드를 통해 한눈에 알아볼 수 있는 정보와 작업에 빠르게 액세스할 수 있습니다. 사용자는 보고 싶은 카드를 선택하고 시계 화면에서 해당 카드로 스와이프합니다.
카드는 정보 표시에 표시할 수 있는 것보다 더 많은 정보가 사용자에게 필요한 사용 사례에 적합합니다.
사용자는 카드 캐러셀을 빠르게 스크롤하여 정보와 작업에 빠르게 액세스할 수 있습니다.
정보 표시
시계 화면은 시간 그 이상을 전달할 수 있습니다. 관련성 높고 시의적절한 데이터를 표시할 수 있습니다 정보 표시를 포함하면 설치된 앱이 예정된 약속과 같은 유용한 정보와 작업을 표시합니다.
탭하여 앱에서 자세히 알아보거나 탭하여 정보 표시 상태를 변경하는 등 탭하여 정보 표시와 상호작용할 수 있습니다. 예를 들어 더블 탭으로 마신 물의 양을 추적하는 데 도움이 되는 정보 표시를 생각해 보세요.
그림 2. 운동 및 캘린더 앱의 데이터 정보 표시가 있는 시계 화면
알림
알림은 상황별 주변 데이터를 제공합니다.
메시지에 답장하거나 지도에서 위치를 열거나 노래를 재생하는 등 더 많은 상호작용을 제공하도록 알림을 확장할 수 있습니다.
알림 템플릿은 채팅과 캘린더 일정에 사용할 수 있습니다.
그림 3. 알림 스트림의 알림
음성 액션
음성 액션을 통해 Wear OS와 핸즈프리로 상호작용할 수 있습니다. 이러한 작업은 사용자가 질문에 답하는 데 도움이 되고 설치된 앱에서 특정 작업을 트리거할 수 있습니다.
그림 4. 사용자가 "Hey Google, 일정 보여 줘"라는 음성 명령을 말하면 쿼리가 화면에 텍스트로 표시됩니다.
작동 방식
이 날씨 앱 예에서 볼 수 있듯이 사용자에게 얼마나 중요하고 얼마나 자주 필요한지에 따라 표시 경로 전반에 걸쳐 콘텐츠의 우선순위를 정하는 것이 좋습니다.

Complication
P1: 지금 날씨 어때?

알림
P1: 날씨 주의보 알려 줘

타일
P1: 지금 날씨 어때?
P2: 오늘 날씨 어때?

앱
P1: 지금 날씨 어때?
P2: 오늘 날씨 어때?
P3: 시간별 날씨는 어때?
P3: 환경설정
이 페이지에 나와 있는 콘텐츠와 코드 샘플에는 콘텐츠 라이선스에서 설명하는 라이선스가 적용됩니다. 자바 및 OpenJDK는 Oracle 및 Oracle 계열사의 상표 또는 등록 상표입니다.
최종 업데이트: 2025-07-27(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-07-27(UTC)"],[],[],null,["# Interaction types\n\nWear OS lets users quickly glance at information and take\naction. Apps, tiles, complications, notifications, and voice actions help\npeople get things done with the watch.\n\nApps\n----\n\nDevelopers can create branded, engaging experiences using Wear OS apps. These\napps can take full advantage of the watch's hardware capabilities to provide\nrich and interactive experiences.\n\nThe app is a destination where users can interact with content and\ncomplete their task. There are many entry-points to an app, including\ntapping on a complication, a tile, a launcher entry, and a notification.\n\n**Figure 1.** The Wear OS app launcher.\n\nTiles\n-----\n\nTiles provide quick access to glanceable information and actions. Users choose\nwhich Tiles they want to see and swipe to them from the watch face.\n\nTiles are great for use cases in which the user needs more information than can\nbe displayed in a complication.\n\nThe user can scroll quickly through the Tiles carousel for quick access to\ninformation and actions.\n\nComplications\n-------------\n\nWatch faces can tell more than time; they can show relevant, timely data. By\nincluding a complication, installed apps display useful information and actions,\nsuch as upcoming appointments.\n\nPeople can tap to interact with complications, including tapping to learn more\nin the app, or tapping to change the state of the complication. For example,\nimagine a complication that helps track how many glasses of water you are\ndrinking with a quick tap.\n\n**Figure 2.** A watch face with data complications for an exercise and calendar\napp.\n\nNotifications\n-------------\n\nNotifications provide ambient, contextual data.\n\nNotifications can be expanded to offer more interactions, such as\nreplying to a message, opening a location on a map, or playing a song.\nNotification templates are available for instant messaging, and calendar events.\n\n**Figure 3.** A notification in the notification stream.\n\nVoice actions\n-------------\n\nVoice actions enable hands-free interactions with Wear OS. These\nactions help people answer questions and can trigger specific actions on\ninstalled apps.\n\n**Figure 4.** After the user has spoken the voice command, \"OK Google, show me\nmy agenda,\" the query appears as text on screen.\n\nHow it all fits together\n------------------------\n\nConsider prioritizing content across surfaces according to how important and\nfrequently users need it, as demonstrated in this example weather app:\n\n\nComplication\n\nP1: What's the weather right now? \n\nNotification\n\nP1: Tell me about a weather advisory\n\n\u003cbr /\u003e\n\n\nTile\n\nP1: What's the weather right now?\n\nP2: What's the weather today? \n\nApp\n\nP1: What's the weather right now?\n\nP2: What's the weather today?\n\nP3: What's the hourly breakdown?\n\nP3: Preferences\n\n\u003cbr /\u003e"]]