반응형

WWDC 2020 세션 중, Detect Body and Hand Pose with Vision 을 인상깊게 봤는데 일단 손동작을 detect하는 것을 따라해보겠습니다. 엄지와 검지를 붙인채로 텍스트를 쓰는 것을 보여줬는데요..! 너무 너무 멋있어서 설레는 마음으로 예제 프로젝트를 돌려서 해봤는데ㅠㅠ 절대 저렇게 안되더라구요...(속은 기분..) 저거 빼고 손동작이랑 똑같은 이모지 보여주는 것이랑 특정 손동작으로 사진 촬영 같은 UI Control 하는 것 따라해보겠습니다..!! 위의 두개는 예제프로젝트로 공개 안해줬는데, 과연 잘될까요..?.? [1] AVCaptureSession과 AVCaptureViedoPreviewLayer 설정해주기 우선 info.plist에 카메라 접근 권한 요청을 추가해주고..
🍏/Vision
2020. 7. 4. 15:58
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- DRF APIException
- Sketch 누끼
- 플러터 얼럿
- Flutter Text Gradient
- ribs
- 구글 Geocoding API
- 장고 Custom Management Command
- Django Firebase Cloud Messaging
- cocoapod
- github actions
- flutter 앱 출시
- Flutter getter setter
- ipad multitasking
- SerializerMethodField
- drf custom error
- Flutter Spacer
- Flutter 로딩
- Django Heroku Scheduler
- flutter dynamic link
- Python Type Hint
- Dart Factory
- 장고 URL querystring
- 플러터 싱글톤
- METAL
- Watch App for iOS App vs Watch App
- flutter deep link
- Flutter Clipboard
- PencilKit
- flutter build mode
- Django FCM
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함