🔴 현재 시청중인 영상48,79515858:21ResNet: Deep Residual Learning for Image Recognition (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)동빈나구독자 168,000명댓글 010/29/2020
9,08818850:56Meta-Transfer Learning for Zero-Shot Super-Resolution (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)동빈나구독자 168,000명댓글 09/30/2020
8,90016352:08Shadow Attack - Semantic Adversarial Examples (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)동빈나구독자 168,000명댓글 09/20/2020
63,9352021:15:53DETR: End-to-End Object Detection with Transformers (꼼꼼한 딥러닝 논문 리뷰와 코드 실습)동빈나구독자 168,000명댓글 09/18/2020
5,86718324:38[꼼꼼한 논문 리뷰] Adversarial Patch: 스티커를 붙이기만 하면 인공지능이 망가진다! [NIPS 2017] (인공지능 보안/AI Security)동빈나구독자 168,000명댓글 07/7/2020
46,23328917:39작곡하는 인공지능?! 최신 AI 작곡 도구 리뷰 | AWS DeepComposer & OpenAI Jukebox조코딩 JoCoding구독자 677,000명댓글 06/20/2020
5,3091931:14:21[꼼꼼한 논문 리뷰] Constructing Unrestricted Adversarial Examples with Generative Models [NIPS 2018] (AI보안)동빈나구독자 168,000명댓글 03/30/2020
3,9371862:22:59[꼼꼼한 논문 리뷰] Obfuscated Gradients Give a False Sense of Security [ICML 2018] (인공지능 보안)동빈나구독자 168,000명댓글 03/27/2020
4,3151971:46:14[꼼꼼한 논문 리뷰] Certified Robustness to Adversarial Examples with Differential Privacy [S&P 2019] (AI보안)동빈나구독자 168,000명댓글 03/19/2020
7,2071421:03:05[꼼꼼한 논문 리뷰] Towards Deep Learning Models Resistant to Adversarial Attacks [ICLR 2018] (인공지능 보안)동빈나구독자 168,000명댓글 03/8/2020