[youtube] Prefer video_info with token available
[youtube-dl] / youtube_dl / extractor / youtube.py
1 # coding: utf-8
2
3 from __future__ import unicode_literals
4
5
6 import itertools
7 import json
8 import os.path
9 import re
10 import time
11 import traceback
12
13 from .common import InfoExtractor, SearchInfoExtractor
14 from ..jsinterp import JSInterpreter
15 from ..swfinterp import SWFInterpreter
16 from ..compat import (
17     compat_chr,
18     compat_parse_qs,
19     compat_urllib_parse,
20     compat_urllib_parse_unquote,
21     compat_urllib_parse_unquote_plus,
22     compat_urllib_parse_urlparse,
23     compat_urllib_request,
24     compat_urlparse,
25     compat_str,
26 )
27 from ..utils import (
28     clean_html,
29     encode_dict,
30     ExtractorError,
31     float_or_none,
32     get_element_by_attribute,
33     get_element_by_id,
34     int_or_none,
35     orderedSet,
36     parse_duration,
37     remove_start,
38     smuggle_url,
39     str_to_int,
40     unescapeHTML,
41     unified_strdate,
42     unsmuggle_url,
43     uppercase_escape,
44     ISO3166Utils,
45 )
46
47
48 class YoutubeBaseInfoExtractor(InfoExtractor):
49     """Provide base functions for Youtube extractors"""
50     _LOGIN_URL = 'https://accounts.google.com/ServiceLogin'
51     _TWOFACTOR_URL = 'https://accounts.google.com/signin/challenge'
52     _NETRC_MACHINE = 'youtube'
53     # If True it will raise an error if no login info is provided
54     _LOGIN_REQUIRED = False
55
56     def _set_language(self):
57         self._set_cookie(
58             '.youtube.com', 'PREF', 'f1=50000000&hl=en',
59             # YouTube sets the expire time to about two months
60             expire_time=time.time() + 2 * 30 * 24 * 3600)
61
62     def _ids_to_results(self, ids):
63         return [
64             self.url_result(vid_id, 'Youtube', video_id=vid_id)
65             for vid_id in ids]
66
67     def _login(self):
68         """
69         Attempt to log in to YouTube.
70         True is returned if successful or skipped.
71         False is returned if login failed.
72
73         If _LOGIN_REQUIRED is set and no authentication was provided, an error is raised.
74         """
75         (username, password) = self._get_login_info()
76         # No authentication to be performed
77         if username is None:
78             if self._LOGIN_REQUIRED:
79                 raise ExtractorError('No login info available, needed for using %s.' % self.IE_NAME, expected=True)
80             return True
81
82         login_page = self._download_webpage(
83             self._LOGIN_URL, None,
84             note='Downloading login page',
85             errnote='unable to fetch login page', fatal=False)
86         if login_page is False:
87             return
88
89         galx = self._search_regex(r'(?s)<input.+?name="GALX".+?value="(.+?)"',
90                                   login_page, 'Login GALX parameter')
91
92         # Log in
93         login_form_strs = {
94             'continue': 'https://www.youtube.com/signin?action_handle_signin=true&feature=sign_in_button&hl=en_US&nomobiletemp=1',
95             'Email': username,
96             'GALX': galx,
97             'Passwd': password,
98
99             'PersistentCookie': 'yes',
100             '_utf8': '霱',
101             'bgresponse': 'js_disabled',
102             'checkConnection': '',
103             'checkedDomains': 'youtube',
104             'dnConn': '',
105             'pstMsg': '0',
106             'rmShown': '1',
107             'secTok': '',
108             'signIn': 'Sign in',
109             'timeStmp': '',
110             'service': 'youtube',
111             'uilel': '3',
112             'hl': 'en_US',
113         }
114
115         login_data = compat_urllib_parse.urlencode(encode_dict(login_form_strs)).encode('ascii')
116
117         req = compat_urllib_request.Request(self._LOGIN_URL, login_data)
118         login_results = self._download_webpage(
119             req, None,
120             note='Logging in', errnote='unable to log in', fatal=False)
121         if login_results is False:
122             return False
123
124         if re.search(r'id="errormsg_0_Passwd"', login_results) is not None:
125             raise ExtractorError('Please use your account password and a two-factor code instead of an application-specific password.', expected=True)
126
127         # Two-Factor
128         # TODO add SMS and phone call support - these require making a request and then prompting the user
129
130         if re.search(r'(?i)<form[^>]* id="challenge"', login_results) is not None:
131             tfa_code = self._get_tfa_info('2-step verification code')
132
133             if not tfa_code:
134                 self._downloader.report_warning(
135                     'Two-factor authentication required. Provide it either interactively or with --twofactor <code>'
136                     '(Note that only TOTP (Google Authenticator App) codes work at this time.)')
137                 return False
138
139             tfa_code = remove_start(tfa_code, 'G-')
140
141             tfa_form_strs = self._form_hidden_inputs('challenge', login_results)
142
143             tfa_form_strs.update({
144                 'Pin': tfa_code,
145                 'TrustDevice': 'on',
146             })
147
148             tfa_data = compat_urllib_parse.urlencode(encode_dict(tfa_form_strs)).encode('ascii')
149
150             tfa_req = compat_urllib_request.Request(self._TWOFACTOR_URL, tfa_data)
151             tfa_results = self._download_webpage(
152                 tfa_req, None,
153                 note='Submitting TFA code', errnote='unable to submit tfa', fatal=False)
154
155             if tfa_results is False:
156                 return False
157
158             if re.search(r'(?i)<form[^>]* id="challenge"', tfa_results) is not None:
159                 self._downloader.report_warning('Two-factor code expired or invalid. Please try again, or use a one-use backup code instead.')
160                 return False
161             if re.search(r'(?i)<form[^>]* id="gaia_loginform"', tfa_results) is not None:
162                 self._downloader.report_warning('unable to log in - did the page structure change?')
163                 return False
164             if re.search(r'smsauth-interstitial-reviewsettings', tfa_results) is not None:
165                 self._downloader.report_warning('Your Google account has a security notice. Please log in on your web browser, resolve the notice, and try again.')
166                 return False
167
168         if re.search(r'(?i)<form[^>]* id="gaia_loginform"', login_results) is not None:
169             self._downloader.report_warning('unable to log in: bad username or password')
170             return False
171         return True
172
173     def _real_initialize(self):
174         if self._downloader is None:
175             return
176         self._set_language()
177         if not self._login():
178             return
179
180
181 class YoutubePlaylistBaseInfoExtractor(InfoExtractor):
182     # Extract the video ids from the playlist pages
183     def _entries(self, page, playlist_id):
184         more_widget_html = content_html = page
185         for page_num in itertools.count(1):
186             for video_id, video_title in self.extract_videos_from_page(content_html):
187                 yield self.url_result(
188                     video_id, 'Youtube', video_id=video_id,
189                     video_title=video_title)
190
191             mobj = re.search(r'data-uix-load-more-href="/?(?P<more>[^"]+)"', more_widget_html)
192             if not mobj:
193                 break
194
195             more = self._download_json(
196                 'https://youtube.com/%s' % mobj.group('more'), playlist_id,
197                 'Downloading page #%s' % page_num,
198                 transform_source=uppercase_escape)
199             content_html = more['content_html']
200             if not content_html.strip():
201                 # Some webpages show a "Load more" button but they don't
202                 # have more videos
203                 break
204             more_widget_html = more['load_more_widget_html']
205
206     def extract_videos_from_page(self, page):
207         ids_in_page = []
208         titles_in_page = []
209         for mobj in re.finditer(self._VIDEO_RE, page):
210             # The link with index 0 is not the first video of the playlist (not sure if still actual)
211             if 'index' in mobj.groupdict() and mobj.group('id') == '0':
212                 continue
213             video_id = mobj.group('id')
214             video_title = unescapeHTML(mobj.group('title'))
215             if video_title:
216                 video_title = video_title.strip()
217             try:
218                 idx = ids_in_page.index(video_id)
219                 if video_title and not titles_in_page[idx]:
220                     titles_in_page[idx] = video_title
221             except ValueError:
222                 ids_in_page.append(video_id)
223                 titles_in_page.append(video_title)
224         return zip(ids_in_page, titles_in_page)
225
226
227 class YoutubeIE(YoutubeBaseInfoExtractor):
228     IE_DESC = 'YouTube.com'
229     _VALID_URL = r"""(?x)^
230                      (
231                          (?:https?://|//)                                    # http(s):// or protocol-independent URL
232                          (?:(?:(?:(?:\w+\.)?[yY][oO][uU][tT][uU][bB][eE](?:-nocookie)?\.com/|
233                             (?:www\.)?deturl\.com/www\.youtube\.com/|
234                             (?:www\.)?pwnyoutube\.com/|
235                             (?:www\.)?yourepeat\.com/|
236                             tube\.majestyc\.net/|
237                             youtube\.googleapis\.com/)                        # the various hostnames, with wildcard subdomains
238                          (?:.*?\#/)?                                          # handle anchor (#/) redirect urls
239                          (?:                                                  # the various things that can precede the ID:
240                              (?:(?:v|embed|e)/(?!videoseries))                # v/ or embed/ or e/
241                              |(?:                                             # or the v= param in all its forms
242                                  (?:(?:watch|movie)(?:_popup)?(?:\.php)?/?)?  # preceding watch(_popup|.php) or nothing (like /?v=xxxx)
243                                  (?:\?|\#!?)                                  # the params delimiter ? or # or #!
244                                  (?:.*?&)??                                   # any other preceding param (like /?s=tuff&v=xxxx)
245                                  v=
246                              )
247                          ))
248                          |(?:
249                             youtu\.be|                                        # just youtu.be/xxxx
250                             vid\.plus                                         # or vid.plus/xxxx
251                          )/
252                          |(?:www\.)?cleanvideosearch\.com/media/action/yt/watch\?videoId=
253                          )
254                      )?                                                       # all until now is optional -> you can pass the naked ID
255                      ([0-9A-Za-z_-]{11})                                      # here is it! the YouTube video ID
256                      (?!.*?&list=)                                            # combined list/video URLs are handled by the playlist IE
257                      (?(1).+)?                                                # if we found the ID, everything can follow
258                      $"""
259     _NEXT_URL_RE = r'[\?&]next_url=([^&]+)'
260     _formats = {
261         '5': {'ext': 'flv', 'width': 400, 'height': 240},
262         '6': {'ext': 'flv', 'width': 450, 'height': 270},
263         '13': {'ext': '3gp'},
264         '17': {'ext': '3gp', 'width': 176, 'height': 144},
265         '18': {'ext': 'mp4', 'width': 640, 'height': 360},
266         '22': {'ext': 'mp4', 'width': 1280, 'height': 720},
267         '34': {'ext': 'flv', 'width': 640, 'height': 360},
268         '35': {'ext': 'flv', 'width': 854, 'height': 480},
269         '36': {'ext': '3gp', 'width': 320, 'height': 240},
270         '37': {'ext': 'mp4', 'width': 1920, 'height': 1080},
271         '38': {'ext': 'mp4', 'width': 4096, 'height': 3072},
272         '43': {'ext': 'webm', 'width': 640, 'height': 360},
273         '44': {'ext': 'webm', 'width': 854, 'height': 480},
274         '45': {'ext': 'webm', 'width': 1280, 'height': 720},
275         '46': {'ext': 'webm', 'width': 1920, 'height': 1080},
276         '59': {'ext': 'mp4', 'width': 854, 'height': 480},
277         '78': {'ext': 'mp4', 'width': 854, 'height': 480},
278
279
280         # 3d videos
281         '82': {'ext': 'mp4', 'height': 360, 'format_note': '3D', 'preference': -20},
282         '83': {'ext': 'mp4', 'height': 480, 'format_note': '3D', 'preference': -20},
283         '84': {'ext': 'mp4', 'height': 720, 'format_note': '3D', 'preference': -20},
284         '85': {'ext': 'mp4', 'height': 1080, 'format_note': '3D', 'preference': -20},
285         '100': {'ext': 'webm', 'height': 360, 'format_note': '3D', 'preference': -20},
286         '101': {'ext': 'webm', 'height': 480, 'format_note': '3D', 'preference': -20},
287         '102': {'ext': 'webm', 'height': 720, 'format_note': '3D', 'preference': -20},
288
289         # Apple HTTP Live Streaming
290         '92': {'ext': 'mp4', 'height': 240, 'format_note': 'HLS', 'preference': -10},
291         '93': {'ext': 'mp4', 'height': 360, 'format_note': 'HLS', 'preference': -10},
292         '94': {'ext': 'mp4', 'height': 480, 'format_note': 'HLS', 'preference': -10},
293         '95': {'ext': 'mp4', 'height': 720, 'format_note': 'HLS', 'preference': -10},
294         '96': {'ext': 'mp4', 'height': 1080, 'format_note': 'HLS', 'preference': -10},
295         '132': {'ext': 'mp4', 'height': 240, 'format_note': 'HLS', 'preference': -10},
296         '151': {'ext': 'mp4', 'height': 72, 'format_note': 'HLS', 'preference': -10},
297
298         # DASH mp4 video
299         '133': {'ext': 'mp4', 'height': 240, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
300         '134': {'ext': 'mp4', 'height': 360, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
301         '135': {'ext': 'mp4', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
302         '136': {'ext': 'mp4', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
303         '137': {'ext': 'mp4', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
304         '138': {'ext': 'mp4', 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},  # Height can vary (https://github.com/rg3/youtube-dl/issues/4559)
305         '160': {'ext': 'mp4', 'height': 144, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
306         '264': {'ext': 'mp4', 'height': 1440, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
307         '298': {'ext': 'mp4', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'h264'},
308         '299': {'ext': 'mp4', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'h264'},
309         '266': {'ext': 'mp4', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'vcodec': 'h264'},
310
311         # Dash mp4 audio
312         '139': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'vcodec': 'none', 'abr': 48, 'preference': -50, 'container': 'm4a_dash'},
313         '140': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'vcodec': 'none', 'abr': 128, 'preference': -50, 'container': 'm4a_dash'},
314         '141': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'vcodec': 'none', 'abr': 256, 'preference': -50, 'container': 'm4a_dash'},
315
316         # Dash webm
317         '167': {'ext': 'webm', 'height': 360, 'width': 640, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
318         '168': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
319         '169': {'ext': 'webm', 'height': 720, 'width': 1280, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
320         '170': {'ext': 'webm', 'height': 1080, 'width': 1920, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
321         '218': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
322         '219': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
323         '278': {'ext': 'webm', 'height': 144, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'container': 'webm', 'vcodec': 'vp9'},
324         '242': {'ext': 'webm', 'height': 240, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
325         '243': {'ext': 'webm', 'height': 360, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
326         '244': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
327         '245': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
328         '246': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
329         '247': {'ext': 'webm', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
330         '248': {'ext': 'webm', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
331         '271': {'ext': 'webm', 'height': 1440, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
332         '272': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
333         '302': {'ext': 'webm', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
334         '303': {'ext': 'webm', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
335         '308': {'ext': 'webm', 'height': 1440, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
336         '313': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'vcodec': 'vp9'},
337         '315': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
338
339         # Dash webm audio
340         '171': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'abr': 128, 'preference': -50},
341         '172': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'abr': 256, 'preference': -50},
342
343         # Dash webm audio with opus inside
344         '249': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 50, 'preference': -50},
345         '250': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 70, 'preference': -50},
346         '251': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 160, 'preference': -50},
347
348         # RTMP (unnamed)
349         '_rtmp': {'protocol': 'rtmp'},
350     }
351
352     IE_NAME = 'youtube'
353     _TESTS = [
354         {
355             'url': 'http://www.youtube.com/watch?v=BaW_jenozKcj&t=1s&end=9',
356             'info_dict': {
357                 'id': 'BaW_jenozKc',
358                 'ext': 'mp4',
359                 'title': 'youtube-dl test video "\'/\\ä↭𝕐',
360                 'uploader': 'Philipp Hagemeister',
361                 'uploader_id': 'phihag',
362                 'upload_date': '20121002',
363                 'description': 'test chars:  "\'/\\ä↭𝕐\ntest URL: https://github.com/rg3/youtube-dl/issues/1892\n\nThis is a test video for youtube-dl.\n\nFor more information, contact phihag@phihag.de .',
364                 'categories': ['Science & Technology'],
365                 'tags': ['youtube-dl'],
366                 'like_count': int,
367                 'dislike_count': int,
368                 'start_time': 1,
369                 'end_time': 9,
370             }
371         },
372         {
373             'url': 'http://www.youtube.com/watch?v=UxxajLWwzqY',
374             'note': 'Test generic use_cipher_signature video (#897)',
375             'info_dict': {
376                 'id': 'UxxajLWwzqY',
377                 'ext': 'mp4',
378                 'upload_date': '20120506',
379                 'title': 'Icona Pop - I Love It (feat. Charli XCX) [OFFICIAL VIDEO]',
380                 'description': 'md5:782e8651347686cba06e58f71ab51773',
381                 'tags': ['Icona Pop i love it', 'sweden', 'pop music', 'big beat records', 'big beat', 'charli',
382                          'xcx', 'charli xcx', 'girls', 'hbo', 'i love it', "i don't care", 'icona', 'pop',
383                          'iconic ep', 'iconic', 'love', 'it'],
384                 'uploader': 'Icona Pop',
385                 'uploader_id': 'IconaPop',
386             }
387         },
388         {
389             'url': 'https://www.youtube.com/watch?v=07FYdnEawAQ',
390             'note': 'Test VEVO video with age protection (#956)',
391             'info_dict': {
392                 'id': '07FYdnEawAQ',
393                 'ext': 'mp4',
394                 'upload_date': '20130703',
395                 'title': 'Justin Timberlake - Tunnel Vision (Explicit)',
396                 'description': 'md5:64249768eec3bc4276236606ea996373',
397                 'uploader': 'justintimberlakeVEVO',
398                 'uploader_id': 'justintimberlakeVEVO',
399                 'age_limit': 18,
400             }
401         },
402         {
403             'url': '//www.YouTube.com/watch?v=yZIXLfi8CZQ',
404             'note': 'Embed-only video (#1746)',
405             'info_dict': {
406                 'id': 'yZIXLfi8CZQ',
407                 'ext': 'mp4',
408                 'upload_date': '20120608',
409                 'title': 'Principal Sexually Assaults A Teacher - Episode 117 - 8th June 2012',
410                 'description': 'md5:09b78bd971f1e3e289601dfba15ca4f7',
411                 'uploader': 'SET India',
412                 'uploader_id': 'setindia'
413             }
414         },
415         {
416             'url': 'http://www.youtube.com/watch?v=BaW_jenozKcj&v=UxxajLWwzqY',
417             'note': 'Use the first video ID in the URL',
418             'info_dict': {
419                 'id': 'BaW_jenozKc',
420                 'ext': 'mp4',
421                 'title': 'youtube-dl test video "\'/\\ä↭𝕐',
422                 'uploader': 'Philipp Hagemeister',
423                 'uploader_id': 'phihag',
424                 'upload_date': '20121002',
425                 'description': 'test chars:  "\'/\\ä↭𝕐\ntest URL: https://github.com/rg3/youtube-dl/issues/1892\n\nThis is a test video for youtube-dl.\n\nFor more information, contact phihag@phihag.de .',
426                 'categories': ['Science & Technology'],
427                 'tags': ['youtube-dl'],
428                 'like_count': int,
429                 'dislike_count': int,
430             },
431             'params': {
432                 'skip_download': True,
433             },
434         },
435         {
436             'url': 'http://www.youtube.com/watch?v=a9LDPn-MO4I',
437             'note': '256k DASH audio (format 141) via DASH manifest',
438             'info_dict': {
439                 'id': 'a9LDPn-MO4I',
440                 'ext': 'm4a',
441                 'upload_date': '20121002',
442                 'uploader_id': '8KVIDEO',
443                 'description': '',
444                 'uploader': '8KVIDEO',
445                 'title': 'UHDTV TEST 8K VIDEO.mp4'
446             },
447             'params': {
448                 'youtube_include_dash_manifest': True,
449                 'format': '141',
450             },
451         },
452         # DASH manifest with encrypted signature
453         {
454             'url': 'https://www.youtube.com/watch?v=IB3lcPjvWLA',
455             'info_dict': {
456                 'id': 'IB3lcPjvWLA',
457                 'ext': 'm4a',
458                 'title': 'Afrojack, Spree Wilson - The Spark ft. Spree Wilson',
459                 'description': 'md5:12e7067fa6735a77bdcbb58cb1187d2d',
460                 'uploader': 'AfrojackVEVO',
461                 'uploader_id': 'AfrojackVEVO',
462                 'upload_date': '20131011',
463             },
464             'params': {
465                 'youtube_include_dash_manifest': True,
466                 'format': '141',
467             },
468         },
469         # JS player signature function name containing $
470         {
471             'url': 'https://www.youtube.com/watch?v=nfWlot6h_JM',
472             'info_dict': {
473                 'id': 'nfWlot6h_JM',
474                 'ext': 'm4a',
475                 'title': 'Taylor Swift - Shake It Off',
476                 'description': 'md5:95f66187cd7c8b2c13eb78e1223b63c3',
477                 'uploader': 'TaylorSwiftVEVO',
478                 'uploader_id': 'TaylorSwiftVEVO',
479                 'upload_date': '20140818',
480             },
481             'params': {
482                 'youtube_include_dash_manifest': True,
483                 'format': '141',
484             },
485         },
486         # Controversy video
487         {
488             'url': 'https://www.youtube.com/watch?v=T4XJQO3qol8',
489             'info_dict': {
490                 'id': 'T4XJQO3qol8',
491                 'ext': 'mp4',
492                 'upload_date': '20100909',
493                 'uploader': 'The Amazing Atheist',
494                 'uploader_id': 'TheAmazingAtheist',
495                 'title': 'Burning Everyone\'s Koran',
496                 'description': 'SUBSCRIBE: http://www.youtube.com/saturninefilms\n\nEven Obama has taken a stand against freedom on this issue: http://www.huffingtonpost.com/2010/09/09/obama-gma-interview-quran_n_710282.html',
497             }
498         },
499         # Normal age-gate video (No vevo, embed allowed)
500         {
501             'url': 'http://youtube.com/watch?v=HtVdAasjOgU',
502             'info_dict': {
503                 'id': 'HtVdAasjOgU',
504                 'ext': 'mp4',
505                 'title': 'The Witcher 3: Wild Hunt - The Sword Of Destiny Trailer',
506                 'description': 're:(?s).{100,}About the Game\n.*?The Witcher 3: Wild Hunt.{100,}',
507                 'uploader': 'The Witcher',
508                 'uploader_id': 'WitcherGame',
509                 'upload_date': '20140605',
510                 'age_limit': 18,
511             },
512         },
513         # Age-gate video with encrypted signature
514         {
515             'url': 'http://www.youtube.com/watch?v=6kLq3WMV1nU',
516             'info_dict': {
517                 'id': '6kLq3WMV1nU',
518                 'ext': 'mp4',
519                 'title': 'Dedication To My Ex (Miss That) (Lyric Video)',
520                 'description': 'md5:33765bb339e1b47e7e72b5490139bb41',
521                 'uploader': 'LloydVEVO',
522                 'uploader_id': 'LloydVEVO',
523                 'upload_date': '20110629',
524                 'age_limit': 18,
525             },
526         },
527         # video_info is None (https://github.com/rg3/youtube-dl/issues/4421)
528         {
529             'url': '__2ABJjxzNo',
530             'info_dict': {
531                 'id': '__2ABJjxzNo',
532                 'ext': 'mp4',
533                 'upload_date': '20100430',
534                 'uploader_id': 'deadmau5',
535                 'description': 'md5:12c56784b8032162bb936a5f76d55360',
536                 'uploader': 'deadmau5',
537                 'title': 'Deadmau5 - Some Chords (HD)',
538             },
539             'expected_warnings': [
540                 'DASH manifest missing',
541             ]
542         },
543         # Olympics (https://github.com/rg3/youtube-dl/issues/4431)
544         {
545             'url': 'lqQg6PlCWgI',
546             'info_dict': {
547                 'id': 'lqQg6PlCWgI',
548                 'ext': 'mp4',
549                 'upload_date': '20120724',
550                 'uploader_id': 'olympic',
551                 'description': 'HO09  - Women -  GER-AUS - Hockey - 31 July 2012 - London 2012 Olympic Games',
552                 'uploader': 'Olympics',
553                 'title': 'Hockey - Women -  GER-AUS - London 2012 Olympic Games',
554             },
555             'params': {
556                 'skip_download': 'requires avconv',
557             }
558         },
559         # Non-square pixels
560         {
561             'url': 'https://www.youtube.com/watch?v=_b-2C3KPAM0',
562             'info_dict': {
563                 'id': '_b-2C3KPAM0',
564                 'ext': 'mp4',
565                 'stretched_ratio': 16 / 9.,
566                 'upload_date': '20110310',
567                 'uploader_id': 'AllenMeow',
568                 'description': 'made by Wacom from Korea | 字幕&加油添醋 by TY\'s Allen | 感謝heylisa00cavey1001同學熱情提供梗及翻譯',
569                 'uploader': '孫艾倫',
570                 'title': '[A-made] 變態妍字幕版 太妍 我就是這樣的人',
571             },
572         },
573         # url_encoded_fmt_stream_map is empty string
574         {
575             'url': 'qEJwOuvDf7I',
576             'info_dict': {
577                 'id': 'qEJwOuvDf7I',
578                 'ext': 'webm',
579                 'title': 'Обсуждение судебной практики по выборам 14 сентября 2014 года в Санкт-Петербурге',
580                 'description': '',
581                 'upload_date': '20150404',
582                 'uploader_id': 'spbelect',
583                 'uploader': 'Наблюдатели Петербурга',
584             },
585             'params': {
586                 'skip_download': 'requires avconv',
587             }
588         },
589         # Extraction from multiple DASH manifests (https://github.com/rg3/youtube-dl/pull/6097)
590         {
591             'url': 'https://www.youtube.com/watch?v=FIl7x6_3R5Y',
592             'info_dict': {
593                 'id': 'FIl7x6_3R5Y',
594                 'ext': 'mp4',
595                 'title': 'md5:7b81415841e02ecd4313668cde88737a',
596                 'description': 'md5:116377fd2963b81ec4ce64b542173306',
597                 'upload_date': '20150625',
598                 'uploader_id': 'dorappi2000',
599                 'uploader': 'dorappi2000',
600                 'formats': 'mincount:33',
601             },
602         },
603         # DASH manifest with segment_list
604         {
605             'url': 'https://www.youtube.com/embed/CsmdDsKjzN8',
606             'md5': '8ce563a1d667b599d21064e982ab9e31',
607             'info_dict': {
608                 'id': 'CsmdDsKjzN8',
609                 'ext': 'mp4',
610                 'upload_date': '20150501',  # According to '<meta itemprop="datePublished"', but in other places it's 20150510
611                 'uploader': 'Airtek',
612                 'description': 'Retransmisión en directo de la XVIII media maratón de Zaragoza.',
613                 'uploader_id': 'UCzTzUmjXxxacNnL8I3m4LnQ',
614                 'title': 'Retransmisión XVIII Media maratón Zaragoza 2015',
615             },
616             'params': {
617                 'youtube_include_dash_manifest': True,
618                 'format': '135',  # bestvideo
619             }
620         },
621         {
622             # Multifeed videos (multiple cameras), URL is for Main Camera
623             'url': 'https://www.youtube.com/watch?v=jqWvoWXjCVs',
624             'info_dict': {
625                 'id': 'jqWvoWXjCVs',
626                 'title': 'teamPGP: Rocket League Noob Stream',
627                 'description': 'md5:dc7872fb300e143831327f1bae3af010',
628             },
629             'playlist': [{
630                 'info_dict': {
631                     'id': 'jqWvoWXjCVs',
632                     'ext': 'mp4',
633                     'title': 'teamPGP: Rocket League Noob Stream (Main Camera)',
634                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
635                     'upload_date': '20150721',
636                     'uploader': 'Beer Games Beer',
637                     'uploader_id': 'beergamesbeer',
638                 },
639             }, {
640                 'info_dict': {
641                     'id': '6h8e8xoXJzg',
642                     'ext': 'mp4',
643                     'title': 'teamPGP: Rocket League Noob Stream (kreestuh)',
644                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
645                     'upload_date': '20150721',
646                     'uploader': 'Beer Games Beer',
647                     'uploader_id': 'beergamesbeer',
648                 },
649             }, {
650                 'info_dict': {
651                     'id': 'PUOgX5z9xZw',
652                     'ext': 'mp4',
653                     'title': 'teamPGP: Rocket League Noob Stream (grizzle)',
654                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
655                     'upload_date': '20150721',
656                     'uploader': 'Beer Games Beer',
657                     'uploader_id': 'beergamesbeer',
658                 },
659             }, {
660                 'info_dict': {
661                     'id': 'teuwxikvS5k',
662                     'ext': 'mp4',
663                     'title': 'teamPGP: Rocket League Noob Stream (zim)',
664                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
665                     'upload_date': '20150721',
666                     'uploader': 'Beer Games Beer',
667                     'uploader_id': 'beergamesbeer',
668                 },
669             }],
670             'params': {
671                 'skip_download': True,
672             },
673         },
674         {
675             'url': 'http://vid.plus/FlRa-iH7PGw',
676             'only_matching': True,
677         }
678     ]
679
680     def __init__(self, *args, **kwargs):
681         super(YoutubeIE, self).__init__(*args, **kwargs)
682         self._player_cache = {}
683
684     def report_video_info_webpage_download(self, video_id):
685         """Report attempt to download video info webpage."""
686         self.to_screen('%s: Downloading video info webpage' % video_id)
687
688     def report_information_extraction(self, video_id):
689         """Report attempt to extract video information."""
690         self.to_screen('%s: Extracting video information' % video_id)
691
692     def report_unavailable_format(self, video_id, format):
693         """Report extracted video URL."""
694         self.to_screen('%s: Format %s not available' % (video_id, format))
695
696     def report_rtmp_download(self):
697         """Indicate the download will use the RTMP protocol."""
698         self.to_screen('RTMP download detected')
699
700     def _signature_cache_id(self, example_sig):
701         """ Return a string representation of a signature """
702         return '.'.join(compat_str(len(part)) for part in example_sig.split('.'))
703
704     def _extract_signature_function(self, video_id, player_url, example_sig):
705         id_m = re.match(
706             r'.*?-(?P<id>[a-zA-Z0-9_-]+)(?:/watch_as3|/html5player(?:-new)?)?\.(?P<ext>[a-z]+)$',
707             player_url)
708         if not id_m:
709             raise ExtractorError('Cannot identify player %r' % player_url)
710         player_type = id_m.group('ext')
711         player_id = id_m.group('id')
712
713         # Read from filesystem cache
714         func_id = '%s_%s_%s' % (
715             player_type, player_id, self._signature_cache_id(example_sig))
716         assert os.path.basename(func_id) == func_id
717
718         cache_spec = self._downloader.cache.load('youtube-sigfuncs', func_id)
719         if cache_spec is not None:
720             return lambda s: ''.join(s[i] for i in cache_spec)
721
722         download_note = (
723             'Downloading player %s' % player_url
724             if self._downloader.params.get('verbose') else
725             'Downloading %s player %s' % (player_type, player_id)
726         )
727         if player_type == 'js':
728             code = self._download_webpage(
729                 player_url, video_id,
730                 note=download_note,
731                 errnote='Download of %s failed' % player_url)
732             res = self._parse_sig_js(code)
733         elif player_type == 'swf':
734             urlh = self._request_webpage(
735                 player_url, video_id,
736                 note=download_note,
737                 errnote='Download of %s failed' % player_url)
738             code = urlh.read()
739             res = self._parse_sig_swf(code)
740         else:
741             assert False, 'Invalid player type %r' % player_type
742
743         test_string = ''.join(map(compat_chr, range(len(example_sig))))
744         cache_res = res(test_string)
745         cache_spec = [ord(c) for c in cache_res]
746
747         self._downloader.cache.store('youtube-sigfuncs', func_id, cache_spec)
748         return res
749
750     def _print_sig_code(self, func, example_sig):
751         def gen_sig_code(idxs):
752             def _genslice(start, end, step):
753                 starts = '' if start == 0 else str(start)
754                 ends = (':%d' % (end + step)) if end + step >= 0 else ':'
755                 steps = '' if step == 1 else (':%d' % step)
756                 return 's[%s%s%s]' % (starts, ends, steps)
757
758             step = None
759             # Quelch pyflakes warnings - start will be set when step is set
760             start = '(Never used)'
761             for i, prev in zip(idxs[1:], idxs[:-1]):
762                 if step is not None:
763                     if i - prev == step:
764                         continue
765                     yield _genslice(start, prev, step)
766                     step = None
767                     continue
768                 if i - prev in [-1, 1]:
769                     step = i - prev
770                     start = prev
771                     continue
772                 else:
773                     yield 's[%d]' % prev
774             if step is None:
775                 yield 's[%d]' % i
776             else:
777                 yield _genslice(start, i, step)
778
779         test_string = ''.join(map(compat_chr, range(len(example_sig))))
780         cache_res = func(test_string)
781         cache_spec = [ord(c) for c in cache_res]
782         expr_code = ' + '.join(gen_sig_code(cache_spec))
783         signature_id_tuple = '(%s)' % (
784             ', '.join(compat_str(len(p)) for p in example_sig.split('.')))
785         code = ('if tuple(len(p) for p in s.split(\'.\')) == %s:\n'
786                 '    return %s\n') % (signature_id_tuple, expr_code)
787         self.to_screen('Extracted signature function:\n' + code)
788
789     def _parse_sig_js(self, jscode):
790         funcname = self._search_regex(
791             r'\.sig\|\|([a-zA-Z0-9$]+)\(', jscode,
792             'Initial JS player signature function name')
793
794         jsi = JSInterpreter(jscode)
795         initial_function = jsi.extract_function(funcname)
796         return lambda s: initial_function([s])
797
798     def _parse_sig_swf(self, file_contents):
799         swfi = SWFInterpreter(file_contents)
800         TARGET_CLASSNAME = 'SignatureDecipher'
801         searched_class = swfi.extract_class(TARGET_CLASSNAME)
802         initial_function = swfi.extract_function(searched_class, 'decipher')
803         return lambda s: initial_function([s])
804
805     def _decrypt_signature(self, s, video_id, player_url, age_gate=False):
806         """Turn the encrypted s field into a working signature"""
807
808         if player_url is None:
809             raise ExtractorError('Cannot decrypt signature without player_url')
810
811         if player_url.startswith('//'):
812             player_url = 'https:' + player_url
813         try:
814             player_id = (player_url, self._signature_cache_id(s))
815             if player_id not in self._player_cache:
816                 func = self._extract_signature_function(
817                     video_id, player_url, s
818                 )
819                 self._player_cache[player_id] = func
820             func = self._player_cache[player_id]
821             if self._downloader.params.get('youtube_print_sig_code'):
822                 self._print_sig_code(func, s)
823             return func(s)
824         except Exception as e:
825             tb = traceback.format_exc()
826             raise ExtractorError(
827                 'Signature extraction failed: ' + tb, cause=e)
828
829     def _get_subtitles(self, video_id, webpage):
830         try:
831             subs_doc = self._download_xml(
832                 'https://video.google.com/timedtext?hl=en&type=list&v=%s' % video_id,
833                 video_id, note=False)
834         except ExtractorError as err:
835             self._downloader.report_warning('unable to download video subtitles: %s' % compat_str(err))
836             return {}
837
838         sub_lang_list = {}
839         for track in subs_doc.findall('track'):
840             lang = track.attrib['lang_code']
841             if lang in sub_lang_list:
842                 continue
843             sub_formats = []
844             for ext in ['sbv', 'vtt', 'srt']:
845                 params = compat_urllib_parse.urlencode({
846                     'lang': lang,
847                     'v': video_id,
848                     'fmt': ext,
849                     'name': track.attrib['name'].encode('utf-8'),
850                 })
851                 sub_formats.append({
852                     'url': 'https://www.youtube.com/api/timedtext?' + params,
853                     'ext': ext,
854                 })
855             sub_lang_list[lang] = sub_formats
856         if not sub_lang_list:
857             self._downloader.report_warning('video doesn\'t have subtitles')
858             return {}
859         return sub_lang_list
860
861     def _get_automatic_captions(self, video_id, webpage):
862         """We need the webpage for getting the captions url, pass it as an
863            argument to speed up the process."""
864         self.to_screen('%s: Looking for automatic captions' % video_id)
865         mobj = re.search(r';ytplayer.config = ({.*?});', webpage)
866         err_msg = 'Couldn\'t find automatic captions for %s' % video_id
867         if mobj is None:
868             self._downloader.report_warning(err_msg)
869             return {}
870         player_config = json.loads(mobj.group(1))
871         try:
872             args = player_config['args']
873             caption_url = args['ttsurl']
874             timestamp = args['timestamp']
875             # We get the available subtitles
876             list_params = compat_urllib_parse.urlencode({
877                 'type': 'list',
878                 'tlangs': 1,
879                 'asrs': 1,
880             })
881             list_url = caption_url + '&' + list_params
882             caption_list = self._download_xml(list_url, video_id)
883             original_lang_node = caption_list.find('track')
884             if original_lang_node is None:
885                 self._downloader.report_warning('Video doesn\'t have automatic captions')
886                 return {}
887             original_lang = original_lang_node.attrib['lang_code']
888             caption_kind = original_lang_node.attrib.get('kind', '')
889
890             sub_lang_list = {}
891             for lang_node in caption_list.findall('target'):
892                 sub_lang = lang_node.attrib['lang_code']
893                 sub_formats = []
894                 for ext in ['sbv', 'vtt', 'srt']:
895                     params = compat_urllib_parse.urlencode({
896                         'lang': original_lang,
897                         'tlang': sub_lang,
898                         'fmt': ext,
899                         'ts': timestamp,
900                         'kind': caption_kind,
901                     })
902                     sub_formats.append({
903                         'url': caption_url + '&' + params,
904                         'ext': ext,
905                     })
906                 sub_lang_list[sub_lang] = sub_formats
907             return sub_lang_list
908         # An extractor error can be raise by the download process if there are
909         # no automatic captions but there are subtitles
910         except (KeyError, ExtractorError):
911             self._downloader.report_warning(err_msg)
912             return {}
913
914     @classmethod
915     def extract_id(cls, url):
916         mobj = re.match(cls._VALID_URL, url, re.VERBOSE)
917         if mobj is None:
918             raise ExtractorError('Invalid URL: %s' % url)
919         video_id = mobj.group(2)
920         return video_id
921
922     def _extract_from_m3u8(self, manifest_url, video_id):
923         url_map = {}
924
925         def _get_urls(_manifest):
926             lines = _manifest.split('\n')
927             urls = filter(lambda l: l and not l.startswith('#'),
928                           lines)
929             return urls
930         manifest = self._download_webpage(manifest_url, video_id, 'Downloading formats manifest')
931         formats_urls = _get_urls(manifest)
932         for format_url in formats_urls:
933             itag = self._search_regex(r'itag/(\d+?)/', format_url, 'itag')
934             url_map[itag] = format_url
935         return url_map
936
937     def _extract_annotations(self, video_id):
938         url = 'https://www.youtube.com/annotations_invideo?features=1&legacy=1&video_id=%s' % video_id
939         return self._download_webpage(url, video_id, note='Searching for annotations.', errnote='Unable to download video annotations.')
940
941     def _parse_dash_manifest(
942             self, video_id, dash_manifest_url, player_url, age_gate, fatal=True):
943         def decrypt_sig(mobj):
944             s = mobj.group(1)
945             dec_s = self._decrypt_signature(s, video_id, player_url, age_gate)
946             return '/signature/%s' % dec_s
947         dash_manifest_url = re.sub(r'/s/([a-fA-F0-9\.]+)', decrypt_sig, dash_manifest_url)
948         dash_doc = self._download_xml(
949             dash_manifest_url, video_id,
950             note='Downloading DASH manifest',
951             errnote='Could not download DASH manifest',
952             fatal=fatal)
953
954         if dash_doc is False:
955             return []
956
957         formats = []
958         for a in dash_doc.findall('.//{urn:mpeg:DASH:schema:MPD:2011}AdaptationSet'):
959             mime_type = a.attrib.get('mimeType')
960             for r in a.findall('{urn:mpeg:DASH:schema:MPD:2011}Representation'):
961                 url_el = r.find('{urn:mpeg:DASH:schema:MPD:2011}BaseURL')
962                 if url_el is None:
963                     continue
964                 if mime_type == 'text/vtt':
965                     # TODO implement WebVTT downloading
966                     pass
967                 elif mime_type.startswith('audio/') or mime_type.startswith('video/'):
968                     segment_list = r.find('{urn:mpeg:DASH:schema:MPD:2011}SegmentList')
969                     format_id = r.attrib['id']
970                     video_url = url_el.text
971                     filesize = int_or_none(url_el.attrib.get('{http://youtube.com/yt/2012/10/10}contentLength'))
972                     f = {
973                         'format_id': format_id,
974                         'url': video_url,
975                         'width': int_or_none(r.attrib.get('width')),
976                         'height': int_or_none(r.attrib.get('height')),
977                         'tbr': int_or_none(r.attrib.get('bandwidth'), 1000),
978                         'asr': int_or_none(r.attrib.get('audioSamplingRate')),
979                         'filesize': filesize,
980                         'fps': int_or_none(r.attrib.get('frameRate')),
981                     }
982                     if segment_list is not None:
983                         f.update({
984                             'initialization_url': segment_list.find('{urn:mpeg:DASH:schema:MPD:2011}Initialization').attrib['sourceURL'],
985                             'segment_urls': [segment.attrib.get('media') for segment in segment_list.findall('{urn:mpeg:DASH:schema:MPD:2011}SegmentURL')],
986                             'protocol': 'http_dash_segments',
987                         })
988                     try:
989                         existing_format = next(
990                             fo for fo in formats
991                             if fo['format_id'] == format_id)
992                     except StopIteration:
993                         full_info = self._formats.get(format_id, {}).copy()
994                         full_info.update(f)
995                         codecs = r.attrib.get('codecs')
996                         if codecs:
997                             if full_info.get('acodec') == 'none' and 'vcodec' not in full_info:
998                                 full_info['vcodec'] = codecs
999                             elif full_info.get('vcodec') == 'none' and 'acodec' not in full_info:
1000                                 full_info['acodec'] = codecs
1001                         formats.append(full_info)
1002                     else:
1003                         existing_format.update(f)
1004                 else:
1005                     self.report_warning('Unknown MIME type %s in DASH manifest' % mime_type)
1006         return formats
1007
1008     def _real_extract(self, url):
1009         url, smuggled_data = unsmuggle_url(url, {})
1010
1011         proto = (
1012             'http' if self._downloader.params.get('prefer_insecure', False)
1013             else 'https')
1014
1015         start_time = None
1016         end_time = None
1017         parsed_url = compat_urllib_parse_urlparse(url)
1018         for component in [parsed_url.fragment, parsed_url.query]:
1019             query = compat_parse_qs(component)
1020             if start_time is None and 't' in query:
1021                 start_time = parse_duration(query['t'][0])
1022             if start_time is None and 'start' in query:
1023                 start_time = parse_duration(query['start'][0])
1024             if end_time is None and 'end' in query:
1025                 end_time = parse_duration(query['end'][0])
1026
1027         # Extract original video URL from URL with redirection, like age verification, using next_url parameter
1028         mobj = re.search(self._NEXT_URL_RE, url)
1029         if mobj:
1030             url = proto + '://www.youtube.com/' + compat_urllib_parse_unquote(mobj.group(1)).lstrip('/')
1031         video_id = self.extract_id(url)
1032
1033         # Get video webpage
1034         url = proto + '://www.youtube.com/watch?v=%s&gl=US&hl=en&has_verified=1&bpctr=9999999999' % video_id
1035         video_webpage = self._download_webpage(url, video_id)
1036
1037         # Attempt to extract SWF player URL
1038         mobj = re.search(r'swfConfig.*?"(https?:\\/\\/.*?watch.*?-.*?\.swf)"', video_webpage)
1039         if mobj is not None:
1040             player_url = re.sub(r'\\(.)', r'\1', mobj.group(1))
1041         else:
1042             player_url = None
1043
1044         dash_mpds = []
1045
1046         def add_dash_mpd(video_info):
1047             dash_mpd = video_info.get('dashmpd')
1048             if dash_mpd and dash_mpd[0] not in dash_mpds:
1049                 dash_mpds.append(dash_mpd[0])
1050
1051         # Get video info
1052         embed_webpage = None
1053         is_live = None
1054         if re.search(r'player-age-gate-content">', video_webpage) is not None:
1055             age_gate = True
1056             # We simulate the access to the video from www.youtube.com/v/{video_id}
1057             # this can be viewed without login into Youtube
1058             url = proto + '://www.youtube.com/embed/%s' % video_id
1059             embed_webpage = self._download_webpage(url, video_id, 'Downloading embed webpage')
1060             data = compat_urllib_parse.urlencode({
1061                 'video_id': video_id,
1062                 'eurl': 'https://youtube.googleapis.com/v/' + video_id,
1063                 'sts': self._search_regex(
1064                     r'"sts"\s*:\s*(\d+)', embed_webpage, 'sts', default=''),
1065             })
1066             video_info_url = proto + '://www.youtube.com/get_video_info?' + data
1067             video_info_webpage = self._download_webpage(
1068                 video_info_url, video_id,
1069                 note='Refetching age-gated info webpage',
1070                 errnote='unable to download video info webpage')
1071             video_info = compat_parse_qs(video_info_webpage)
1072             add_dash_mpd(video_info)
1073         else:
1074             age_gate = False
1075             video_info = None
1076             # Try looking directly into the video webpage
1077             mobj = re.search(r';ytplayer\.config\s*=\s*({.*?});', video_webpage)
1078             if mobj:
1079                 json_code = uppercase_escape(mobj.group(1))
1080                 ytplayer_config = json.loads(json_code)
1081                 args = ytplayer_config['args']
1082                 if args.get('url_encoded_fmt_stream_map'):
1083                     # Convert to the same format returned by compat_parse_qs
1084                     video_info = dict((k, [v]) for k, v in args.items())
1085                     add_dash_mpd(video_info)
1086                 if args.get('livestream') == '1' or args.get('live_playback') == 1:
1087                     is_live = True
1088             if not video_info or self._downloader.params.get('youtube_include_dash_manifest', True):
1089                 # We also try looking in get_video_info since it may contain different dashmpd
1090                 # URL that points to a DASH manifest with possibly different itag set (some itags
1091                 # are missing from DASH manifest pointed by webpage's dashmpd, some - from DASH
1092                 # manifest pointed by get_video_info's dashmpd).
1093                 # The general idea is to take a union of itags of both DASH manifests (for example
1094                 # video with such 'manifest behavior' see https://github.com/rg3/youtube-dl/issues/6093)
1095                 self.report_video_info_webpage_download(video_id)
1096                 for el_type in ['&el=info', '&el=embedded', '&el=detailpage', '&el=vevo', '']:
1097                     video_info_url = (
1098                         '%s://www.youtube.com/get_video_info?&video_id=%s%s&ps=default&eurl=&gl=US&hl=en'
1099                         % (proto, video_id, el_type))
1100                     video_info_webpage = self._download_webpage(
1101                         video_info_url,
1102                         video_id, note=False,
1103                         errnote='unable to download video info webpage')
1104                     get_video_info = compat_parse_qs(video_info_webpage)
1105                     if get_video_info.get('use_cipher_signature') != ['True']:
1106                         add_dash_mpd(get_video_info)
1107                     if not video_info:
1108                         video_info = get_video_info
1109                     if 'token' in get_video_info:
1110                         if 'token' not in video_info:
1111                             video_info = get_video_info
1112                         break
1113         if 'token' not in video_info:
1114             if 'reason' in video_info:
1115                 if 'The uploader has not made this video available in your country.' in video_info['reason']:
1116                     regions_allowed = self._html_search_meta('regionsAllowed', video_webpage, default=None)
1117                     if regions_allowed:
1118                         raise ExtractorError('YouTube said: This video is available in %s only' % (
1119                             ', '.join(map(ISO3166Utils.short2full, regions_allowed.split(',')))),
1120                             expected=True)
1121                 raise ExtractorError(
1122                     'YouTube said: %s' % video_info['reason'][0],
1123                     expected=True, video_id=video_id)
1124             else:
1125                 raise ExtractorError(
1126                     '"token" parameter not in video info for unknown reason',
1127                     video_id=video_id)
1128
1129         # title
1130         if 'title' in video_info:
1131             video_title = video_info['title'][0]
1132         else:
1133             self._downloader.report_warning('Unable to extract video title')
1134             video_title = '_'
1135
1136         # description
1137         video_description = get_element_by_id("eow-description", video_webpage)
1138         if video_description:
1139             video_description = re.sub(r'''(?x)
1140                 <a\s+
1141                     (?:[a-zA-Z-]+="[^"]+"\s+)*?
1142                     title="([^"]+)"\s+
1143                     (?:[a-zA-Z-]+="[^"]+"\s+)*?
1144                     class="yt-uix-redirect-link"\s*>
1145                 [^<]+
1146                 </a>
1147             ''', r'\1', video_description)
1148             video_description = clean_html(video_description)
1149         else:
1150             fd_mobj = re.search(r'<meta name="description" content="([^"]+)"', video_webpage)
1151             if fd_mobj:
1152                 video_description = unescapeHTML(fd_mobj.group(1))
1153             else:
1154                 video_description = ''
1155
1156         if 'multifeed_metadata_list' in video_info and not smuggled_data.get('force_singlefeed', False):
1157             if not self._downloader.params.get('noplaylist'):
1158                 entries = []
1159                 feed_ids = []
1160                 multifeed_metadata_list = compat_urllib_parse_unquote_plus(video_info['multifeed_metadata_list'][0])
1161                 for feed in multifeed_metadata_list.split(','):
1162                     feed_data = compat_parse_qs(feed)
1163                     entries.append({
1164                         '_type': 'url_transparent',
1165                         'ie_key': 'Youtube',
1166                         'url': smuggle_url(
1167                             '%s://www.youtube.com/watch?v=%s' % (proto, feed_data['id'][0]),
1168                             {'force_singlefeed': True}),
1169                         'title': '%s (%s)' % (video_title, feed_data['title'][0]),
1170                     })
1171                     feed_ids.append(feed_data['id'][0])
1172                 self.to_screen(
1173                     'Downloading multifeed video (%s) - add --no-playlist to just download video %s'
1174                     % (', '.join(feed_ids), video_id))
1175                 return self.playlist_result(entries, video_id, video_title, video_description)
1176             self.to_screen('Downloading just video %s because of --no-playlist' % video_id)
1177
1178         if 'view_count' in video_info:
1179             view_count = int(video_info['view_count'][0])
1180         else:
1181             view_count = None
1182
1183         # Check for "rental" videos
1184         if 'ypc_video_rental_bar_text' in video_info and 'author' not in video_info:
1185             raise ExtractorError('"rental" videos not supported')
1186
1187         # Start extracting information
1188         self.report_information_extraction(video_id)
1189
1190         # uploader
1191         if 'author' not in video_info:
1192             raise ExtractorError('Unable to extract uploader name')
1193         video_uploader = compat_urllib_parse_unquote_plus(video_info['author'][0])
1194
1195         # uploader_id
1196         video_uploader_id = None
1197         mobj = re.search(r'<link itemprop="url" href="http://www.youtube.com/(?:user|channel)/([^"]+)">', video_webpage)
1198         if mobj is not None:
1199             video_uploader_id = mobj.group(1)
1200         else:
1201             self._downloader.report_warning('unable to extract uploader nickname')
1202
1203         # thumbnail image
1204         # We try first to get a high quality image:
1205         m_thumb = re.search(r'<span itemprop="thumbnail".*?href="(.*?)">',
1206                             video_webpage, re.DOTALL)
1207         if m_thumb is not None:
1208             video_thumbnail = m_thumb.group(1)
1209         elif 'thumbnail_url' not in video_info:
1210             self._downloader.report_warning('unable to extract video thumbnail')
1211             video_thumbnail = None
1212         else:   # don't panic if we can't find it
1213             video_thumbnail = compat_urllib_parse_unquote_plus(video_info['thumbnail_url'][0])
1214
1215         # upload date
1216         upload_date = self._html_search_meta(
1217             'datePublished', video_webpage, 'upload date', default=None)
1218         if not upload_date:
1219             upload_date = self._search_regex(
1220                 [r'(?s)id="eow-date.*?>(.*?)</span>',
1221                  r'id="watch-uploader-info".*?>.*?(?:Published|Uploaded|Streamed live|Started) on (.+?)</strong>'],
1222                 video_webpage, 'upload date', default=None)
1223             if upload_date:
1224                 upload_date = ' '.join(re.sub(r'[/,-]', r' ', mobj.group(1)).split())
1225         upload_date = unified_strdate(upload_date)
1226
1227         m_cat_container = self._search_regex(
1228             r'(?s)<h4[^>]*>\s*Category\s*</h4>\s*<ul[^>]*>(.*?)</ul>',
1229             video_webpage, 'categories', default=None)
1230         if m_cat_container:
1231             category = self._html_search_regex(
1232                 r'(?s)<a[^<]+>(.*?)</a>', m_cat_container, 'category',
1233                 default=None)
1234             video_categories = None if category is None else [category]
1235         else:
1236             video_categories = None
1237
1238         video_tags = [
1239             unescapeHTML(m.group('content'))
1240             for m in re.finditer(self._meta_regex('og:video:tag'), video_webpage)]
1241
1242         def _extract_count(count_name):
1243             return str_to_int(self._search_regex(
1244                 r'-%s-button[^>]+><span[^>]+class="yt-uix-button-content"[^>]*>([\d,]+)</span>'
1245                 % re.escape(count_name),
1246                 video_webpage, count_name, default=None))
1247
1248         like_count = _extract_count('like')
1249         dislike_count = _extract_count('dislike')
1250
1251         # subtitles
1252         video_subtitles = self.extract_subtitles(video_id, video_webpage)
1253         automatic_captions = self.extract_automatic_captions(video_id, video_webpage)
1254
1255         if 'length_seconds' not in video_info:
1256             self._downloader.report_warning('unable to extract video duration')
1257             video_duration = None
1258         else:
1259             video_duration = int(compat_urllib_parse_unquote_plus(video_info['length_seconds'][0]))
1260
1261         # annotations
1262         video_annotations = None
1263         if self._downloader.params.get('writeannotations', False):
1264             video_annotations = self._extract_annotations(video_id)
1265
1266         def _map_to_format_list(urlmap):
1267             formats = []
1268             for itag, video_real_url in urlmap.items():
1269                 dct = {
1270                     'format_id': itag,
1271                     'url': video_real_url,
1272                     'player_url': player_url,
1273                 }
1274                 if itag in self._formats:
1275                     dct.update(self._formats[itag])
1276                 formats.append(dct)
1277             return formats
1278
1279         if 'conn' in video_info and video_info['conn'][0].startswith('rtmp'):
1280             self.report_rtmp_download()
1281             formats = [{
1282                 'format_id': '_rtmp',
1283                 'protocol': 'rtmp',
1284                 'url': video_info['conn'][0],
1285                 'player_url': player_url,
1286             }]
1287         elif len(video_info.get('url_encoded_fmt_stream_map', [''])[0]) >= 1 or len(video_info.get('adaptive_fmts', [''])[0]) >= 1:
1288             encoded_url_map = video_info.get('url_encoded_fmt_stream_map', [''])[0] + ',' + video_info.get('adaptive_fmts', [''])[0]
1289             if 'rtmpe%3Dyes' in encoded_url_map:
1290                 raise ExtractorError('rtmpe downloads are not supported, see https://github.com/rg3/youtube-dl/issues/343 for more information.', expected=True)
1291             formats = []
1292             for url_data_str in encoded_url_map.split(','):
1293                 url_data = compat_parse_qs(url_data_str)
1294                 if 'itag' not in url_data or 'url' not in url_data:
1295                     continue
1296                 format_id = url_data['itag'][0]
1297                 url = url_data['url'][0]
1298
1299                 if 'sig' in url_data:
1300                     url += '&signature=' + url_data['sig'][0]
1301                 elif 's' in url_data:
1302                     encrypted_sig = url_data['s'][0]
1303                     ASSETS_RE = r'"assets":.+?"js":\s*("[^"]+")'
1304
1305                     jsplayer_url_json = self._search_regex(
1306                         ASSETS_RE,
1307                         embed_webpage if age_gate else video_webpage,
1308                         'JS player URL (1)', default=None)
1309                     if not jsplayer_url_json and not age_gate:
1310                         # We need the embed website after all
1311                         if embed_webpage is None:
1312                             embed_url = proto + '://www.youtube.com/embed/%s' % video_id
1313                             embed_webpage = self._download_webpage(
1314                                 embed_url, video_id, 'Downloading embed webpage')
1315                         jsplayer_url_json = self._search_regex(
1316                             ASSETS_RE, embed_webpage, 'JS player URL')
1317
1318                     player_url = json.loads(jsplayer_url_json)
1319                     if player_url is None:
1320                         player_url_json = self._search_regex(
1321                             r'ytplayer\.config.*?"url"\s*:\s*("[^"]+")',
1322                             video_webpage, 'age gate player URL')
1323                         player_url = json.loads(player_url_json)
1324
1325                     if self._downloader.params.get('verbose'):
1326                         if player_url is None:
1327                             player_version = 'unknown'
1328                             player_desc = 'unknown'
1329                         else:
1330                             if player_url.endswith('swf'):
1331                                 player_version = self._search_regex(
1332                                     r'-(.+?)(?:/watch_as3)?\.swf$', player_url,
1333                                     'flash player', fatal=False)
1334                                 player_desc = 'flash player %s' % player_version
1335                             else:
1336                                 player_version = self._search_regex(
1337                                     r'html5player-([^/]+?)(?:/html5player(?:-new)?)?\.js',
1338                                     player_url,
1339                                     'html5 player', fatal=False)
1340                                 player_desc = 'html5 player %s' % player_version
1341
1342                         parts_sizes = self._signature_cache_id(encrypted_sig)
1343                         self.to_screen('{%s} signature length %s, %s' %
1344                                        (format_id, parts_sizes, player_desc))
1345
1346                     signature = self._decrypt_signature(
1347                         encrypted_sig, video_id, player_url, age_gate)
1348                     url += '&signature=' + signature
1349                 if 'ratebypass' not in url:
1350                     url += '&ratebypass=yes'
1351
1352                 # Some itags are not included in DASH manifest thus corresponding formats will
1353                 # lack metadata (see https://github.com/rg3/youtube-dl/pull/5993).
1354                 # Trying to extract metadata from url_encoded_fmt_stream_map entry.
1355                 mobj = re.search(r'^(?P<width>\d+)[xX](?P<height>\d+)$', url_data.get('size', [''])[0])
1356                 width, height = (int(mobj.group('width')), int(mobj.group('height'))) if mobj else (None, None)
1357                 dct = {
1358                     'format_id': format_id,
1359                     'url': url,
1360                     'player_url': player_url,
1361                     'filesize': int_or_none(url_data.get('clen', [None])[0]),
1362                     'tbr': float_or_none(url_data.get('bitrate', [None])[0], 1000),
1363                     'width': width,
1364                     'height': height,
1365                     'fps': int_or_none(url_data.get('fps', [None])[0]),
1366                     'format_note': url_data.get('quality_label', [None])[0] or url_data.get('quality', [None])[0],
1367                 }
1368                 type_ = url_data.get('type', [None])[0]
1369                 if type_:
1370                     type_split = type_.split(';')
1371                     kind_ext = type_split[0].split('/')
1372                     if len(kind_ext) == 2:
1373                         kind, ext = kind_ext
1374                         dct['ext'] = ext
1375                         if kind in ('audio', 'video'):
1376                             codecs = None
1377                             for mobj in re.finditer(
1378                                     r'(?P<key>[a-zA-Z_-]+)=(?P<quote>["\']?)(?P<val>.+?)(?P=quote)(?:;|$)', type_):
1379                                 if mobj.group('key') == 'codecs':
1380                                     codecs = mobj.group('val')
1381                                     break
1382                             if codecs:
1383                                 codecs = codecs.split(',')
1384                                 if len(codecs) == 2:
1385                                     acodec, vcodec = codecs[0], codecs[1]
1386                                 else:
1387                                     acodec, vcodec = (codecs[0], 'none') if kind == 'audio' else ('none', codecs[0])
1388                                 dct.update({
1389                                     'acodec': acodec,
1390                                     'vcodec': vcodec,
1391                                 })
1392                 if format_id in self._formats:
1393                     dct.update(self._formats[format_id])
1394                 formats.append(dct)
1395         elif video_info.get('hlsvp'):
1396             manifest_url = video_info['hlsvp'][0]
1397             url_map = self._extract_from_m3u8(manifest_url, video_id)
1398             formats = _map_to_format_list(url_map)
1399         else:
1400             raise ExtractorError('no conn, hlsvp or url_encoded_fmt_stream_map information found in video info')
1401
1402         # Look for the DASH manifest
1403         if self._downloader.params.get('youtube_include_dash_manifest', True):
1404             dash_mpd_fatal = True
1405             for dash_manifest_url in dash_mpds:
1406                 dash_formats = {}
1407                 try:
1408                     for df in self._parse_dash_manifest(
1409                             video_id, dash_manifest_url, player_url, age_gate, dash_mpd_fatal):
1410                         # Do not overwrite DASH format found in some previous DASH manifest
1411                         if df['format_id'] not in dash_formats:
1412                             dash_formats[df['format_id']] = df
1413                         # Additional DASH manifests may end up in HTTP Error 403 therefore
1414                         # allow them to fail without bug report message if we already have
1415                         # some DASH manifest succeeded. This is temporary workaround to reduce
1416                         # burst of bug reports until we figure out the reason and whether it
1417                         # can be fixed at all.
1418                         dash_mpd_fatal = False
1419                 except (ExtractorError, KeyError) as e:
1420                     self.report_warning(
1421                         'Skipping DASH manifest: %r' % e, video_id)
1422                 if dash_formats:
1423                     # Remove the formats we found through non-DASH, they
1424                     # contain less info and it can be wrong, because we use
1425                     # fixed values (for example the resolution). See
1426                     # https://github.com/rg3/youtube-dl/issues/5774 for an
1427                     # example.
1428                     formats = [f for f in formats if f['format_id'] not in dash_formats.keys()]
1429                     formats.extend(dash_formats.values())
1430
1431         # Check for malformed aspect ratio
1432         stretched_m = re.search(
1433             r'<meta\s+property="og:video:tag".*?content="yt:stretch=(?P<w>[0-9]+):(?P<h>[0-9]+)">',
1434             video_webpage)
1435         if stretched_m:
1436             ratio = float(stretched_m.group('w')) / float(stretched_m.group('h'))
1437             for f in formats:
1438                 if f.get('vcodec') != 'none':
1439                     f['stretched_ratio'] = ratio
1440
1441         self._sort_formats(formats)
1442
1443         return {
1444             'id': video_id,
1445             'uploader': video_uploader,
1446             'uploader_id': video_uploader_id,
1447             'upload_date': upload_date,
1448             'title': video_title,
1449             'thumbnail': video_thumbnail,
1450             'description': video_description,
1451             'categories': video_categories,
1452             'tags': video_tags,
1453             'subtitles': video_subtitles,
1454             'automatic_captions': automatic_captions,
1455             'duration': video_duration,
1456             'age_limit': 18 if age_gate else 0,
1457             'annotations': video_annotations,
1458             'webpage_url': proto + '://www.youtube.com/watch?v=%s' % video_id,
1459             'view_count': view_count,
1460             'like_count': like_count,
1461             'dislike_count': dislike_count,
1462             'average_rating': float_or_none(video_info.get('avg_rating', [None])[0]),
1463             'formats': formats,
1464             'is_live': is_live,
1465             'start_time': start_time,
1466             'end_time': end_time,
1467         }
1468
1469
1470 class YoutubePlaylistIE(YoutubeBaseInfoExtractor, YoutubePlaylistBaseInfoExtractor):
1471     IE_DESC = 'YouTube.com playlists'
1472     _VALID_URL = r"""(?x)(?:
1473                         (?:https?://)?
1474                         (?:\w+\.)?
1475                         youtube\.com/
1476                         (?:
1477                            (?:course|view_play_list|my_playlists|artist|playlist|watch|embed/videoseries)
1478                            \? (?:.*?&)*? (?:p|a|list)=
1479                         |  p/
1480                         )
1481                         (
1482                             (?:PL|LL|EC|UU|FL|RD|UL)?[0-9A-Za-z-_]{10,}
1483                             # Top tracks, they can also include dots
1484                             |(?:MC)[\w\.]*
1485                         )
1486                         .*
1487                      |
1488                         ((?:PL|LL|EC|UU|FL|RD|UL)[0-9A-Za-z-_]{10,})
1489                      )"""
1490     _TEMPLATE_URL = 'https://www.youtube.com/playlist?list=%s'
1491     _VIDEO_RE = r'href="\s*/watch\?v=(?P<id>[0-9A-Za-z_-]{11})&amp;[^"]*?index=(?P<index>\d+)(?:[^>]+>(?P<title>[^<]+))?'
1492     IE_NAME = 'youtube:playlist'
1493     _TESTS = [{
1494         'url': 'https://www.youtube.com/playlist?list=PLwiyx1dc3P2JR9N8gQaQN_BCvlSlap7re',
1495         'info_dict': {
1496             'title': 'ytdl test PL',
1497             'id': 'PLwiyx1dc3P2JR9N8gQaQN_BCvlSlap7re',
1498         },
1499         'playlist_count': 3,
1500     }, {
1501         'url': 'https://www.youtube.com/playlist?list=PLtPgu7CB4gbZDA7i_euNxn75ISqxwZPYx',
1502         'info_dict': {
1503             'id': 'PLtPgu7CB4gbZDA7i_euNxn75ISqxwZPYx',
1504             'title': 'YDL_Empty_List',
1505         },
1506         'playlist_count': 0,
1507     }, {
1508         'note': 'Playlist with deleted videos (#651). As a bonus, the video #51 is also twice in this list.',
1509         'url': 'https://www.youtube.com/playlist?list=PLwP_SiAcdui0KVebT0mU9Apz359a4ubsC',
1510         'info_dict': {
1511             'title': '29C3: Not my department',
1512             'id': 'PLwP_SiAcdui0KVebT0mU9Apz359a4ubsC',
1513         },
1514         'playlist_count': 95,
1515     }, {
1516         'note': 'issue #673',
1517         'url': 'PLBB231211A4F62143',
1518         'info_dict': {
1519             'title': '[OLD]Team Fortress 2 (Class-based LP)',
1520             'id': 'PLBB231211A4F62143',
1521         },
1522         'playlist_mincount': 26,
1523     }, {
1524         'note': 'Large playlist',
1525         'url': 'https://www.youtube.com/playlist?list=UUBABnxM4Ar9ten8Mdjj1j0Q',
1526         'info_dict': {
1527             'title': 'Uploads from Cauchemar',
1528             'id': 'UUBABnxM4Ar9ten8Mdjj1j0Q',
1529         },
1530         'playlist_mincount': 799,
1531     }, {
1532         'url': 'PLtPgu7CB4gbY9oDN3drwC3cMbJggS7dKl',
1533         'info_dict': {
1534             'title': 'YDL_safe_search',
1535             'id': 'PLtPgu7CB4gbY9oDN3drwC3cMbJggS7dKl',
1536         },
1537         'playlist_count': 2,
1538     }, {
1539         'note': 'embedded',
1540         'url': 'http://www.youtube.com/embed/videoseries?list=PL6IaIsEjSbf96XFRuNccS_RuEXwNdsoEu',
1541         'playlist_count': 4,
1542         'info_dict': {
1543             'title': 'JODA15',
1544             'id': 'PL6IaIsEjSbf96XFRuNccS_RuEXwNdsoEu',
1545         }
1546     }, {
1547         'note': 'Embedded SWF player',
1548         'url': 'http://www.youtube.com/p/YN5VISEtHet5D4NEvfTd0zcgFk84NqFZ?hl=en_US&fs=1&rel=0',
1549         'playlist_count': 4,
1550         'info_dict': {
1551             'title': 'JODA7',
1552             'id': 'YN5VISEtHet5D4NEvfTd0zcgFk84NqFZ',
1553         }
1554     }, {
1555         'note': 'Buggy playlist: the webpage has a "Load more" button but it doesn\'t have more videos',
1556         'url': 'https://www.youtube.com/playlist?list=UUXw-G3eDE9trcvY2sBMM_aA',
1557         'info_dict': {
1558             'title': 'Uploads from Interstellar Movie',
1559             'id': 'UUXw-G3eDE9trcvY2sBMM_aA',
1560         },
1561         'playlist_mincout': 21,
1562     }]
1563
1564     def _real_initialize(self):
1565         self._login()
1566
1567     def _extract_mix(self, playlist_id):
1568         # The mixes are generated from a single video
1569         # the id of the playlist is just 'RD' + video_id
1570         url = 'https://youtube.com/watch?v=%s&list=%s' % (playlist_id[-11:], playlist_id)
1571         webpage = self._download_webpage(
1572             url, playlist_id, 'Downloading Youtube mix')
1573         search_title = lambda class_name: get_element_by_attribute('class', class_name, webpage)
1574         title_span = (
1575             search_title('playlist-title') or
1576             search_title('title long-title') or
1577             search_title('title'))
1578         title = clean_html(title_span)
1579         ids = orderedSet(re.findall(
1580             r'''(?xs)data-video-username=".*?".*?
1581                        href="/watch\?v=([0-9A-Za-z_-]{11})&amp;[^"]*?list=%s''' % re.escape(playlist_id),
1582             webpage))
1583         url_results = self._ids_to_results(ids)
1584
1585         return self.playlist_result(url_results, playlist_id, title)
1586
1587     def _extract_playlist(self, playlist_id):
1588         url = self._TEMPLATE_URL % playlist_id
1589         page = self._download_webpage(url, playlist_id)
1590
1591         for match in re.findall(r'<div class="yt-alert-message">([^<]+)</div>', page):
1592             match = match.strip()
1593             # Check if the playlist exists or is private
1594             if re.match(r'[^<]*(The|This) playlist (does not exist|is private)[^<]*', match):
1595                 raise ExtractorError(
1596                     'The playlist doesn\'t exist or is private, use --username or '
1597                     '--netrc to access it.',
1598                     expected=True)
1599             elif re.match(r'[^<]*Invalid parameters[^<]*', match):
1600                 raise ExtractorError(
1601                     'Invalid parameters. Maybe URL is incorrect.',
1602                     expected=True)
1603             elif re.match(r'[^<]*Choose your language[^<]*', match):
1604                 continue
1605             else:
1606                 self.report_warning('Youtube gives an alert message: ' + match)
1607
1608         playlist_title = self._html_search_regex(
1609             r'(?s)<h1 class="pl-header-title[^"]*">\s*(.*?)\s*</h1>',
1610             page, 'title')
1611
1612         return self.playlist_result(self._entries(page, playlist_id), playlist_id, playlist_title)
1613
1614     def _real_extract(self, url):
1615         # Extract playlist id
1616         mobj = re.match(self._VALID_URL, url)
1617         if mobj is None:
1618             raise ExtractorError('Invalid URL: %s' % url)
1619         playlist_id = mobj.group(1) or mobj.group(2)
1620
1621         # Check if it's a video-specific URL
1622         query_dict = compat_urlparse.parse_qs(compat_urlparse.urlparse(url).query)
1623         if 'v' in query_dict:
1624             video_id = query_dict['v'][0]
1625             if self._downloader.params.get('noplaylist'):
1626                 self.to_screen('Downloading just video %s because of --no-playlist' % video_id)
1627                 return self.url_result(video_id, 'Youtube', video_id=video_id)
1628             else:
1629                 self.to_screen('Downloading playlist %s - add --no-playlist to just download video %s' % (playlist_id, video_id))
1630
1631         if playlist_id.startswith('RD') or playlist_id.startswith('UL'):
1632             # Mixes require a custom extraction process
1633             return self._extract_mix(playlist_id)
1634
1635         return self._extract_playlist(playlist_id)
1636
1637
1638 class YoutubeChannelIE(YoutubePlaylistBaseInfoExtractor):
1639     IE_DESC = 'YouTube.com channels'
1640     _VALID_URL = r'https?://(?:youtu\.be|(?:\w+\.)?youtube(?:-nocookie)?\.com)/channel/(?P<id>[0-9A-Za-z_-]+)'
1641     _TEMPLATE_URL = 'https://www.youtube.com/channel/%s/videos'
1642     _VIDEO_RE = r'(?:title="(?P<title>[^"]+)"[^>]+)?href="/watch\?v=(?P<id>[0-9A-Za-z_-]+)&?'
1643     IE_NAME = 'youtube:channel'
1644     _TESTS = [{
1645         'note': 'paginated channel',
1646         'url': 'https://www.youtube.com/channel/UCKfVa3S1e4PHvxWcwyMMg8w',
1647         'playlist_mincount': 91,
1648         'info_dict': {
1649             'id': 'UUKfVa3S1e4PHvxWcwyMMg8w',
1650             'title': 'Uploads from lex will',
1651         }
1652     }, {
1653         'note': 'Age restricted channel',
1654         # from https://www.youtube.com/user/DeusExOfficial
1655         'url': 'https://www.youtube.com/channel/UCs0ifCMCm1icqRbqhUINa0w',
1656         'playlist_mincount': 64,
1657         'info_dict': {
1658             'id': 'UUs0ifCMCm1icqRbqhUINa0w',
1659             'title': 'Uploads from Deus Ex',
1660         },
1661     }]
1662
1663     def _real_extract(self, url):
1664         channel_id = self._match_id(url)
1665
1666         url = self._TEMPLATE_URL % channel_id
1667
1668         # Channel by page listing is restricted to 35 pages of 30 items, i.e. 1050 videos total (see #5778)
1669         # Workaround by extracting as a playlist if managed to obtain channel playlist URL
1670         # otherwise fallback on channel by page extraction
1671         channel_page = self._download_webpage(
1672             url + '?view=57', channel_id,
1673             'Downloading channel page', fatal=False)
1674         if channel_page is False:
1675             channel_playlist_id = False
1676         else:
1677             channel_playlist_id = self._html_search_meta(
1678                 'channelId', channel_page, 'channel id', default=None)
1679             if not channel_playlist_id:
1680                 channel_playlist_id = self._search_regex(
1681                     r'data-(?:channel-external-|yt)id="([^"]+)"',
1682                     channel_page, 'channel id', default=None)
1683         if channel_playlist_id and channel_playlist_id.startswith('UC'):
1684             playlist_id = 'UU' + channel_playlist_id[2:]
1685             return self.url_result(
1686                 compat_urlparse.urljoin(url, '/playlist?list=%s' % playlist_id), 'YoutubePlaylist')
1687
1688         channel_page = self._download_webpage(url, channel_id, 'Downloading page #1')
1689         autogenerated = re.search(r'''(?x)
1690                 class="[^"]*?(?:
1691                     channel-header-autogenerated-label|
1692                     yt-channel-title-autogenerated
1693                 )[^"]*"''', channel_page) is not None
1694
1695         if autogenerated:
1696             # The videos are contained in a single page
1697             # the ajax pages can't be used, they are empty
1698             entries = [
1699                 self.url_result(
1700                     video_id, 'Youtube', video_id=video_id,
1701                     video_title=video_title)
1702                 for video_id, video_title in self.extract_videos_from_page(channel_page)]
1703             return self.playlist_result(entries, channel_id)
1704
1705         return self.playlist_result(self._entries(channel_page, channel_id), channel_id)
1706
1707
1708 class YoutubeUserIE(YoutubeChannelIE):
1709     IE_DESC = 'YouTube.com user videos (URL or "ytuser" keyword)'
1710     _VALID_URL = r'(?:(?:(?:https?://)?(?:\w+\.)?youtube\.com/(?:user/)?(?!(?:attribution_link|watch|results)(?:$|[^a-z_A-Z0-9-])))|ytuser:)(?!feed/)(?P<id>[A-Za-z0-9_-]+)'
1711     _TEMPLATE_URL = 'https://www.youtube.com/user/%s/videos'
1712     IE_NAME = 'youtube:user'
1713
1714     _TESTS = [{
1715         'url': 'https://www.youtube.com/user/TheLinuxFoundation',
1716         'playlist_mincount': 320,
1717         'info_dict': {
1718             'title': 'TheLinuxFoundation',
1719         }
1720     }, {
1721         'url': 'ytuser:phihag',
1722         'only_matching': True,
1723     }]
1724
1725     @classmethod
1726     def suitable(cls, url):
1727         # Don't return True if the url can be extracted with other youtube
1728         # extractor, the regex would is too permissive and it would match.
1729         other_ies = iter(klass for (name, klass) in globals().items() if name.endswith('IE') and klass is not cls)
1730         if any(ie.suitable(url) for ie in other_ies):
1731             return False
1732         else:
1733             return super(YoutubeUserIE, cls).suitable(url)
1734
1735
1736 class YoutubeSearchIE(SearchInfoExtractor, YoutubePlaylistIE):
1737     IE_DESC = 'YouTube.com searches'
1738     # there doesn't appear to be a real limit, for example if you search for
1739     # 'python' you get more than 8.000.000 results
1740     _MAX_RESULTS = float('inf')
1741     IE_NAME = 'youtube:search'
1742     _SEARCH_KEY = 'ytsearch'
1743     _EXTRA_QUERY_ARGS = {}
1744     _TESTS = []
1745
1746     def _get_n_results(self, query, n):
1747         """Get a specified number of results for a query"""
1748
1749         videos = []
1750         limit = n
1751
1752         for pagenum in itertools.count(1):
1753             url_query = {
1754                 'search_query': query.encode('utf-8'),
1755                 'page': pagenum,
1756                 'spf': 'navigate',
1757             }
1758             url_query.update(self._EXTRA_QUERY_ARGS)
1759             result_url = 'https://www.youtube.com/results?' + compat_urllib_parse.urlencode(url_query)
1760             data = self._download_json(
1761                 result_url, video_id='query "%s"' % query,
1762                 note='Downloading page %s' % pagenum,
1763                 errnote='Unable to download API page')
1764             html_content = data[1]['body']['content']
1765
1766             if 'class="search-message' in html_content:
1767                 raise ExtractorError(
1768                     '[youtube] No video results', expected=True)
1769
1770             new_videos = self._ids_to_results(orderedSet(re.findall(
1771                 r'href="/watch\?v=(.{11})', html_content)))
1772             videos += new_videos
1773             if not new_videos or len(videos) > limit:
1774                 break
1775
1776         if len(videos) > n:
1777             videos = videos[:n]
1778         return self.playlist_result(videos, query)
1779
1780
1781 class YoutubeSearchDateIE(YoutubeSearchIE):
1782     IE_NAME = YoutubeSearchIE.IE_NAME + ':date'
1783     _SEARCH_KEY = 'ytsearchdate'
1784     IE_DESC = 'YouTube.com searches, newest videos first'
1785     _EXTRA_QUERY_ARGS = {'search_sort': 'video_date_uploaded'}
1786
1787
1788 class YoutubeSearchURLIE(InfoExtractor):
1789     IE_DESC = 'YouTube.com search URLs'
1790     IE_NAME = 'youtube:search_url'
1791     _VALID_URL = r'https?://(?:www\.)?youtube\.com/results\?(.*?&)?search_query=(?P<query>[^&]+)(?:[&]|$)'
1792     _TESTS = [{
1793         'url': 'https://www.youtube.com/results?baz=bar&search_query=youtube-dl+test+video&filters=video&lclk=video',
1794         'playlist_mincount': 5,
1795         'info_dict': {
1796             'title': 'youtube-dl test video',
1797         }
1798     }]
1799
1800     def _real_extract(self, url):
1801         mobj = re.match(self._VALID_URL, url)
1802         query = compat_urllib_parse_unquote_plus(mobj.group('query'))
1803
1804         webpage = self._download_webpage(url, query)
1805         result_code = self._search_regex(
1806             r'(?s)<ol[^>]+class="item-section"(.*?)</ol>', webpage, 'result HTML')
1807
1808         part_codes = re.findall(
1809             r'(?s)<h3[^>]+class="[^"]*yt-lockup-title[^"]*"[^>]*>(.*?)</h3>', result_code)
1810         entries = []
1811         for part_code in part_codes:
1812             part_title = self._html_search_regex(
1813                 [r'(?s)title="([^"]+)"', r'>([^<]+)</a>'], part_code, 'item title', fatal=False)
1814             part_url_snippet = self._html_search_regex(
1815                 r'(?s)href="([^"]+)"', part_code, 'item URL')
1816             part_url = compat_urlparse.urljoin(
1817                 'https://www.youtube.com/', part_url_snippet)
1818             entries.append({
1819                 '_type': 'url',
1820                 'url': part_url,
1821                 'title': part_title,
1822             })
1823
1824         return {
1825             '_type': 'playlist',
1826             'entries': entries,
1827             'title': query,
1828         }
1829
1830
1831 class YoutubeShowIE(InfoExtractor):
1832     IE_DESC = 'YouTube.com (multi-season) shows'
1833     _VALID_URL = r'https?://www\.youtube\.com/show/(?P<id>[^?#]*)'
1834     IE_NAME = 'youtube:show'
1835     _TESTS = [{
1836         'url': 'https://www.youtube.com/show/airdisasters',
1837         'playlist_mincount': 5,
1838         'info_dict': {
1839             'id': 'airdisasters',
1840             'title': 'Air Disasters',
1841         }
1842     }]
1843
1844     def _real_extract(self, url):
1845         mobj = re.match(self._VALID_URL, url)
1846         playlist_id = mobj.group('id')
1847         webpage = self._download_webpage(
1848             'https://www.youtube.com/show/%s/playlists' % playlist_id, playlist_id, 'Downloading show webpage')
1849         # There's one playlist for each season of the show
1850         m_seasons = list(re.finditer(r'href="(/playlist\?list=.*?)"', webpage))
1851         self.to_screen('%s: Found %s seasons' % (playlist_id, len(m_seasons)))
1852         entries = [
1853             self.url_result(
1854                 'https://www.youtube.com' + season.group(1), 'YoutubePlaylist')
1855             for season in m_seasons
1856         ]
1857         title = self._og_search_title(webpage, fatal=False)
1858
1859         return {
1860             '_type': 'playlist',
1861             'id': playlist_id,
1862             'title': title,
1863             'entries': entries,
1864         }
1865
1866
1867 class YoutubeFeedsInfoExtractor(YoutubeBaseInfoExtractor):
1868     """
1869     Base class for feed extractors
1870     Subclasses must define the _FEED_NAME and _PLAYLIST_TITLE properties.
1871     """
1872     _LOGIN_REQUIRED = True
1873
1874     @property
1875     def IE_NAME(self):
1876         return 'youtube:%s' % self._FEED_NAME
1877
1878     def _real_initialize(self):
1879         self._login()
1880
1881     def _real_extract(self, url):
1882         page = self._download_webpage(
1883             'https://www.youtube.com/feed/%s' % self._FEED_NAME, self._PLAYLIST_TITLE)
1884
1885         # The extraction process is the same as for playlists, but the regex
1886         # for the video ids doesn't contain an index
1887         ids = []
1888         more_widget_html = content_html = page
1889         for page_num in itertools.count(1):
1890             matches = re.findall(r'href="\s*/watch\?v=([0-9A-Za-z_-]{11})', content_html)
1891
1892             # 'recommended' feed has infinite 'load more' and each new portion spins
1893             # the same videos in (sometimes) slightly different order, so we'll check
1894             # for unicity and break when portion has no new videos
1895             new_ids = filter(lambda video_id: video_id not in ids, orderedSet(matches))
1896             if not new_ids:
1897                 break
1898
1899             ids.extend(new_ids)
1900
1901             mobj = re.search(r'data-uix-load-more-href="/?(?P<more>[^"]+)"', more_widget_html)
1902             if not mobj:
1903                 break
1904
1905             more = self._download_json(
1906                 'https://youtube.com/%s' % mobj.group('more'), self._PLAYLIST_TITLE,
1907                 'Downloading page #%s' % page_num,
1908                 transform_source=uppercase_escape)
1909             content_html = more['content_html']
1910             more_widget_html = more['load_more_widget_html']
1911
1912         return self.playlist_result(
1913             self._ids_to_results(ids), playlist_title=self._PLAYLIST_TITLE)
1914
1915
1916 class YoutubeWatchLaterIE(YoutubePlaylistIE):
1917     IE_NAME = 'youtube:watchlater'
1918     IE_DESC = 'Youtube watch later list, ":ytwatchlater" for short (requires authentication)'
1919     _VALID_URL = r'https?://www\.youtube\.com/(?:feed/watch_later|playlist\?list=WL)|:ytwatchlater'
1920
1921     _TESTS = []  # override PlaylistIE tests
1922
1923     def _real_extract(self, url):
1924         return self._extract_playlist('WL')
1925
1926
1927 class YoutubeFavouritesIE(YoutubeBaseInfoExtractor):
1928     IE_NAME = 'youtube:favorites'
1929     IE_DESC = 'YouTube.com favourite videos, ":ytfav" for short (requires authentication)'
1930     _VALID_URL = r'https?://www\.youtube\.com/my_favorites|:ytfav(?:ou?rites)?'
1931     _LOGIN_REQUIRED = True
1932
1933     def _real_extract(self, url):
1934         webpage = self._download_webpage('https://www.youtube.com/my_favorites', 'Youtube Favourites videos')
1935         playlist_id = self._search_regex(r'list=(.+?)["&]', webpage, 'favourites playlist id')
1936         return self.url_result(playlist_id, 'YoutubePlaylist')
1937
1938
1939 class YoutubeRecommendedIE(YoutubeFeedsInfoExtractor):
1940     IE_DESC = 'YouTube.com recommended videos, ":ytrec" for short (requires authentication)'
1941     _VALID_URL = r'https?://www\.youtube\.com/feed/recommended|:ytrec(?:ommended)?'
1942     _FEED_NAME = 'recommended'
1943     _PLAYLIST_TITLE = 'Youtube Recommended videos'
1944
1945
1946 class YoutubeSubscriptionsIE(YoutubeFeedsInfoExtractor):
1947     IE_DESC = 'YouTube.com subscriptions feed, "ytsubs" keyword (requires authentication)'
1948     _VALID_URL = r'https?://www\.youtube\.com/feed/subscriptions|:ytsubs(?:criptions)?'
1949     _FEED_NAME = 'subscriptions'
1950     _PLAYLIST_TITLE = 'Youtube Subscriptions'
1951
1952
1953 class YoutubeHistoryIE(YoutubeFeedsInfoExtractor):
1954     IE_DESC = 'Youtube watch history, ":ythistory" for short (requires authentication)'
1955     _VALID_URL = 'https?://www\.youtube\.com/feed/history|:ythistory'
1956     _FEED_NAME = 'history'
1957     _PLAYLIST_TITLE = 'Youtube History'
1958
1959
1960 class YoutubeTruncatedURLIE(InfoExtractor):
1961     IE_NAME = 'youtube:truncated_url'
1962     IE_DESC = False  # Do not list
1963     _VALID_URL = r'''(?x)
1964         (?:https?://)?
1965         (?:\w+\.)?[yY][oO][uU][tT][uU][bB][eE](?:-nocookie)?\.com/
1966         (?:watch\?(?:
1967             feature=[a-z_]+|
1968             annotation_id=annotation_[^&]+|
1969             x-yt-cl=[0-9]+|
1970             hl=[^&]*|
1971             t=[0-9]+
1972         )?
1973         |
1974             attribution_link\?a=[^&]+
1975         )
1976         $
1977     '''
1978
1979     _TESTS = [{
1980         'url': 'http://www.youtube.com/watch?annotation_id=annotation_3951667041',
1981         'only_matching': True,
1982     }, {
1983         'url': 'http://www.youtube.com/watch?',
1984         'only_matching': True,
1985     }, {
1986         'url': 'https://www.youtube.com/watch?x-yt-cl=84503534',
1987         'only_matching': True,
1988     }, {
1989         'url': 'https://www.youtube.com/watch?feature=foo',
1990         'only_matching': True,
1991     }, {
1992         'url': 'https://www.youtube.com/watch?hl=en-GB',
1993         'only_matching': True,
1994     }, {
1995         'url': 'https://www.youtube.com/watch?t=2372',
1996         'only_matching': True,
1997     }]
1998
1999     def _real_extract(self, url):
2000         raise ExtractorError(
2001             'Did you forget to quote the URL? Remember that & is a meta '
2002             'character in most shells, so you want to put the URL in quotes, '
2003             'like  youtube-dl '
2004             '"http://www.youtube.com/watch?feature=foo&v=BaW_jenozKc" '
2005             ' or simply  youtube-dl BaW_jenozKc  .',
2006             expected=True)
2007
2008
2009 class YoutubeTruncatedIDIE(InfoExtractor):
2010     IE_NAME = 'youtube:truncated_id'
2011     IE_DESC = False  # Do not list
2012     _VALID_URL = r'https?://(?:www\.)?youtube\.com/watch\?v=(?P<id>[0-9A-Za-z_-]{1,10})$'
2013
2014     _TESTS = [{
2015         'url': 'https://www.youtube.com/watch?v=N_708QY7Ob',
2016         'only_matching': True,
2017     }]
2018
2019     def _real_extract(self, url):
2020         video_id = self._match_id(url)
2021         raise ExtractorError(
2022             'Incomplete YouTube ID %s. URL %s looks truncated.' % (video_id, url),
2023             expected=True)