]> git.bitcoin.ninja Git - youtube-dl/blob - youtube_dl/extractor/youtube.py
[dailymotion] Error spelling
[youtube-dl] / youtube_dl / extractor / youtube.py
1 # coding: utf-8
2
3 from __future__ import unicode_literals
4
5
6 import itertools
7 import json
8 import os.path
9 import re
10 import time
11 import traceback
12
13 from .common import InfoExtractor, SearchInfoExtractor
14 from ..jsinterp import JSInterpreter
15 from ..swfinterp import SWFInterpreter
16 from ..compat import (
17     compat_chr,
18     compat_parse_qs,
19     compat_urllib_parse,
20     compat_urllib_parse_unquote,
21     compat_urllib_parse_unquote_plus,
22     compat_urllib_parse_urlparse,
23     compat_urllib_request,
24     compat_urlparse,
25     compat_str,
26 )
27 from ..utils import (
28     clean_html,
29     encode_dict,
30     ExtractorError,
31     float_or_none,
32     get_element_by_attribute,
33     get_element_by_id,
34     int_or_none,
35     orderedSet,
36     parse_duration,
37     remove_start,
38     smuggle_url,
39     str_to_int,
40     unescapeHTML,
41     unified_strdate,
42     unsmuggle_url,
43     uppercase_escape,
44     ISO3166Utils,
45 )
46
47
48 class YoutubeBaseInfoExtractor(InfoExtractor):
49     """Provide base functions for Youtube extractors"""
50     _LOGIN_URL = 'https://accounts.google.com/ServiceLogin'
51     _TWOFACTOR_URL = 'https://accounts.google.com/signin/challenge'
52     _NETRC_MACHINE = 'youtube'
53     # If True it will raise an error if no login info is provided
54     _LOGIN_REQUIRED = False
55
56     def _set_language(self):
57         self._set_cookie(
58             '.youtube.com', 'PREF', 'f1=50000000&hl=en',
59             # YouTube sets the expire time to about two months
60             expire_time=time.time() + 2 * 30 * 24 * 3600)
61
62     def _ids_to_results(self, ids):
63         return [
64             self.url_result(vid_id, 'Youtube', video_id=vid_id)
65             for vid_id in ids]
66
67     def _login(self):
68         """
69         Attempt to log in to YouTube.
70         True is returned if successful or skipped.
71         False is returned if login failed.
72
73         If _LOGIN_REQUIRED is set and no authentication was provided, an error is raised.
74         """
75         (username, password) = self._get_login_info()
76         # No authentication to be performed
77         if username is None:
78             if self._LOGIN_REQUIRED:
79                 raise ExtractorError('No login info available, needed for using %s.' % self.IE_NAME, expected=True)
80             return True
81
82         login_page = self._download_webpage(
83             self._LOGIN_URL, None,
84             note='Downloading login page',
85             errnote='unable to fetch login page', fatal=False)
86         if login_page is False:
87             return
88
89         galx = self._search_regex(r'(?s)<input.+?name="GALX".+?value="(.+?)"',
90                                   login_page, 'Login GALX parameter')
91
92         # Log in
93         login_form_strs = {
94             'continue': 'https://www.youtube.com/signin?action_handle_signin=true&feature=sign_in_button&hl=en_US&nomobiletemp=1',
95             'Email': username,
96             'GALX': galx,
97             'Passwd': password,
98
99             'PersistentCookie': 'yes',
100             '_utf8': '霱',
101             'bgresponse': 'js_disabled',
102             'checkConnection': '',
103             'checkedDomains': 'youtube',
104             'dnConn': '',
105             'pstMsg': '0',
106             'rmShown': '1',
107             'secTok': '',
108             'signIn': 'Sign in',
109             'timeStmp': '',
110             'service': 'youtube',
111             'uilel': '3',
112             'hl': 'en_US',
113         }
114
115         login_data = compat_urllib_parse.urlencode(encode_dict(login_form_strs)).encode('ascii')
116
117         req = compat_urllib_request.Request(self._LOGIN_URL, login_data)
118         login_results = self._download_webpage(
119             req, None,
120             note='Logging in', errnote='unable to log in', fatal=False)
121         if login_results is False:
122             return False
123
124         if re.search(r'id="errormsg_0_Passwd"', login_results) is not None:
125             raise ExtractorError('Please use your account password and a two-factor code instead of an application-specific password.', expected=True)
126
127         # Two-Factor
128         # TODO add SMS and phone call support - these require making a request and then prompting the user
129
130         if re.search(r'(?i)<form[^>]* id="challenge"', login_results) is not None:
131             tfa_code = self._get_tfa_info('2-step verification code')
132
133             if not tfa_code:
134                 self._downloader.report_warning(
135                     'Two-factor authentication required. Provide it either interactively or with --twofactor <code>'
136                     '(Note that only TOTP (Google Authenticator App) codes work at this time.)')
137                 return False
138
139             tfa_code = remove_start(tfa_code, 'G-')
140
141             tfa_form_strs = self._form_hidden_inputs('challenge', login_results)
142
143             tfa_form_strs.update({
144                 'Pin': tfa_code,
145                 'TrustDevice': 'on',
146             })
147
148             tfa_data = compat_urllib_parse.urlencode(encode_dict(tfa_form_strs)).encode('ascii')
149
150             tfa_req = compat_urllib_request.Request(self._TWOFACTOR_URL, tfa_data)
151             tfa_results = self._download_webpage(
152                 tfa_req, None,
153                 note='Submitting TFA code', errnote='unable to submit tfa', fatal=False)
154
155             if tfa_results is False:
156                 return False
157
158             if re.search(r'(?i)<form[^>]* id="challenge"', tfa_results) is not None:
159                 self._downloader.report_warning('Two-factor code expired or invalid. Please try again, or use a one-use backup code instead.')
160                 return False
161             if re.search(r'(?i)<form[^>]* id="gaia_loginform"', tfa_results) is not None:
162                 self._downloader.report_warning('unable to log in - did the page structure change?')
163                 return False
164             if re.search(r'smsauth-interstitial-reviewsettings', tfa_results) is not None:
165                 self._downloader.report_warning('Your Google account has a security notice. Please log in on your web browser, resolve the notice, and try again.')
166                 return False
167
168         if re.search(r'(?i)<form[^>]* id="gaia_loginform"', login_results) is not None:
169             self._downloader.report_warning('unable to log in: bad username or password')
170             return False
171         return True
172
173     def _real_initialize(self):
174         if self._downloader is None:
175             return
176         self._set_language()
177         if not self._login():
178             return
179
180
181 class YoutubePlaylistBaseInfoExtractor(InfoExtractor):
182     # Extract the video ids from the playlist pages
183     def _entries(self, page, playlist_id):
184         more_widget_html = content_html = page
185         for page_num in itertools.count(1):
186             for video_id, video_title in self.extract_videos_from_page(content_html):
187                 yield self.url_result(
188                     video_id, 'Youtube', video_id=video_id,
189                     video_title=video_title)
190
191             mobj = re.search(r'data-uix-load-more-href="/?(?P<more>[^"]+)"', more_widget_html)
192             if not mobj:
193                 break
194
195             more = self._download_json(
196                 'https://youtube.com/%s' % mobj.group('more'), playlist_id,
197                 'Downloading page #%s' % page_num,
198                 transform_source=uppercase_escape)
199             content_html = more['content_html']
200             if not content_html.strip():
201                 # Some webpages show a "Load more" button but they don't
202                 # have more videos
203                 break
204             more_widget_html = more['load_more_widget_html']
205
206     def extract_videos_from_page(self, page):
207         ids_in_page = []
208         titles_in_page = []
209         for mobj in re.finditer(self._VIDEO_RE, page):
210             # The link with index 0 is not the first video of the playlist (not sure if still actual)
211             if 'index' in mobj.groupdict() and mobj.group('id') == '0':
212                 continue
213             video_id = mobj.group('id')
214             video_title = unescapeHTML(mobj.group('title'))
215             if video_title:
216                 video_title = video_title.strip()
217             try:
218                 idx = ids_in_page.index(video_id)
219                 if video_title and not titles_in_page[idx]:
220                     titles_in_page[idx] = video_title
221             except ValueError:
222                 ids_in_page.append(video_id)
223                 titles_in_page.append(video_title)
224         return zip(ids_in_page, titles_in_page)
225
226
227 class YoutubeIE(YoutubeBaseInfoExtractor):
228     IE_DESC = 'YouTube.com'
229     _VALID_URL = r"""(?x)^
230                      (
231                          (?:https?://|//)                                    # http(s):// or protocol-independent URL
232                          (?:(?:(?:(?:\w+\.)?[yY][oO][uU][tT][uU][bB][eE](?:-nocookie)?\.com/|
233                             (?:www\.)?deturl\.com/www\.youtube\.com/|
234                             (?:www\.)?pwnyoutube\.com/|
235                             (?:www\.)?yourepeat\.com/|
236                             tube\.majestyc\.net/|
237                             youtube\.googleapis\.com/)                        # the various hostnames, with wildcard subdomains
238                          (?:.*?\#/)?                                          # handle anchor (#/) redirect urls
239                          (?:                                                  # the various things that can precede the ID:
240                              (?:(?:v|embed|e)/(?!videoseries))                # v/ or embed/ or e/
241                              |(?:                                             # or the v= param in all its forms
242                                  (?:(?:watch|movie)(?:_popup)?(?:\.php)?/?)?  # preceding watch(_popup|.php) or nothing (like /?v=xxxx)
243                                  (?:\?|\#!?)                                  # the params delimiter ? or # or #!
244                                  (?:.*?&)??                                   # any other preceding param (like /?s=tuff&v=xxxx)
245                                  v=
246                              )
247                          ))
248                          |(?:
249                             youtu\.be|                                        # just youtu.be/xxxx
250                             vid\.plus                                         # or vid.plus/xxxx
251                          )/
252                          |(?:www\.)?cleanvideosearch\.com/media/action/yt/watch\?videoId=
253                          )
254                      )?                                                       # all until now is optional -> you can pass the naked ID
255                      ([0-9A-Za-z_-]{11})                                      # here is it! the YouTube video ID
256                      (?!.*?&list=)                                            # combined list/video URLs are handled by the playlist IE
257                      (?(1).+)?                                                # if we found the ID, everything can follow
258                      $"""
259     _NEXT_URL_RE = r'[\?&]next_url=([^&]+)'
260     _formats = {
261         '5': {'ext': 'flv', 'width': 400, 'height': 240},
262         '6': {'ext': 'flv', 'width': 450, 'height': 270},
263         '13': {'ext': '3gp'},
264         '17': {'ext': '3gp', 'width': 176, 'height': 144},
265         '18': {'ext': 'mp4', 'width': 640, 'height': 360},
266         '22': {'ext': 'mp4', 'width': 1280, 'height': 720},
267         '34': {'ext': 'flv', 'width': 640, 'height': 360},
268         '35': {'ext': 'flv', 'width': 854, 'height': 480},
269         '36': {'ext': '3gp', 'width': 320, 'height': 240},
270         '37': {'ext': 'mp4', 'width': 1920, 'height': 1080},
271         '38': {'ext': 'mp4', 'width': 4096, 'height': 3072},
272         '43': {'ext': 'webm', 'width': 640, 'height': 360},
273         '44': {'ext': 'webm', 'width': 854, 'height': 480},
274         '45': {'ext': 'webm', 'width': 1280, 'height': 720},
275         '46': {'ext': 'webm', 'width': 1920, 'height': 1080},
276         '59': {'ext': 'mp4', 'width': 854, 'height': 480},
277         '78': {'ext': 'mp4', 'width': 854, 'height': 480},
278
279
280         # 3d videos
281         '82': {'ext': 'mp4', 'height': 360, 'format_note': '3D', 'preference': -20},
282         '83': {'ext': 'mp4', 'height': 480, 'format_note': '3D', 'preference': -20},
283         '84': {'ext': 'mp4', 'height': 720, 'format_note': '3D', 'preference': -20},
284         '85': {'ext': 'mp4', 'height': 1080, 'format_note': '3D', 'preference': -20},
285         '100': {'ext': 'webm', 'height': 360, 'format_note': '3D', 'preference': -20},
286         '101': {'ext': 'webm', 'height': 480, 'format_note': '3D', 'preference': -20},
287         '102': {'ext': 'webm', 'height': 720, 'format_note': '3D', 'preference': -20},
288
289         # Apple HTTP Live Streaming
290         '92': {'ext': 'mp4', 'height': 240, 'format_note': 'HLS', 'preference': -10},
291         '93': {'ext': 'mp4', 'height': 360, 'format_note': 'HLS', 'preference': -10},
292         '94': {'ext': 'mp4', 'height': 480, 'format_note': 'HLS', 'preference': -10},
293         '95': {'ext': 'mp4', 'height': 720, 'format_note': 'HLS', 'preference': -10},
294         '96': {'ext': 'mp4', 'height': 1080, 'format_note': 'HLS', 'preference': -10},
295         '132': {'ext': 'mp4', 'height': 240, 'format_note': 'HLS', 'preference': -10},
296         '151': {'ext': 'mp4', 'height': 72, 'format_note': 'HLS', 'preference': -10},
297
298         # DASH mp4 video
299         '133': {'ext': 'mp4', 'height': 240, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
300         '134': {'ext': 'mp4', 'height': 360, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
301         '135': {'ext': 'mp4', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
302         '136': {'ext': 'mp4', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
303         '137': {'ext': 'mp4', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
304         '138': {'ext': 'mp4', 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},  # Height can vary (https://github.com/rg3/youtube-dl/issues/4559)
305         '160': {'ext': 'mp4', 'height': 144, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
306         '264': {'ext': 'mp4', 'height': 1440, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
307         '298': {'ext': 'mp4', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'h264'},
308         '299': {'ext': 'mp4', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'h264'},
309         '266': {'ext': 'mp4', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'vcodec': 'h264'},
310
311         # Dash mp4 audio
312         '139': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'vcodec': 'none', 'abr': 48, 'preference': -50, 'container': 'm4a_dash'},
313         '140': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'vcodec': 'none', 'abr': 128, 'preference': -50, 'container': 'm4a_dash'},
314         '141': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'vcodec': 'none', 'abr': 256, 'preference': -50, 'container': 'm4a_dash'},
315
316         # Dash webm
317         '167': {'ext': 'webm', 'height': 360, 'width': 640, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
318         '168': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
319         '169': {'ext': 'webm', 'height': 720, 'width': 1280, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
320         '170': {'ext': 'webm', 'height': 1080, 'width': 1920, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
321         '218': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
322         '219': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'acodec': 'none', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
323         '278': {'ext': 'webm', 'height': 144, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'container': 'webm', 'vcodec': 'vp9'},
324         '242': {'ext': 'webm', 'height': 240, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
325         '243': {'ext': 'webm', 'height': 360, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
326         '244': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
327         '245': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
328         '246': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
329         '247': {'ext': 'webm', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
330         '248': {'ext': 'webm', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
331         '271': {'ext': 'webm', 'height': 1440, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
332         '272': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40},
333         '302': {'ext': 'webm', 'height': 720, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
334         '303': {'ext': 'webm', 'height': 1080, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
335         '308': {'ext': 'webm', 'height': 1440, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
336         '313': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'vcodec': 'vp9'},
337         '315': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'acodec': 'none', 'preference': -40, 'fps': 60, 'vcodec': 'vp9'},
338
339         # Dash webm audio
340         '171': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'abr': 128, 'preference': -50},
341         '172': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'abr': 256, 'preference': -50},
342
343         # Dash webm audio with opus inside
344         '249': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 50, 'preference': -50},
345         '250': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 70, 'preference': -50},
346         '251': {'ext': 'webm', 'vcodec': 'none', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 160, 'preference': -50},
347
348         # RTMP (unnamed)
349         '_rtmp': {'protocol': 'rtmp'},
350     }
351
352     IE_NAME = 'youtube'
353     _TESTS = [
354         {
355             'url': 'http://www.youtube.com/watch?v=BaW_jenozKcj&t=1s&end=9',
356             'info_dict': {
357                 'id': 'BaW_jenozKc',
358                 'ext': 'mp4',
359                 'title': 'youtube-dl test video "\'/\\ä↭𝕐',
360                 'uploader': 'Philipp Hagemeister',
361                 'uploader_id': 'phihag',
362                 'upload_date': '20121002',
363                 'description': 'test chars:  "\'/\\ä↭𝕐\ntest URL: https://github.com/rg3/youtube-dl/issues/1892\n\nThis is a test video for youtube-dl.\n\nFor more information, contact phihag@phihag.de .',
364                 'categories': ['Science & Technology'],
365                 'tags': ['youtube-dl'],
366                 'like_count': int,
367                 'dislike_count': int,
368                 'start_time': 1,
369                 'end_time': 9,
370             }
371         },
372         {
373             'url': 'http://www.youtube.com/watch?v=UxxajLWwzqY',
374             'note': 'Test generic use_cipher_signature video (#897)',
375             'info_dict': {
376                 'id': 'UxxajLWwzqY',
377                 'ext': 'mp4',
378                 'upload_date': '20120506',
379                 'title': 'Icona Pop - I Love It (feat. Charli XCX) [OFFICIAL VIDEO]',
380                 'description': 'md5:782e8651347686cba06e58f71ab51773',
381                 'tags': ['Icona Pop i love it', 'sweden', 'pop music', 'big beat records', 'big beat', 'charli',
382                          'xcx', 'charli xcx', 'girls', 'hbo', 'i love it', "i don't care", 'icona', 'pop',
383                          'iconic ep', 'iconic', 'love', 'it'],
384                 'uploader': 'Icona Pop',
385                 'uploader_id': 'IconaPop',
386             }
387         },
388         {
389             'url': 'https://www.youtube.com/watch?v=07FYdnEawAQ',
390             'note': 'Test VEVO video with age protection (#956)',
391             'info_dict': {
392                 'id': '07FYdnEawAQ',
393                 'ext': 'mp4',
394                 'upload_date': '20130703',
395                 'title': 'Justin Timberlake - Tunnel Vision (Explicit)',
396                 'description': 'md5:64249768eec3bc4276236606ea996373',
397                 'uploader': 'justintimberlakeVEVO',
398                 'uploader_id': 'justintimberlakeVEVO',
399                 'age_limit': 18,
400             }
401         },
402         {
403             'url': '//www.YouTube.com/watch?v=yZIXLfi8CZQ',
404             'note': 'Embed-only video (#1746)',
405             'info_dict': {
406                 'id': 'yZIXLfi8CZQ',
407                 'ext': 'mp4',
408                 'upload_date': '20120608',
409                 'title': 'Principal Sexually Assaults A Teacher - Episode 117 - 8th June 2012',
410                 'description': 'md5:09b78bd971f1e3e289601dfba15ca4f7',
411                 'uploader': 'SET India',
412                 'uploader_id': 'setindia'
413             }
414         },
415         {
416             'url': 'http://www.youtube.com/watch?v=BaW_jenozKcj&v=UxxajLWwzqY',
417             'note': 'Use the first video ID in the URL',
418             'info_dict': {
419                 'id': 'BaW_jenozKc',
420                 'ext': 'mp4',
421                 'title': 'youtube-dl test video "\'/\\ä↭𝕐',
422                 'uploader': 'Philipp Hagemeister',
423                 'uploader_id': 'phihag',
424                 'upload_date': '20121002',
425                 'description': 'test chars:  "\'/\\ä↭𝕐\ntest URL: https://github.com/rg3/youtube-dl/issues/1892\n\nThis is a test video for youtube-dl.\n\nFor more information, contact phihag@phihag.de .',
426                 'categories': ['Science & Technology'],
427                 'tags': ['youtube-dl'],
428                 'like_count': int,
429                 'dislike_count': int,
430             },
431             'params': {
432                 'skip_download': True,
433             },
434         },
435         {
436             'url': 'http://www.youtube.com/watch?v=a9LDPn-MO4I',
437             'note': '256k DASH audio (format 141) via DASH manifest',
438             'info_dict': {
439                 'id': 'a9LDPn-MO4I',
440                 'ext': 'm4a',
441                 'upload_date': '20121002',
442                 'uploader_id': '8KVIDEO',
443                 'description': '',
444                 'uploader': '8KVIDEO',
445                 'title': 'UHDTV TEST 8K VIDEO.mp4'
446             },
447             'params': {
448                 'youtube_include_dash_manifest': True,
449                 'format': '141',
450             },
451         },
452         # DASH manifest with encrypted signature
453         {
454             'url': 'https://www.youtube.com/watch?v=IB3lcPjvWLA',
455             'info_dict': {
456                 'id': 'IB3lcPjvWLA',
457                 'ext': 'm4a',
458                 'title': 'Afrojack, Spree Wilson - The Spark ft. Spree Wilson',
459                 'description': 'md5:12e7067fa6735a77bdcbb58cb1187d2d',
460                 'uploader': 'AfrojackVEVO',
461                 'uploader_id': 'AfrojackVEVO',
462                 'upload_date': '20131011',
463             },
464             'params': {
465                 'youtube_include_dash_manifest': True,
466                 'format': '141',
467             },
468         },
469         # JS player signature function name containing $
470         {
471             'url': 'https://www.youtube.com/watch?v=nfWlot6h_JM',
472             'info_dict': {
473                 'id': 'nfWlot6h_JM',
474                 'ext': 'm4a',
475                 'title': 'Taylor Swift - Shake It Off',
476                 'description': 'md5:95f66187cd7c8b2c13eb78e1223b63c3',
477                 'uploader': 'TaylorSwiftVEVO',
478                 'uploader_id': 'TaylorSwiftVEVO',
479                 'upload_date': '20140818',
480             },
481             'params': {
482                 'youtube_include_dash_manifest': True,
483                 'format': '141',
484             },
485         },
486         # Controversy video
487         {
488             'url': 'https://www.youtube.com/watch?v=T4XJQO3qol8',
489             'info_dict': {
490                 'id': 'T4XJQO3qol8',
491                 'ext': 'mp4',
492                 'upload_date': '20100909',
493                 'uploader': 'The Amazing Atheist',
494                 'uploader_id': 'TheAmazingAtheist',
495                 'title': 'Burning Everyone\'s Koran',
496                 'description': 'SUBSCRIBE: http://www.youtube.com/saturninefilms\n\nEven Obama has taken a stand against freedom on this issue: http://www.huffingtonpost.com/2010/09/09/obama-gma-interview-quran_n_710282.html',
497             }
498         },
499         # Normal age-gate video (No vevo, embed allowed)
500         {
501             'url': 'http://youtube.com/watch?v=HtVdAasjOgU',
502             'info_dict': {
503                 'id': 'HtVdAasjOgU',
504                 'ext': 'mp4',
505                 'title': 'The Witcher 3: Wild Hunt - The Sword Of Destiny Trailer',
506                 'description': 're:(?s).{100,}About the Game\n.*?The Witcher 3: Wild Hunt.{100,}',
507                 'uploader': 'The Witcher',
508                 'uploader_id': 'WitcherGame',
509                 'upload_date': '20140605',
510                 'age_limit': 18,
511             },
512         },
513         # Age-gate video with encrypted signature
514         {
515             'url': 'http://www.youtube.com/watch?v=6kLq3WMV1nU',
516             'info_dict': {
517                 'id': '6kLq3WMV1nU',
518                 'ext': 'mp4',
519                 'title': 'Dedication To My Ex (Miss That) (Lyric Video)',
520                 'description': 'md5:33765bb339e1b47e7e72b5490139bb41',
521                 'uploader': 'LloydVEVO',
522                 'uploader_id': 'LloydVEVO',
523                 'upload_date': '20110629',
524                 'age_limit': 18,
525             },
526         },
527         # video_info is None (https://github.com/rg3/youtube-dl/issues/4421)
528         {
529             'url': '__2ABJjxzNo',
530             'info_dict': {
531                 'id': '__2ABJjxzNo',
532                 'ext': 'mp4',
533                 'upload_date': '20100430',
534                 'uploader_id': 'deadmau5',
535                 'description': 'md5:12c56784b8032162bb936a5f76d55360',
536                 'uploader': 'deadmau5',
537                 'title': 'Deadmau5 - Some Chords (HD)',
538             },
539             'expected_warnings': [
540                 'DASH manifest missing',
541             ]
542         },
543         # Olympics (https://github.com/rg3/youtube-dl/issues/4431)
544         {
545             'url': 'lqQg6PlCWgI',
546             'info_dict': {
547                 'id': 'lqQg6PlCWgI',
548                 'ext': 'mp4',
549                 'upload_date': '20120724',
550                 'uploader_id': 'olympic',
551                 'description': 'HO09  - Women -  GER-AUS - Hockey - 31 July 2012 - London 2012 Olympic Games',
552                 'uploader': 'Olympics',
553                 'title': 'Hockey - Women -  GER-AUS - London 2012 Olympic Games',
554             },
555             'params': {
556                 'skip_download': 'requires avconv',
557             }
558         },
559         # Non-square pixels
560         {
561             'url': 'https://www.youtube.com/watch?v=_b-2C3KPAM0',
562             'info_dict': {
563                 'id': '_b-2C3KPAM0',
564                 'ext': 'mp4',
565                 'stretched_ratio': 16 / 9.,
566                 'upload_date': '20110310',
567                 'uploader_id': 'AllenMeow',
568                 'description': 'made by Wacom from Korea | 字幕&加油添醋 by TY\'s Allen | 感謝heylisa00cavey1001同學熱情提供梗及翻譯',
569                 'uploader': '孫艾倫',
570                 'title': '[A-made] 變態妍字幕版 太妍 我就是這樣的人',
571             },
572         },
573         # url_encoded_fmt_stream_map is empty string
574         {
575             'url': 'qEJwOuvDf7I',
576             'info_dict': {
577                 'id': 'qEJwOuvDf7I',
578                 'ext': 'webm',
579                 'title': 'Обсуждение судебной практики по выборам 14 сентября 2014 года в Санкт-Петербурге',
580                 'description': '',
581                 'upload_date': '20150404',
582                 'uploader_id': 'spbelect',
583                 'uploader': 'Наблюдатели Петербурга',
584             },
585             'params': {
586                 'skip_download': 'requires avconv',
587             }
588         },
589         # Extraction from multiple DASH manifests (https://github.com/rg3/youtube-dl/pull/6097)
590         {
591             'url': 'https://www.youtube.com/watch?v=FIl7x6_3R5Y',
592             'info_dict': {
593                 'id': 'FIl7x6_3R5Y',
594                 'ext': 'mp4',
595                 'title': 'md5:7b81415841e02ecd4313668cde88737a',
596                 'description': 'md5:116377fd2963b81ec4ce64b542173306',
597                 'upload_date': '20150625',
598                 'uploader_id': 'dorappi2000',
599                 'uploader': 'dorappi2000',
600                 'formats': 'mincount:33',
601             },
602         },
603         # DASH manifest with segment_list
604         {
605             'url': 'https://www.youtube.com/embed/CsmdDsKjzN8',
606             'md5': '8ce563a1d667b599d21064e982ab9e31',
607             'info_dict': {
608                 'id': 'CsmdDsKjzN8',
609                 'ext': 'mp4',
610                 'upload_date': '20150501',  # According to '<meta itemprop="datePublished"', but in other places it's 20150510
611                 'uploader': 'Airtek',
612                 'description': 'Retransmisión en directo de la XVIII media maratón de Zaragoza.',
613                 'uploader_id': 'UCzTzUmjXxxacNnL8I3m4LnQ',
614                 'title': 'Retransmisión XVIII Media maratón Zaragoza 2015',
615             },
616             'params': {
617                 'youtube_include_dash_manifest': True,
618                 'format': '135',  # bestvideo
619             }
620         },
621         {
622             # Multifeed videos (multiple cameras), URL is for Main Camera
623             'url': 'https://www.youtube.com/watch?v=jqWvoWXjCVs',
624             'info_dict': {
625                 'id': 'jqWvoWXjCVs',
626                 'title': 'teamPGP: Rocket League Noob Stream',
627                 'description': 'md5:dc7872fb300e143831327f1bae3af010',
628             },
629             'playlist': [{
630                 'info_dict': {
631                     'id': 'jqWvoWXjCVs',
632                     'ext': 'mp4',
633                     'title': 'teamPGP: Rocket League Noob Stream (Main Camera)',
634                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
635                     'upload_date': '20150721',
636                     'uploader': 'Beer Games Beer',
637                     'uploader_id': 'beergamesbeer',
638                 },
639             }, {
640                 'info_dict': {
641                     'id': '6h8e8xoXJzg',
642                     'ext': 'mp4',
643                     'title': 'teamPGP: Rocket League Noob Stream (kreestuh)',
644                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
645                     'upload_date': '20150721',
646                     'uploader': 'Beer Games Beer',
647                     'uploader_id': 'beergamesbeer',
648                 },
649             }, {
650                 'info_dict': {
651                     'id': 'PUOgX5z9xZw',
652                     'ext': 'mp4',
653                     'title': 'teamPGP: Rocket League Noob Stream (grizzle)',
654                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
655                     'upload_date': '20150721',
656                     'uploader': 'Beer Games Beer',
657                     'uploader_id': 'beergamesbeer',
658                 },
659             }, {
660                 'info_dict': {
661                     'id': 'teuwxikvS5k',
662                     'ext': 'mp4',
663                     'title': 'teamPGP: Rocket League Noob Stream (zim)',
664                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
665                     'upload_date': '20150721',
666                     'uploader': 'Beer Games Beer',
667                     'uploader_id': 'beergamesbeer',
668                 },
669             }],
670             'params': {
671                 'skip_download': True,
672             },
673         },
674         {
675             'url': 'http://vid.plus/FlRa-iH7PGw',
676             'only_matching': True,
677         }
678     ]
679
680     def __init__(self, *args, **kwargs):
681         super(YoutubeIE, self).__init__(*args, **kwargs)
682         self._player_cache = {}
683
684     def report_video_info_webpage_download(self, video_id):
685         """Report attempt to download video info webpage."""
686         self.to_screen('%s: Downloading video info webpage' % video_id)
687
688     def report_information_extraction(self, video_id):
689         """Report attempt to extract video information."""
690         self.to_screen('%s: Extracting video information' % video_id)
691
692     def report_unavailable_format(self, video_id, format):
693         """Report extracted video URL."""
694         self.to_screen('%s: Format %s not available' % (video_id, format))
695
696     def report_rtmp_download(self):
697         """Indicate the download will use the RTMP protocol."""
698         self.to_screen('RTMP download detected')
699
700     def _signature_cache_id(self, example_sig):
701         """ Return a string representation of a signature """
702         return '.'.join(compat_str(len(part)) for part in example_sig.split('.'))
703
704     def _extract_signature_function(self, video_id, player_url, example_sig):
705         id_m = re.match(
706             r'.*?-(?P<id>[a-zA-Z0-9_-]+)(?:/watch_as3|/html5player(?:-new)?)?\.(?P<ext>[a-z]+)$',
707             player_url)
708         if not id_m:
709             raise ExtractorError('Cannot identify player %r' % player_url)
710         player_type = id_m.group('ext')
711         player_id = id_m.group('id')
712
713         # Read from filesystem cache
714         func_id = '%s_%s_%s' % (
715             player_type, player_id, self._signature_cache_id(example_sig))
716         assert os.path.basename(func_id) == func_id
717
718         cache_spec = self._downloader.cache.load('youtube-sigfuncs', func_id)
719         if cache_spec is not None:
720             return lambda s: ''.join(s[i] for i in cache_spec)
721
722         download_note = (
723             'Downloading player %s' % player_url
724             if self._downloader.params.get('verbose') else
725             'Downloading %s player %s' % (player_type, player_id)
726         )
727         if player_type == 'js':
728             code = self._download_webpage(
729                 player_url, video_id,
730                 note=download_note,
731                 errnote='Download of %s failed' % player_url)
732             res = self._parse_sig_js(code)
733         elif player_type == 'swf':
734             urlh = self._request_webpage(
735                 player_url, video_id,
736                 note=download_note,
737                 errnote='Download of %s failed' % player_url)
738             code = urlh.read()
739             res = self._parse_sig_swf(code)
740         else:
741             assert False, 'Invalid player type %r' % player_type
742
743         test_string = ''.join(map(compat_chr, range(len(example_sig))))
744         cache_res = res(test_string)
745         cache_spec = [ord(c) for c in cache_res]
746
747         self._downloader.cache.store('youtube-sigfuncs', func_id, cache_spec)
748         return res
749
750     def _print_sig_code(self, func, example_sig):
751         def gen_sig_code(idxs):
752             def _genslice(start, end, step):
753                 starts = '' if start == 0 else str(start)
754                 ends = (':%d' % (end + step)) if end + step >= 0 else ':'
755                 steps = '' if step == 1 else (':%d' % step)
756                 return 's[%s%s%s]' % (starts, ends, steps)
757
758             step = None
759             # Quelch pyflakes warnings - start will be set when step is set
760             start = '(Never used)'
761             for i, prev in zip(idxs[1:], idxs[:-1]):
762                 if step is not None:
763                     if i - prev == step:
764                         continue
765                     yield _genslice(start, prev, step)
766                     step = None
767                     continue
768                 if i - prev in [-1, 1]:
769                     step = i - prev
770                     start = prev
771                     continue
772                 else:
773                     yield 's[%d]' % prev
774             if step is None:
775                 yield 's[%d]' % i
776             else:
777                 yield _genslice(start, i, step)
778
779         test_string = ''.join(map(compat_chr, range(len(example_sig))))
780         cache_res = func(test_string)
781         cache_spec = [ord(c) for c in cache_res]
782         expr_code = ' + '.join(gen_sig_code(cache_spec))
783         signature_id_tuple = '(%s)' % (
784             ', '.join(compat_str(len(p)) for p in example_sig.split('.')))
785         code = ('if tuple(len(p) for p in s.split(\'.\')) == %s:\n'
786                 '    return %s\n') % (signature_id_tuple, expr_code)
787         self.to_screen('Extracted signature function:\n' + code)
788
789     def _parse_sig_js(self, jscode):
790         funcname = self._search_regex(
791             r'\.sig\|\|([a-zA-Z0-9$]+)\(', jscode,
792             'Initial JS player signature function name')
793
794         jsi = JSInterpreter(jscode)
795         initial_function = jsi.extract_function(funcname)
796         return lambda s: initial_function([s])
797
798     def _parse_sig_swf(self, file_contents):
799         swfi = SWFInterpreter(file_contents)
800         TARGET_CLASSNAME = 'SignatureDecipher'
801         searched_class = swfi.extract_class(TARGET_CLASSNAME)
802         initial_function = swfi.extract_function(searched_class, 'decipher')
803         return lambda s: initial_function([s])
804
805     def _decrypt_signature(self, s, video_id, player_url, age_gate=False):
806         """Turn the encrypted s field into a working signature"""
807
808         if player_url is None:
809             raise ExtractorError('Cannot decrypt signature without player_url')
810
811         if player_url.startswith('//'):
812             player_url = 'https:' + player_url
813         try:
814             player_id = (player_url, self._signature_cache_id(s))
815             if player_id not in self._player_cache:
816                 func = self._extract_signature_function(
817                     video_id, player_url, s
818                 )
819                 self._player_cache[player_id] = func
820             func = self._player_cache[player_id]
821             if self._downloader.params.get('youtube_print_sig_code'):
822                 self._print_sig_code(func, s)
823             return func(s)
824         except Exception as e:
825             tb = traceback.format_exc()
826             raise ExtractorError(
827                 'Signature extraction failed: ' + tb, cause=e)
828
829     def _get_subtitles(self, video_id, webpage):
830         try:
831             subs_doc = self._download_xml(
832                 'https://video.google.com/timedtext?hl=en&type=list&v=%s' % video_id,
833                 video_id, note=False)
834         except ExtractorError as err:
835             self._downloader.report_warning('unable to download video subtitles: %s' % compat_str(err))
836             return {}
837
838         sub_lang_list = {}
839         for track in subs_doc.findall('track'):
840             lang = track.attrib['lang_code']
841             if lang in sub_lang_list:
842                 continue
843             sub_formats = []
844             for ext in ['sbv', 'vtt', 'srt']:
845                 params = compat_urllib_parse.urlencode({
846                     'lang': lang,
847                     'v': video_id,
848                     'fmt': ext,
849                     'name': track.attrib['name'].encode('utf-8'),
850                 })
851                 sub_formats.append({
852                     'url': 'https://www.youtube.com/api/timedtext?' + params,
853                     'ext': ext,
854                 })
855             sub_lang_list[lang] = sub_formats
856         if not sub_lang_list:
857             self._downloader.report_warning('video doesn\'t have subtitles')
858             return {}
859         return sub_lang_list
860
861     def _get_automatic_captions(self, video_id, webpage):
862         """We need the webpage for getting the captions url, pass it as an
863            argument to speed up the process."""
864         self.to_screen('%s: Looking for automatic captions' % video_id)
865         mobj = re.search(r';ytplayer.config = ({.*?});', webpage)
866         err_msg = 'Couldn\'t find automatic captions for %s' % video_id
867         if mobj is None:
868             self._downloader.report_warning(err_msg)
869             return {}
870         player_config = json.loads(mobj.group(1))
871         try:
872             args = player_config['args']
873             caption_url = args['ttsurl']
874             timestamp = args['timestamp']
875             # We get the available subtitles
876             list_params = compat_urllib_parse.urlencode({
877                 'type': 'list',
878                 'tlangs': 1,
879                 'asrs': 1,
880             })
881             list_url = caption_url + '&' + list_params
882             caption_list = self._download_xml(list_url, video_id)
883             original_lang_node = caption_list.find('track')
884             if original_lang_node is None:
885                 self._downloader.report_warning('Video doesn\'t have automatic captions')
886                 return {}
887             original_lang = original_lang_node.attrib['lang_code']
888             caption_kind = original_lang_node.attrib.get('kind', '')
889
890             sub_lang_list = {}
891             for lang_node in caption_list.findall('target'):
892                 sub_lang = lang_node.attrib['lang_code']
893                 sub_formats = []
894                 for ext in ['sbv', 'vtt', 'srt']:
895                     params = compat_urllib_parse.urlencode({
896                         'lang': original_lang,
897                         'tlang': sub_lang,
898                         'fmt': ext,
899                         'ts': timestamp,
900                         'kind': caption_kind,
901                     })
902                     sub_formats.append({
903                         'url': caption_url + '&' + params,
904                         'ext': ext,
905                     })
906                 sub_lang_list[sub_lang] = sub_formats
907             return sub_lang_list
908         # An extractor error can be raise by the download process if there are
909         # no automatic captions but there are subtitles
910         except (KeyError, ExtractorError):
911             self._downloader.report_warning(err_msg)
912             return {}
913
914     @classmethod
915     def extract_id(cls, url):
916         mobj = re.match(cls._VALID_URL, url, re.VERBOSE)
917         if mobj is None:
918             raise ExtractorError('Invalid URL: %s' % url)
919         video_id = mobj.group(2)
920         return video_id
921
922     def _extract_from_m3u8(self, manifest_url, video_id):
923         url_map = {}
924
925         def _get_urls(_manifest):
926             lines = _manifest.split('\n')
927             urls = filter(lambda l: l and not l.startswith('#'),
928                           lines)
929             return urls
930         manifest = self._download_webpage(manifest_url, video_id, 'Downloading formats manifest')
931         formats_urls = _get_urls(manifest)
932         for format_url in formats_urls:
933             itag = self._search_regex(r'itag/(\d+?)/', format_url, 'itag')
934             url_map[itag] = format_url
935         return url_map
936
937     def _extract_annotations(self, video_id):
938         url = 'https://www.youtube.com/annotations_invideo?features=1&legacy=1&video_id=%s' % video_id
939         return self._download_webpage(url, video_id, note='Searching for annotations.', errnote='Unable to download video annotations.')
940
941     def _parse_dash_manifest(
942             self, video_id, dash_manifest_url, player_url, age_gate, fatal=True):
943         def decrypt_sig(mobj):
944             s = mobj.group(1)
945             dec_s = self._decrypt_signature(s, video_id, player_url, age_gate)
946             return '/signature/%s' % dec_s
947         dash_manifest_url = re.sub(r'/s/([a-fA-F0-9\.]+)', decrypt_sig, dash_manifest_url)
948         dash_doc = self._download_xml(
949             dash_manifest_url, video_id,
950             note='Downloading DASH manifest',
951             errnote='Could not download DASH manifest',
952             fatal=fatal)
953
954         if dash_doc is False:
955             return []
956
957         formats = []
958         for a in dash_doc.findall('.//{urn:mpeg:DASH:schema:MPD:2011}AdaptationSet'):
959             mime_type = a.attrib.get('mimeType')
960             for r in a.findall('{urn:mpeg:DASH:schema:MPD:2011}Representation'):
961                 url_el = r.find('{urn:mpeg:DASH:schema:MPD:2011}BaseURL')
962                 if url_el is None:
963                     continue
964                 if mime_type == 'text/vtt':
965                     # TODO implement WebVTT downloading
966                     pass
967                 elif mime_type.startswith('audio/') or mime_type.startswith('video/'):
968                     segment_list = r.find('{urn:mpeg:DASH:schema:MPD:2011}SegmentList')
969                     format_id = r.attrib['id']
970                     video_url = url_el.text
971                     filesize = int_or_none(url_el.attrib.get('{http://youtube.com/yt/2012/10/10}contentLength'))
972                     f = {
973                         'format_id': format_id,
974                         'url': video_url,
975                         'width': int_or_none(r.attrib.get('width')),
976                         'height': int_or_none(r.attrib.get('height')),
977                         'tbr': int_or_none(r.attrib.get('bandwidth'), 1000),
978                         'asr': int_or_none(r.attrib.get('audioSamplingRate')),
979                         'filesize': filesize,
980                         'fps': int_or_none(r.attrib.get('frameRate')),
981                     }
982                     if segment_list is not None:
983                         f.update({
984                             'initialization_url': segment_list.find('{urn:mpeg:DASH:schema:MPD:2011}Initialization').attrib['sourceURL'],
985                             'segment_urls': [segment.attrib.get('media') for segment in segment_list.findall('{urn:mpeg:DASH:schema:MPD:2011}SegmentURL')],
986                             'protocol': 'http_dash_segments',
987                         })
988                     try:
989                         existing_format = next(
990                             fo for fo in formats
991                             if fo['format_id'] == format_id)
992                     except StopIteration:
993                         full_info = self._formats.get(format_id, {}).copy()
994                         full_info.update(f)
995                         codecs = r.attrib.get('codecs')
996                         if codecs:
997                             if full_info.get('acodec') == 'none' and 'vcodec' not in full_info:
998                                 full_info['vcodec'] = codecs
999                             elif full_info.get('vcodec') == 'none' and 'acodec' not in full_info:
1000                                 full_info['acodec'] = codecs
1001                         formats.append(full_info)
1002                     else:
1003                         existing_format.update(f)
1004                 else:
1005                     self.report_warning('Unknown MIME type %s in DASH manifest' % mime_type)
1006         return formats
1007
1008     def _real_extract(self, url):
1009         url, smuggled_data = unsmuggle_url(url, {})
1010
1011         proto = (
1012             'http' if self._downloader.params.get('prefer_insecure', False)
1013             else 'https')
1014
1015         start_time = None
1016         end_time = None
1017         parsed_url = compat_urllib_parse_urlparse(url)
1018         for component in [parsed_url.fragment, parsed_url.query]:
1019             query = compat_parse_qs(component)
1020             if start_time is None and 't' in query:
1021                 start_time = parse_duration(query['t'][0])
1022             if start_time is None and 'start' in query:
1023                 start_time = parse_duration(query['start'][0])
1024             if end_time is None and 'end' in query:
1025                 end_time = parse_duration(query['end'][0])
1026
1027         # Extract original video URL from URL with redirection, like age verification, using next_url parameter
1028         mobj = re.search(self._NEXT_URL_RE, url)
1029         if mobj:
1030             url = proto + '://www.youtube.com/' + compat_urllib_parse_unquote(mobj.group(1)).lstrip('/')
1031         video_id = self.extract_id(url)
1032
1033         # Get video webpage
1034         url = proto + '://www.youtube.com/watch?v=%s&gl=US&hl=en&has_verified=1&bpctr=9999999999' % video_id
1035         video_webpage = self._download_webpage(url, video_id)
1036
1037         # Attempt to extract SWF player URL
1038         mobj = re.search(r'swfConfig.*?"(https?:\\/\\/.*?watch.*?-.*?\.swf)"', video_webpage)
1039         if mobj is not None:
1040             player_url = re.sub(r'\\(.)', r'\1', mobj.group(1))
1041         else:
1042             player_url = None
1043
1044         dash_mpds = []
1045
1046         def add_dash_mpd(video_info):
1047             dash_mpd = video_info.get('dashmpd')
1048             if dash_mpd and dash_mpd[0] not in dash_mpds:
1049                 dash_mpds.append(dash_mpd[0])
1050
1051         # Get video info
1052         embed_webpage = None
1053         is_live = None
1054         if re.search(r'player-age-gate-content">', video_webpage) is not None:
1055             age_gate = True
1056             # We simulate the access to the video from www.youtube.com/v/{video_id}
1057             # this can be viewed without login into Youtube
1058             url = proto + '://www.youtube.com/embed/%s' % video_id
1059             embed_webpage = self._download_webpage(url, video_id, 'Downloading embed webpage')
1060             data = compat_urllib_parse.urlencode({
1061                 'video_id': video_id,
1062                 'eurl': 'https://youtube.googleapis.com/v/' + video_id,
1063                 'sts': self._search_regex(
1064                     r'"sts"\s*:\s*(\d+)', embed_webpage, 'sts', default=''),
1065             })
1066             video_info_url = proto + '://www.youtube.com/get_video_info?' + data
1067             video_info_webpage = self._download_webpage(
1068                 video_info_url, video_id,
1069                 note='Refetching age-gated info webpage',
1070                 errnote='unable to download video info webpage')
1071             video_info = compat_parse_qs(video_info_webpage)
1072             add_dash_mpd(video_info)
1073         else:
1074             age_gate = False
1075             video_info = None
1076             # Try looking directly into the video webpage
1077             mobj = re.search(r';ytplayer\.config\s*=\s*({.*?});', video_webpage)
1078             if mobj:
1079                 json_code = uppercase_escape(mobj.group(1))
1080                 ytplayer_config = json.loads(json_code)
1081                 args = ytplayer_config['args']
1082                 if args.get('url_encoded_fmt_stream_map'):
1083                     # Convert to the same format returned by compat_parse_qs
1084                     video_info = dict((k, [v]) for k, v in args.items())
1085                     add_dash_mpd(video_info)
1086                 if args.get('livestream') == '1' or args.get('live_playback') == 1:
1087                     is_live = True
1088             if not video_info or self._downloader.params.get('youtube_include_dash_manifest', True):
1089                 # We also try looking in get_video_info since it may contain different dashmpd
1090                 # URL that points to a DASH manifest with possibly different itag set (some itags
1091                 # are missing from DASH manifest pointed by webpage's dashmpd, some - from DASH
1092                 # manifest pointed by get_video_info's dashmpd).
1093                 # The general idea is to take a union of itags of both DASH manifests (for example
1094                 # video with such 'manifest behavior' see https://github.com/rg3/youtube-dl/issues/6093)
1095                 self.report_video_info_webpage_download(video_id)
1096                 for el_type in ['&el=info', '&el=embedded', '&el=detailpage', '&el=vevo', '']:
1097                     video_info_url = (
1098                         '%s://www.youtube.com/get_video_info?&video_id=%s%s&ps=default&eurl=&gl=US&hl=en'
1099                         % (proto, video_id, el_type))
1100                     video_info_webpage = self._download_webpage(
1101                         video_info_url,
1102                         video_id, note=False,
1103                         errnote='unable to download video info webpage')
1104                     get_video_info = compat_parse_qs(video_info_webpage)
1105                     if get_video_info.get('use_cipher_signature') != ['True']:
1106                         add_dash_mpd(get_video_info)
1107                     if not video_info:
1108                         video_info = get_video_info
1109                     if 'token' in get_video_info:
1110                         break
1111         if 'token' not in video_info:
1112             if 'reason' in video_info:
1113                 if 'The uploader has not made this video available in your country.' in video_info['reason']:
1114                     regions_allowed = self._html_search_meta('regionsAllowed', video_webpage, default=None)
1115                     if regions_allowed:
1116                         raise ExtractorError('YouTube said: This video is available in %s only' % (
1117                             ', '.join(map(ISO3166Utils.short2full, regions_allowed.split(',')))),
1118                             expected=True)
1119                 raise ExtractorError(
1120                     'YouTube said: %s' % video_info['reason'][0],
1121                     expected=True, video_id=video_id)
1122             else:
1123                 raise ExtractorError(
1124                     '"token" parameter not in video info for unknown reason',
1125                     video_id=video_id)
1126
1127         # title
1128         if 'title' in video_info:
1129             video_title = video_info['title'][0]
1130         else:
1131             self._downloader.report_warning('Unable to extract video title')
1132             video_title = '_'
1133
1134         # description
1135         video_description = get_element_by_id("eow-description", video_webpage)
1136         if video_description:
1137             video_description = re.sub(r'''(?x)
1138                 <a\s+
1139                     (?:[a-zA-Z-]+="[^"]+"\s+)*?
1140                     title="([^"]+)"\s+
1141                     (?:[a-zA-Z-]+="[^"]+"\s+)*?
1142                     class="yt-uix-redirect-link"\s*>
1143                 [^<]+
1144                 </a>
1145             ''', r'\1', video_description)
1146             video_description = clean_html(video_description)
1147         else:
1148             fd_mobj = re.search(r'<meta name="description" content="([^"]+)"', video_webpage)
1149             if fd_mobj:
1150                 video_description = unescapeHTML(fd_mobj.group(1))
1151             else:
1152                 video_description = ''
1153
1154         if 'multifeed_metadata_list' in video_info and not smuggled_data.get('force_singlefeed', False):
1155             if not self._downloader.params.get('noplaylist'):
1156                 entries = []
1157                 feed_ids = []
1158                 multifeed_metadata_list = compat_urllib_parse_unquote_plus(video_info['multifeed_metadata_list'][0])
1159                 for feed in multifeed_metadata_list.split(','):
1160                     feed_data = compat_parse_qs(feed)
1161                     entries.append({
1162                         '_type': 'url_transparent',
1163                         'ie_key': 'Youtube',
1164                         'url': smuggle_url(
1165                             '%s://www.youtube.com/watch?v=%s' % (proto, feed_data['id'][0]),
1166                             {'force_singlefeed': True}),
1167                         'title': '%s (%s)' % (video_title, feed_data['title'][0]),
1168                     })
1169                     feed_ids.append(feed_data['id'][0])
1170                 self.to_screen(
1171                     'Downloading multifeed video (%s) - add --no-playlist to just download video %s'
1172                     % (', '.join(feed_ids), video_id))
1173                 return self.playlist_result(entries, video_id, video_title, video_description)
1174             self.to_screen('Downloading just video %s because of --no-playlist' % video_id)
1175
1176         if 'view_count' in video_info:
1177             view_count = int(video_info['view_count'][0])
1178         else:
1179             view_count = None
1180
1181         # Check for "rental" videos
1182         if 'ypc_video_rental_bar_text' in video_info and 'author' not in video_info:
1183             raise ExtractorError('"rental" videos not supported')
1184
1185         # Start extracting information
1186         self.report_information_extraction(video_id)
1187
1188         # uploader
1189         if 'author' not in video_info:
1190             raise ExtractorError('Unable to extract uploader name')
1191         video_uploader = compat_urllib_parse_unquote_plus(video_info['author'][0])
1192
1193         # uploader_id
1194         video_uploader_id = None
1195         mobj = re.search(r'<link itemprop="url" href="http://www.youtube.com/(?:user|channel)/([^"]+)">', video_webpage)
1196         if mobj is not None:
1197             video_uploader_id = mobj.group(1)
1198         else:
1199             self._downloader.report_warning('unable to extract uploader nickname')
1200
1201         # thumbnail image
1202         # We try first to get a high quality image:
1203         m_thumb = re.search(r'<span itemprop="thumbnail".*?href="(.*?)">',
1204                             video_webpage, re.DOTALL)
1205         if m_thumb is not None:
1206             video_thumbnail = m_thumb.group(1)
1207         elif 'thumbnail_url' not in video_info:
1208             self._downloader.report_warning('unable to extract video thumbnail')
1209             video_thumbnail = None
1210         else:   # don't panic if we can't find it
1211             video_thumbnail = compat_urllib_parse_unquote_plus(video_info['thumbnail_url'][0])
1212
1213         # upload date
1214         upload_date = self._html_search_meta(
1215             'datePublished', video_webpage, 'upload date', default=None)
1216         if not upload_date:
1217             upload_date = self._search_regex(
1218                 [r'(?s)id="eow-date.*?>(.*?)</span>',
1219                  r'id="watch-uploader-info".*?>.*?(?:Published|Uploaded|Streamed live|Started) on (.+?)</strong>'],
1220                 video_webpage, 'upload date', default=None)
1221             if upload_date:
1222                 upload_date = ' '.join(re.sub(r'[/,-]', r' ', mobj.group(1)).split())
1223         upload_date = unified_strdate(upload_date)
1224
1225         m_cat_container = self._search_regex(
1226             r'(?s)<h4[^>]*>\s*Category\s*</h4>\s*<ul[^>]*>(.*?)</ul>',
1227             video_webpage, 'categories', default=None)
1228         if m_cat_container:
1229             category = self._html_search_regex(
1230                 r'(?s)<a[^<]+>(.*?)</a>', m_cat_container, 'category',
1231                 default=None)
1232             video_categories = None if category is None else [category]
1233         else:
1234             video_categories = None
1235
1236         video_tags = [
1237             unescapeHTML(m.group('content'))
1238             for m in re.finditer(self._meta_regex('og:video:tag'), video_webpage)]
1239
1240         def _extract_count(count_name):
1241             return str_to_int(self._search_regex(
1242                 r'-%s-button[^>]+><span[^>]+class="yt-uix-button-content"[^>]*>([\d,]+)</span>'
1243                 % re.escape(count_name),
1244                 video_webpage, count_name, default=None))
1245
1246         like_count = _extract_count('like')
1247         dislike_count = _extract_count('dislike')
1248
1249         # subtitles
1250         video_subtitles = self.extract_subtitles(video_id, video_webpage)
1251         automatic_captions = self.extract_automatic_captions(video_id, video_webpage)
1252
1253         if 'length_seconds' not in video_info:
1254             self._downloader.report_warning('unable to extract video duration')
1255             video_duration = None
1256         else:
1257             video_duration = int(compat_urllib_parse_unquote_plus(video_info['length_seconds'][0]))
1258
1259         # annotations
1260         video_annotations = None
1261         if self._downloader.params.get('writeannotations', False):
1262             video_annotations = self._extract_annotations(video_id)
1263
1264         def _map_to_format_list(urlmap):
1265             formats = []
1266             for itag, video_real_url in urlmap.items():
1267                 dct = {
1268                     'format_id': itag,
1269                     'url': video_real_url,
1270                     'player_url': player_url,
1271                 }
1272                 if itag in self._formats:
1273                     dct.update(self._formats[itag])
1274                 formats.append(dct)
1275             return formats
1276
1277         if 'conn' in video_info and video_info['conn'][0].startswith('rtmp'):
1278             self.report_rtmp_download()
1279             formats = [{
1280                 'format_id': '_rtmp',
1281                 'protocol': 'rtmp',
1282                 'url': video_info['conn'][0],
1283                 'player_url': player_url,
1284             }]
1285         elif len(video_info.get('url_encoded_fmt_stream_map', [''])[0]) >= 1 or len(video_info.get('adaptive_fmts', [''])[0]) >= 1:
1286             encoded_url_map = video_info.get('url_encoded_fmt_stream_map', [''])[0] + ',' + video_info.get('adaptive_fmts', [''])[0]
1287             if 'rtmpe%3Dyes' in encoded_url_map:
1288                 raise ExtractorError('rtmpe downloads are not supported, see https://github.com/rg3/youtube-dl/issues/343 for more information.', expected=True)
1289             formats = []
1290             for url_data_str in encoded_url_map.split(','):
1291                 url_data = compat_parse_qs(url_data_str)
1292                 if 'itag' not in url_data or 'url' not in url_data:
1293                     continue
1294                 format_id = url_data['itag'][0]
1295                 url = url_data['url'][0]
1296
1297                 if 'sig' in url_data:
1298                     url += '&signature=' + url_data['sig'][0]
1299                 elif 's' in url_data:
1300                     encrypted_sig = url_data['s'][0]
1301                     ASSETS_RE = r'"assets":.+?"js":\s*("[^"]+")'
1302
1303                     jsplayer_url_json = self._search_regex(
1304                         ASSETS_RE,
1305                         embed_webpage if age_gate else video_webpage,
1306                         'JS player URL (1)', default=None)
1307                     if not jsplayer_url_json and not age_gate:
1308                         # We need the embed website after all
1309                         if embed_webpage is None:
1310                             embed_url = proto + '://www.youtube.com/embed/%s' % video_id
1311                             embed_webpage = self._download_webpage(
1312                                 embed_url, video_id, 'Downloading embed webpage')
1313                         jsplayer_url_json = self._search_regex(
1314                             ASSETS_RE, embed_webpage, 'JS player URL')
1315
1316                     player_url = json.loads(jsplayer_url_json)
1317                     if player_url is None:
1318                         player_url_json = self._search_regex(
1319                             r'ytplayer\.config.*?"url"\s*:\s*("[^"]+")',
1320                             video_webpage, 'age gate player URL')
1321                         player_url = json.loads(player_url_json)
1322
1323                     if self._downloader.params.get('verbose'):
1324                         if player_url is None:
1325                             player_version = 'unknown'
1326                             player_desc = 'unknown'
1327                         else:
1328                             if player_url.endswith('swf'):
1329                                 player_version = self._search_regex(
1330                                     r'-(.+?)(?:/watch_as3)?\.swf$', player_url,
1331                                     'flash player', fatal=False)
1332                                 player_desc = 'flash player %s' % player_version
1333                             else:
1334                                 player_version = self._search_regex(
1335                                     r'html5player-([^/]+?)(?:/html5player(?:-new)?)?\.js',
1336                                     player_url,
1337                                     'html5 player', fatal=False)
1338                                 player_desc = 'html5 player %s' % player_version
1339
1340                         parts_sizes = self._signature_cache_id(encrypted_sig)
1341                         self.to_screen('{%s} signature length %s, %s' %
1342                                        (format_id, parts_sizes, player_desc))
1343
1344                     signature = self._decrypt_signature(
1345                         encrypted_sig, video_id, player_url, age_gate)
1346                     url += '&signature=' + signature
1347                 if 'ratebypass' not in url:
1348                     url += '&ratebypass=yes'
1349
1350                 # Some itags are not included in DASH manifest thus corresponding formats will
1351                 # lack metadata (see https://github.com/rg3/youtube-dl/pull/5993).
1352                 # Trying to extract metadata from url_encoded_fmt_stream_map entry.
1353                 mobj = re.search(r'^(?P<width>\d+)[xX](?P<height>\d+)$', url_data.get('size', [''])[0])
1354                 width, height = (int(mobj.group('width')), int(mobj.group('height'))) if mobj else (None, None)
1355                 dct = {
1356                     'format_id': format_id,
1357                     'url': url,
1358                     'player_url': player_url,
1359                     'filesize': int_or_none(url_data.get('clen', [None])[0]),
1360                     'tbr': float_or_none(url_data.get('bitrate', [None])[0], 1000),
1361                     'width': width,
1362                     'height': height,
1363                     'fps': int_or_none(url_data.get('fps', [None])[0]),
1364                     'format_note': url_data.get('quality_label', [None])[0] or url_data.get('quality', [None])[0],
1365                 }
1366                 type_ = url_data.get('type', [None])[0]
1367                 if type_:
1368                     type_split = type_.split(';')
1369                     kind_ext = type_split[0].split('/')
1370                     if len(kind_ext) == 2:
1371                         kind, ext = kind_ext
1372                         dct['ext'] = ext
1373                         if kind in ('audio', 'video'):
1374                             codecs = None
1375                             for mobj in re.finditer(
1376                                     r'(?P<key>[a-zA-Z_-]+)=(?P<quote>["\']?)(?P<val>.+?)(?P=quote)(?:;|$)', type_):
1377                                 if mobj.group('key') == 'codecs':
1378                                     codecs = mobj.group('val')
1379                                     break
1380                             if codecs:
1381                                 codecs = codecs.split(',')
1382                                 if len(codecs) == 2:
1383                                     acodec, vcodec = codecs[0], codecs[1]
1384                                 else:
1385                                     acodec, vcodec = (codecs[0], 'none') if kind == 'audio' else ('none', codecs[0])
1386                                 dct.update({
1387                                     'acodec': acodec,
1388                                     'vcodec': vcodec,
1389                                 })
1390                 if format_id in self._formats:
1391                     dct.update(self._formats[format_id])
1392                 formats.append(dct)
1393         elif video_info.get('hlsvp'):
1394             manifest_url = video_info['hlsvp'][0]
1395             url_map = self._extract_from_m3u8(manifest_url, video_id)
1396             formats = _map_to_format_list(url_map)
1397         else:
1398             raise ExtractorError('no conn, hlsvp or url_encoded_fmt_stream_map information found in video info')
1399
1400         # Look for the DASH manifest
1401         if self._downloader.params.get('youtube_include_dash_manifest', True):
1402             dash_mpd_fatal = True
1403             for dash_manifest_url in dash_mpds:
1404                 dash_formats = {}
1405                 try:
1406                     for df in self._parse_dash_manifest(
1407                             video_id, dash_manifest_url, player_url, age_gate, dash_mpd_fatal):
1408                         # Do not overwrite DASH format found in some previous DASH manifest
1409                         if df['format_id'] not in dash_formats:
1410                             dash_formats[df['format_id']] = df
1411                         # Additional DASH manifests may end up in HTTP Error 403 therefore
1412                         # allow them to fail without bug report message if we already have
1413                         # some DASH manifest succeeded. This is temporary workaround to reduce
1414                         # burst of bug reports until we figure out the reason and whether it
1415                         # can be fixed at all.
1416                         dash_mpd_fatal = False
1417                 except (ExtractorError, KeyError) as e:
1418                     self.report_warning(
1419                         'Skipping DASH manifest: %r' % e, video_id)
1420                 if dash_formats:
1421                     # Remove the formats we found through non-DASH, they
1422                     # contain less info and it can be wrong, because we use
1423                     # fixed values (for example the resolution). See
1424                     # https://github.com/rg3/youtube-dl/issues/5774 for an
1425                     # example.
1426                     formats = [f for f in formats if f['format_id'] not in dash_formats.keys()]
1427                     formats.extend(dash_formats.values())
1428
1429         # Check for malformed aspect ratio
1430         stretched_m = re.search(
1431             r'<meta\s+property="og:video:tag".*?content="yt:stretch=(?P<w>[0-9]+):(?P<h>[0-9]+)">',
1432             video_webpage)
1433         if stretched_m:
1434             ratio = float(stretched_m.group('w')) / float(stretched_m.group('h'))
1435             for f in formats:
1436                 if f.get('vcodec') != 'none':
1437                     f['stretched_ratio'] = ratio
1438
1439         self._sort_formats(formats)
1440
1441         return {
1442             'id': video_id,
1443             'uploader': video_uploader,
1444             'uploader_id': video_uploader_id,
1445             'upload_date': upload_date,
1446             'title': video_title,
1447             'thumbnail': video_thumbnail,
1448             'description': video_description,
1449             'categories': video_categories,
1450             'tags': video_tags,
1451             'subtitles': video_subtitles,
1452             'automatic_captions': automatic_captions,
1453             'duration': video_duration,
1454             'age_limit': 18 if age_gate else 0,
1455             'annotations': video_annotations,
1456             'webpage_url': proto + '://www.youtube.com/watch?v=%s' % video_id,
1457             'view_count': view_count,
1458             'like_count': like_count,
1459             'dislike_count': dislike_count,
1460             'average_rating': float_or_none(video_info.get('avg_rating', [None])[0]),
1461             'formats': formats,
1462             'is_live': is_live,
1463             'start_time': start_time,
1464             'end_time': end_time,
1465         }
1466
1467
1468 class YoutubePlaylistIE(YoutubeBaseInfoExtractor, YoutubePlaylistBaseInfoExtractor):
1469     IE_DESC = 'YouTube.com playlists'
1470     _VALID_URL = r"""(?x)(?:
1471                         (?:https?://)?
1472                         (?:\w+\.)?
1473                         youtube\.com/
1474                         (?:
1475                            (?:course|view_play_list|my_playlists|artist|playlist|watch|embed/videoseries)
1476                            \? (?:.*?&)*? (?:p|a|list)=
1477                         |  p/
1478                         )
1479                         (
1480                             (?:PL|LL|EC|UU|FL|RD|UL)?[0-9A-Za-z-_]{10,}
1481                             # Top tracks, they can also include dots
1482                             |(?:MC)[\w\.]*
1483                         )
1484                         .*
1485                      |
1486                         ((?:PL|LL|EC|UU|FL|RD|UL)[0-9A-Za-z-_]{10,})
1487                      )"""
1488     _TEMPLATE_URL = 'https://www.youtube.com/playlist?list=%s'
1489     _VIDEO_RE = r'href="\s*/watch\?v=(?P<id>[0-9A-Za-z_-]{11})&amp;[^"]*?index=(?P<index>\d+)(?:[^>]+>(?P<title>[^<]+))?'
1490     IE_NAME = 'youtube:playlist'
1491     _TESTS = [{
1492         'url': 'https://www.youtube.com/playlist?list=PLwiyx1dc3P2JR9N8gQaQN_BCvlSlap7re',
1493         'info_dict': {
1494             'title': 'ytdl test PL',
1495             'id': 'PLwiyx1dc3P2JR9N8gQaQN_BCvlSlap7re',
1496         },
1497         'playlist_count': 3,
1498     }, {
1499         'url': 'https://www.youtube.com/playlist?list=PLtPgu7CB4gbZDA7i_euNxn75ISqxwZPYx',
1500         'info_dict': {
1501             'id': 'PLtPgu7CB4gbZDA7i_euNxn75ISqxwZPYx',
1502             'title': 'YDL_Empty_List',
1503         },
1504         'playlist_count': 0,
1505     }, {
1506         'note': 'Playlist with deleted videos (#651). As a bonus, the video #51 is also twice in this list.',
1507         'url': 'https://www.youtube.com/playlist?list=PLwP_SiAcdui0KVebT0mU9Apz359a4ubsC',
1508         'info_dict': {
1509             'title': '29C3: Not my department',
1510             'id': 'PLwP_SiAcdui0KVebT0mU9Apz359a4ubsC',
1511         },
1512         'playlist_count': 95,
1513     }, {
1514         'note': 'issue #673',
1515         'url': 'PLBB231211A4F62143',
1516         'info_dict': {
1517             'title': '[OLD]Team Fortress 2 (Class-based LP)',
1518             'id': 'PLBB231211A4F62143',
1519         },
1520         'playlist_mincount': 26,
1521     }, {
1522         'note': 'Large playlist',
1523         'url': 'https://www.youtube.com/playlist?list=UUBABnxM4Ar9ten8Mdjj1j0Q',
1524         'info_dict': {
1525             'title': 'Uploads from Cauchemar',
1526             'id': 'UUBABnxM4Ar9ten8Mdjj1j0Q',
1527         },
1528         'playlist_mincount': 799,
1529     }, {
1530         'url': 'PLtPgu7CB4gbY9oDN3drwC3cMbJggS7dKl',
1531         'info_dict': {
1532             'title': 'YDL_safe_search',
1533             'id': 'PLtPgu7CB4gbY9oDN3drwC3cMbJggS7dKl',
1534         },
1535         'playlist_count': 2,
1536     }, {
1537         'note': 'embedded',
1538         'url': 'http://www.youtube.com/embed/videoseries?list=PL6IaIsEjSbf96XFRuNccS_RuEXwNdsoEu',
1539         'playlist_count': 4,
1540         'info_dict': {
1541             'title': 'JODA15',
1542             'id': 'PL6IaIsEjSbf96XFRuNccS_RuEXwNdsoEu',
1543         }
1544     }, {
1545         'note': 'Embedded SWF player',
1546         'url': 'http://www.youtube.com/p/YN5VISEtHet5D4NEvfTd0zcgFk84NqFZ?hl=en_US&fs=1&rel=0',
1547         'playlist_count': 4,
1548         'info_dict': {
1549             'title': 'JODA7',
1550             'id': 'YN5VISEtHet5D4NEvfTd0zcgFk84NqFZ',
1551         }
1552     }, {
1553         'note': 'Buggy playlist: the webpage has a "Load more" button but it doesn\'t have more videos',
1554         'url': 'https://www.youtube.com/playlist?list=UUXw-G3eDE9trcvY2sBMM_aA',
1555         'info_dict': {
1556             'title': 'Uploads from Interstellar Movie',
1557             'id': 'UUXw-G3eDE9trcvY2sBMM_aA',
1558         },
1559         'playlist_mincout': 21,
1560     }]
1561
1562     def _real_initialize(self):
1563         self._login()
1564
1565     def _extract_mix(self, playlist_id):
1566         # The mixes are generated from a single video
1567         # the id of the playlist is just 'RD' + video_id
1568         url = 'https://youtube.com/watch?v=%s&list=%s' % (playlist_id[-11:], playlist_id)
1569         webpage = self._download_webpage(
1570             url, playlist_id, 'Downloading Youtube mix')
1571         search_title = lambda class_name: get_element_by_attribute('class', class_name, webpage)
1572         title_span = (
1573             search_title('playlist-title') or
1574             search_title('title long-title') or
1575             search_title('title'))
1576         title = clean_html(title_span)
1577         ids = orderedSet(re.findall(
1578             r'''(?xs)data-video-username=".*?".*?
1579                        href="/watch\?v=([0-9A-Za-z_-]{11})&amp;[^"]*?list=%s''' % re.escape(playlist_id),
1580             webpage))
1581         url_results = self._ids_to_results(ids)
1582
1583         return self.playlist_result(url_results, playlist_id, title)
1584
1585     def _extract_playlist(self, playlist_id):
1586         url = self._TEMPLATE_URL % playlist_id
1587         page = self._download_webpage(url, playlist_id)
1588
1589         for match in re.findall(r'<div class="yt-alert-message">([^<]+)</div>', page):
1590             match = match.strip()
1591             # Check if the playlist exists or is private
1592             if re.match(r'[^<]*(The|This) playlist (does not exist|is private)[^<]*', match):
1593                 raise ExtractorError(
1594                     'The playlist doesn\'t exist or is private, use --username or '
1595                     '--netrc to access it.',
1596                     expected=True)
1597             elif re.match(r'[^<]*Invalid parameters[^<]*', match):
1598                 raise ExtractorError(
1599                     'Invalid parameters. Maybe URL is incorrect.',
1600                     expected=True)
1601             elif re.match(r'[^<]*Choose your language[^<]*', match):
1602                 continue
1603             else:
1604                 self.report_warning('Youtube gives an alert message: ' + match)
1605
1606         playlist_title = self._html_search_regex(
1607             r'(?s)<h1 class="pl-header-title[^"]*">\s*(.*?)\s*</h1>',
1608             page, 'title')
1609
1610         return self.playlist_result(self._entries(page, playlist_id), playlist_id, playlist_title)
1611
1612     def _real_extract(self, url):
1613         # Extract playlist id
1614         mobj = re.match(self._VALID_URL, url)
1615         if mobj is None:
1616             raise ExtractorError('Invalid URL: %s' % url)
1617         playlist_id = mobj.group(1) or mobj.group(2)
1618
1619         # Check if it's a video-specific URL
1620         query_dict = compat_urlparse.parse_qs(compat_urlparse.urlparse(url).query)
1621         if 'v' in query_dict:
1622             video_id = query_dict['v'][0]
1623             if self._downloader.params.get('noplaylist'):
1624                 self.to_screen('Downloading just video %s because of --no-playlist' % video_id)
1625                 return self.url_result(video_id, 'Youtube', video_id=video_id)
1626             else:
1627                 self.to_screen('Downloading playlist %s - add --no-playlist to just download video %s' % (playlist_id, video_id))
1628
1629         if playlist_id.startswith('RD') or playlist_id.startswith('UL'):
1630             # Mixes require a custom extraction process
1631             return self._extract_mix(playlist_id)
1632
1633         return self._extract_playlist(playlist_id)
1634
1635
1636 class YoutubeChannelIE(YoutubePlaylistBaseInfoExtractor):
1637     IE_DESC = 'YouTube.com channels'
1638     _VALID_URL = r'https?://(?:youtu\.be|(?:\w+\.)?youtube(?:-nocookie)?\.com)/channel/(?P<id>[0-9A-Za-z_-]+)'
1639     _TEMPLATE_URL = 'https://www.youtube.com/channel/%s/videos'
1640     _VIDEO_RE = r'(?:title="(?P<title>[^"]+)"[^>]+)?href="/watch\?v=(?P<id>[0-9A-Za-z_-]+)&?'
1641     IE_NAME = 'youtube:channel'
1642     _TESTS = [{
1643         'note': 'paginated channel',
1644         'url': 'https://www.youtube.com/channel/UCKfVa3S1e4PHvxWcwyMMg8w',
1645         'playlist_mincount': 91,
1646         'info_dict': {
1647             'id': 'UCKfVa3S1e4PHvxWcwyMMg8w',
1648         }
1649     }]
1650
1651     def _real_extract(self, url):
1652         channel_id = self._match_id(url)
1653
1654         url = self._TEMPLATE_URL % channel_id
1655
1656         # Channel by page listing is restricted to 35 pages of 30 items, i.e. 1050 videos total (see #5778)
1657         # Workaround by extracting as a playlist if managed to obtain channel playlist URL
1658         # otherwise fallback on channel by page extraction
1659         channel_page = self._download_webpage(
1660             url + '?view=57', channel_id,
1661             'Downloading channel page', fatal=False)
1662         if channel_page is False:
1663             channel_playlist_id = False
1664         else:
1665             channel_playlist_id = self._html_search_meta(
1666                 'channelId', channel_page, 'channel id', default=None)
1667             if not channel_playlist_id:
1668                 channel_playlist_id = self._search_regex(
1669                     r'data-channel-external-id="([^"]+)"',
1670                     channel_page, 'channel id', default=None)
1671         if channel_playlist_id and channel_playlist_id.startswith('UC'):
1672             playlist_id = 'UU' + channel_playlist_id[2:]
1673             return self.url_result(
1674                 compat_urlparse.urljoin(url, '/playlist?list=%s' % playlist_id), 'YoutubePlaylist')
1675
1676         channel_page = self._download_webpage(url, channel_id, 'Downloading page #1')
1677         autogenerated = re.search(r'''(?x)
1678                 class="[^"]*?(?:
1679                     channel-header-autogenerated-label|
1680                     yt-channel-title-autogenerated
1681                 )[^"]*"''', channel_page) is not None
1682
1683         if autogenerated:
1684             # The videos are contained in a single page
1685             # the ajax pages can't be used, they are empty
1686             entries = [
1687                 self.url_result(
1688                     video_id, 'Youtube', video_id=video_id,
1689                     video_title=video_title)
1690                 for video_id, video_title in self.extract_videos_from_page(channel_page)]
1691             return self.playlist_result(entries, channel_id)
1692
1693         return self.playlist_result(self._entries(channel_page, channel_id), channel_id)
1694
1695
1696 class YoutubeUserIE(YoutubeChannelIE):
1697     IE_DESC = 'YouTube.com user videos (URL or "ytuser" keyword)'
1698     _VALID_URL = r'(?:(?:(?:https?://)?(?:\w+\.)?youtube\.com/(?:user/)?(?!(?:attribution_link|watch|results)(?:$|[^a-z_A-Z0-9-])))|ytuser:)(?!feed/)(?P<id>[A-Za-z0-9_-]+)'
1699     _TEMPLATE_URL = 'https://www.youtube.com/user/%s/videos'
1700     IE_NAME = 'youtube:user'
1701
1702     _TESTS = [{
1703         'url': 'https://www.youtube.com/user/TheLinuxFoundation',
1704         'playlist_mincount': 320,
1705         'info_dict': {
1706             'title': 'TheLinuxFoundation',
1707         }
1708     }, {
1709         'url': 'ytuser:phihag',
1710         'only_matching': True,
1711     }]
1712
1713     @classmethod
1714     def suitable(cls, url):
1715         # Don't return True if the url can be extracted with other youtube
1716         # extractor, the regex would is too permissive and it would match.
1717         other_ies = iter(klass for (name, klass) in globals().items() if name.endswith('IE') and klass is not cls)
1718         if any(ie.suitable(url) for ie in other_ies):
1719             return False
1720         else:
1721             return super(YoutubeUserIE, cls).suitable(url)
1722
1723
1724 class YoutubeSearchIE(SearchInfoExtractor, YoutubePlaylistIE):
1725     IE_DESC = 'YouTube.com searches'
1726     # there doesn't appear to be a real limit, for example if you search for
1727     # 'python' you get more than 8.000.000 results
1728     _MAX_RESULTS = float('inf')
1729     IE_NAME = 'youtube:search'
1730     _SEARCH_KEY = 'ytsearch'
1731     _EXTRA_QUERY_ARGS = {}
1732     _TESTS = []
1733
1734     def _get_n_results(self, query, n):
1735         """Get a specified number of results for a query"""
1736
1737         videos = []
1738         limit = n
1739
1740         for pagenum in itertools.count(1):
1741             url_query = {
1742                 'search_query': query.encode('utf-8'),
1743                 'page': pagenum,
1744                 'spf': 'navigate',
1745             }
1746             url_query.update(self._EXTRA_QUERY_ARGS)
1747             result_url = 'https://www.youtube.com/results?' + compat_urllib_parse.urlencode(url_query)
1748             data = self._download_json(
1749                 result_url, video_id='query "%s"' % query,
1750                 note='Downloading page %s' % pagenum,
1751                 errnote='Unable to download API page')
1752             html_content = data[1]['body']['content']
1753
1754             if 'class="search-message' in html_content:
1755                 raise ExtractorError(
1756                     '[youtube] No video results', expected=True)
1757
1758             new_videos = self._ids_to_results(orderedSet(re.findall(
1759                 r'href="/watch\?v=(.{11})', html_content)))
1760             videos += new_videos
1761             if not new_videos or len(videos) > limit:
1762                 break
1763
1764         if len(videos) > n:
1765             videos = videos[:n]
1766         return self.playlist_result(videos, query)
1767
1768
1769 class YoutubeSearchDateIE(YoutubeSearchIE):
1770     IE_NAME = YoutubeSearchIE.IE_NAME + ':date'
1771     _SEARCH_KEY = 'ytsearchdate'
1772     IE_DESC = 'YouTube.com searches, newest videos first'
1773     _EXTRA_QUERY_ARGS = {'search_sort': 'video_date_uploaded'}
1774
1775
1776 class YoutubeSearchURLIE(InfoExtractor):
1777     IE_DESC = 'YouTube.com search URLs'
1778     IE_NAME = 'youtube:search_url'
1779     _VALID_URL = r'https?://(?:www\.)?youtube\.com/results\?(.*?&)?search_query=(?P<query>[^&]+)(?:[&]|$)'
1780     _TESTS = [{
1781         'url': 'https://www.youtube.com/results?baz=bar&search_query=youtube-dl+test+video&filters=video&lclk=video',
1782         'playlist_mincount': 5,
1783         'info_dict': {
1784             'title': 'youtube-dl test video',
1785         }
1786     }]
1787
1788     def _real_extract(self, url):
1789         mobj = re.match(self._VALID_URL, url)
1790         query = compat_urllib_parse_unquote_plus(mobj.group('query'))
1791
1792         webpage = self._download_webpage(url, query)
1793         result_code = self._search_regex(
1794             r'(?s)<ol[^>]+class="item-section"(.*?)</ol>', webpage, 'result HTML')
1795
1796         part_codes = re.findall(
1797             r'(?s)<h3[^>]+class="[^"]*yt-lockup-title[^"]*"[^>]*>(.*?)</h3>', result_code)
1798         entries = []
1799         for part_code in part_codes:
1800             part_title = self._html_search_regex(
1801                 [r'(?s)title="([^"]+)"', r'>([^<]+)</a>'], part_code, 'item title', fatal=False)
1802             part_url_snippet = self._html_search_regex(
1803                 r'(?s)href="([^"]+)"', part_code, 'item URL')
1804             part_url = compat_urlparse.urljoin(
1805                 'https://www.youtube.com/', part_url_snippet)
1806             entries.append({
1807                 '_type': 'url',
1808                 'url': part_url,
1809                 'title': part_title,
1810             })
1811
1812         return {
1813             '_type': 'playlist',
1814             'entries': entries,
1815             'title': query,
1816         }
1817
1818
1819 class YoutubeShowIE(InfoExtractor):
1820     IE_DESC = 'YouTube.com (multi-season) shows'
1821     _VALID_URL = r'https?://www\.youtube\.com/show/(?P<id>[^?#]*)'
1822     IE_NAME = 'youtube:show'
1823     _TESTS = [{
1824         'url': 'https://www.youtube.com/show/airdisasters',
1825         'playlist_mincount': 5,
1826         'info_dict': {
1827             'id': 'airdisasters',
1828             'title': 'Air Disasters',
1829         }
1830     }]
1831
1832     def _real_extract(self, url):
1833         mobj = re.match(self._VALID_URL, url)
1834         playlist_id = mobj.group('id')
1835         webpage = self._download_webpage(
1836             'https://www.youtube.com/show/%s/playlists' % playlist_id, playlist_id, 'Downloading show webpage')
1837         # There's one playlist for each season of the show
1838         m_seasons = list(re.finditer(r'href="(/playlist\?list=.*?)"', webpage))
1839         self.to_screen('%s: Found %s seasons' % (playlist_id, len(m_seasons)))
1840         entries = [
1841             self.url_result(
1842                 'https://www.youtube.com' + season.group(1), 'YoutubePlaylist')
1843             for season in m_seasons
1844         ]
1845         title = self._og_search_title(webpage, fatal=False)
1846
1847         return {
1848             '_type': 'playlist',
1849             'id': playlist_id,
1850             'title': title,
1851             'entries': entries,
1852         }
1853
1854
1855 class YoutubeFeedsInfoExtractor(YoutubeBaseInfoExtractor):
1856     """
1857     Base class for feed extractors
1858     Subclasses must define the _FEED_NAME and _PLAYLIST_TITLE properties.
1859     """
1860     _LOGIN_REQUIRED = True
1861
1862     @property
1863     def IE_NAME(self):
1864         return 'youtube:%s' % self._FEED_NAME
1865
1866     def _real_initialize(self):
1867         self._login()
1868
1869     def _real_extract(self, url):
1870         page = self._download_webpage(
1871             'https://www.youtube.com/feed/%s' % self._FEED_NAME, self._PLAYLIST_TITLE)
1872
1873         # The extraction process is the same as for playlists, but the regex
1874         # for the video ids doesn't contain an index
1875         ids = []
1876         more_widget_html = content_html = page
1877         for page_num in itertools.count(1):
1878             matches = re.findall(r'href="\s*/watch\?v=([0-9A-Za-z_-]{11})', content_html)
1879
1880             # 'recommended' feed has infinite 'load more' and each new portion spins
1881             # the same videos in (sometimes) slightly different order, so we'll check
1882             # for unicity and break when portion has no new videos
1883             new_ids = filter(lambda video_id: video_id not in ids, orderedSet(matches))
1884             if not new_ids:
1885                 break
1886
1887             ids.extend(new_ids)
1888
1889             mobj = re.search(r'data-uix-load-more-href="/?(?P<more>[^"]+)"', more_widget_html)
1890             if not mobj:
1891                 break
1892
1893             more = self._download_json(
1894                 'https://youtube.com/%s' % mobj.group('more'), self._PLAYLIST_TITLE,
1895                 'Downloading page #%s' % page_num,
1896                 transform_source=uppercase_escape)
1897             content_html = more['content_html']
1898             more_widget_html = more['load_more_widget_html']
1899
1900         return self.playlist_result(
1901             self._ids_to_results(ids), playlist_title=self._PLAYLIST_TITLE)
1902
1903
1904 class YoutubeWatchLaterIE(YoutubePlaylistIE):
1905     IE_NAME = 'youtube:watchlater'
1906     IE_DESC = 'Youtube watch later list, ":ytwatchlater" for short (requires authentication)'
1907     _VALID_URL = r'https?://www\.youtube\.com/(?:feed/watch_later|playlist\?list=WL)|:ytwatchlater'
1908
1909     _TESTS = []  # override PlaylistIE tests
1910
1911     def _real_extract(self, url):
1912         return self._extract_playlist('WL')
1913
1914
1915 class YoutubeFavouritesIE(YoutubeBaseInfoExtractor):
1916     IE_NAME = 'youtube:favorites'
1917     IE_DESC = 'YouTube.com favourite videos, ":ytfav" for short (requires authentication)'
1918     _VALID_URL = r'https?://www\.youtube\.com/my_favorites|:ytfav(?:ou?rites)?'
1919     _LOGIN_REQUIRED = True
1920
1921     def _real_extract(self, url):
1922         webpage = self._download_webpage('https://www.youtube.com/my_favorites', 'Youtube Favourites videos')
1923         playlist_id = self._search_regex(r'list=(.+?)["&]', webpage, 'favourites playlist id')
1924         return self.url_result(playlist_id, 'YoutubePlaylist')
1925
1926
1927 class YoutubeRecommendedIE(YoutubeFeedsInfoExtractor):
1928     IE_DESC = 'YouTube.com recommended videos, ":ytrec" for short (requires authentication)'
1929     _VALID_URL = r'https?://www\.youtube\.com/feed/recommended|:ytrec(?:ommended)?'
1930     _FEED_NAME = 'recommended'
1931     _PLAYLIST_TITLE = 'Youtube Recommended videos'
1932
1933
1934 class YoutubeSubscriptionsIE(YoutubeFeedsInfoExtractor):
1935     IE_DESC = 'YouTube.com subscriptions feed, "ytsubs" keyword (requires authentication)'
1936     _VALID_URL = r'https?://www\.youtube\.com/feed/subscriptions|:ytsubs(?:criptions)?'
1937     _FEED_NAME = 'subscriptions'
1938     _PLAYLIST_TITLE = 'Youtube Subscriptions'
1939
1940
1941 class YoutubeHistoryIE(YoutubeFeedsInfoExtractor):
1942     IE_DESC = 'Youtube watch history, ":ythistory" for short (requires authentication)'
1943     _VALID_URL = 'https?://www\.youtube\.com/feed/history|:ythistory'
1944     _FEED_NAME = 'history'
1945     _PLAYLIST_TITLE = 'Youtube History'
1946
1947
1948 class YoutubeTruncatedURLIE(InfoExtractor):
1949     IE_NAME = 'youtube:truncated_url'
1950     IE_DESC = False  # Do not list
1951     _VALID_URL = r'''(?x)
1952         (?:https?://)?
1953         (?:\w+\.)?[yY][oO][uU][tT][uU][bB][eE](?:-nocookie)?\.com/
1954         (?:watch\?(?:
1955             feature=[a-z_]+|
1956             annotation_id=annotation_[^&]+|
1957             x-yt-cl=[0-9]+|
1958             hl=[^&]*|
1959             t=[0-9]+
1960         )?
1961         |
1962             attribution_link\?a=[^&]+
1963         )
1964         $
1965     '''
1966
1967     _TESTS = [{
1968         'url': 'http://www.youtube.com/watch?annotation_id=annotation_3951667041',
1969         'only_matching': True,
1970     }, {
1971         'url': 'http://www.youtube.com/watch?',
1972         'only_matching': True,
1973     }, {
1974         'url': 'https://www.youtube.com/watch?x-yt-cl=84503534',
1975         'only_matching': True,
1976     }, {
1977         'url': 'https://www.youtube.com/watch?feature=foo',
1978         'only_matching': True,
1979     }, {
1980         'url': 'https://www.youtube.com/watch?hl=en-GB',
1981         'only_matching': True,
1982     }, {
1983         'url': 'https://www.youtube.com/watch?t=2372',
1984         'only_matching': True,
1985     }]
1986
1987     def _real_extract(self, url):
1988         raise ExtractorError(
1989             'Did you forget to quote the URL? Remember that & is a meta '
1990             'character in most shells, so you want to put the URL in quotes, '
1991             'like  youtube-dl '
1992             '"http://www.youtube.com/watch?feature=foo&v=BaW_jenozKc" '
1993             ' or simply  youtube-dl BaW_jenozKc  .',
1994             expected=True)
1995
1996
1997 class YoutubeTruncatedIDIE(InfoExtractor):
1998     IE_NAME = 'youtube:truncated_id'
1999     IE_DESC = False  # Do not list
2000     _VALID_URL = r'https?://(?:www\.)?youtube\.com/watch\?v=(?P<id>[0-9A-Za-z_-]{1,10})$'
2001
2002     _TESTS = [{
2003         'url': 'https://www.youtube.com/watch?v=N_708QY7Ob',
2004         'only_matching': True,
2005     }]
2006
2007     def _real_extract(self, url):
2008         video_id = self._match_id(url)
2009         raise ExtractorError(
2010             'Incomplete YouTube ID %s. URL %s looks truncated.' % (video_id, url),
2011             expected=True)