[youtube] Fix typos
[youtube-dl] / youtube_dl / extractor / youtube.py
1 # coding: utf-8
2
3 from __future__ import unicode_literals
4
5
6 import itertools
7 import json
8 import os.path
9 import re
10 import time
11 import traceback
12
13 from .common import InfoExtractor, SearchInfoExtractor
14 from ..jsinterp import JSInterpreter
15 from ..swfinterp import SWFInterpreter
16 from ..compat import (
17     compat_chr,
18     compat_parse_qs,
19     compat_urllib_parse,
20     compat_urllib_parse_unquote,
21     compat_urllib_parse_unquote_plus,
22     compat_urllib_parse_urlparse,
23     compat_urlparse,
24     compat_str,
25 )
26 from ..utils import (
27     clean_html,
28     encode_dict,
29     error_to_compat_str,
30     ExtractorError,
31     float_or_none,
32     get_element_by_attribute,
33     get_element_by_id,
34     int_or_none,
35     mimetype2ext,
36     orderedSet,
37     parse_duration,
38     remove_quotes,
39     remove_start,
40     sanitized_Request,
41     smuggle_url,
42     str_to_int,
43     unescapeHTML,
44     unified_strdate,
45     unsmuggle_url,
46     uppercase_escape,
47     ISO3166Utils,
48 )
49
50
51 class YoutubeBaseInfoExtractor(InfoExtractor):
52     """Provide base functions for Youtube extractors"""
53     _LOGIN_URL = 'https://accounts.google.com/ServiceLogin'
54     _TWOFACTOR_URL = 'https://accounts.google.com/signin/challenge'
55     _NETRC_MACHINE = 'youtube'
56     # If True it will raise an error if no login info is provided
57     _LOGIN_REQUIRED = False
58
59     def _set_language(self):
60         self._set_cookie(
61             '.youtube.com', 'PREF', 'f1=50000000&hl=en',
62             # YouTube sets the expire time to about two months
63             expire_time=time.time() + 2 * 30 * 24 * 3600)
64
65     def _ids_to_results(self, ids):
66         return [
67             self.url_result(vid_id, 'Youtube', video_id=vid_id)
68             for vid_id in ids]
69
70     def _login(self):
71         """
72         Attempt to log in to YouTube.
73         True is returned if successful or skipped.
74         False is returned if login failed.
75
76         If _LOGIN_REQUIRED is set and no authentication was provided, an error is raised.
77         """
78         (username, password) = self._get_login_info()
79         # No authentication to be performed
80         if username is None:
81             if self._LOGIN_REQUIRED:
82                 raise ExtractorError('No login info available, needed for using %s.' % self.IE_NAME, expected=True)
83             return True
84
85         login_page = self._download_webpage(
86             self._LOGIN_URL, None,
87             note='Downloading login page',
88             errnote='unable to fetch login page', fatal=False)
89         if login_page is False:
90             return
91
92         galx = self._search_regex(r'(?s)<input.+?name="GALX".+?value="(.+?)"',
93                                   login_page, 'Login GALX parameter')
94
95         # Log in
96         login_form_strs = {
97             'continue': 'https://www.youtube.com/signin?action_handle_signin=true&feature=sign_in_button&hl=en_US&nomobiletemp=1',
98             'Email': username,
99             'GALX': galx,
100             'Passwd': password,
101
102             'PersistentCookie': 'yes',
103             '_utf8': '霱',
104             'bgresponse': 'js_disabled',
105             'checkConnection': '',
106             'checkedDomains': 'youtube',
107             'dnConn': '',
108             'pstMsg': '0',
109             'rmShown': '1',
110             'secTok': '',
111             'signIn': 'Sign in',
112             'timeStmp': '',
113             'service': 'youtube',
114             'uilel': '3',
115             'hl': 'en_US',
116         }
117
118         login_data = compat_urllib_parse.urlencode(encode_dict(login_form_strs)).encode('ascii')
119
120         req = sanitized_Request(self._LOGIN_URL, login_data)
121         login_results = self._download_webpage(
122             req, None,
123             note='Logging in', errnote='unable to log in', fatal=False)
124         if login_results is False:
125             return False
126
127         if re.search(r'id="errormsg_0_Passwd"', login_results) is not None:
128             raise ExtractorError('Please use your account password and a two-factor code instead of an application-specific password.', expected=True)
129
130         # Two-Factor
131         # TODO add SMS and phone call support - these require making a request and then prompting the user
132
133         if re.search(r'(?i)<form[^>]* id="challenge"', login_results) is not None:
134             tfa_code = self._get_tfa_info('2-step verification code')
135
136             if not tfa_code:
137                 self._downloader.report_warning(
138                     'Two-factor authentication required. Provide it either interactively or with --twofactor <code>'
139                     '(Note that only TOTP (Google Authenticator App) codes work at this time.)')
140                 return False
141
142             tfa_code = remove_start(tfa_code, 'G-')
143
144             tfa_form_strs = self._form_hidden_inputs('challenge', login_results)
145
146             tfa_form_strs.update({
147                 'Pin': tfa_code,
148                 'TrustDevice': 'on',
149             })
150
151             tfa_data = compat_urllib_parse.urlencode(encode_dict(tfa_form_strs)).encode('ascii')
152
153             tfa_req = sanitized_Request(self._TWOFACTOR_URL, tfa_data)
154             tfa_results = self._download_webpage(
155                 tfa_req, None,
156                 note='Submitting TFA code', errnote='unable to submit tfa', fatal=False)
157
158             if tfa_results is False:
159                 return False
160
161             if re.search(r'(?i)<form[^>]* id="challenge"', tfa_results) is not None:
162                 self._downloader.report_warning('Two-factor code expired or invalid. Please try again, or use a one-use backup code instead.')
163                 return False
164             if re.search(r'(?i)<form[^>]* id="gaia_loginform"', tfa_results) is not None:
165                 self._downloader.report_warning('unable to log in - did the page structure change?')
166                 return False
167             if re.search(r'smsauth-interstitial-reviewsettings', tfa_results) is not None:
168                 self._downloader.report_warning('Your Google account has a security notice. Please log in on your web browser, resolve the notice, and try again.')
169                 return False
170
171         if re.search(r'(?i)<form[^>]* id="gaia_loginform"', login_results) is not None:
172             self._downloader.report_warning('unable to log in: bad username or password')
173             return False
174         return True
175
176     def _real_initialize(self):
177         if self._downloader is None:
178             return
179         self._set_language()
180         if not self._login():
181             return
182
183
184 class YoutubeEntryListBaseInfoExtractor(YoutubeBaseInfoExtractor):
185     # Extract entries from page with "Load more" button
186     def _entries(self, page, playlist_id):
187         more_widget_html = content_html = page
188         for page_num in itertools.count(1):
189             for entry in self._process_page(content_html):
190                 yield entry
191
192             mobj = re.search(r'data-uix-load-more-href="/?(?P<more>[^"]+)"', more_widget_html)
193             if not mobj:
194                 break
195
196             more = self._download_json(
197                 'https://youtube.com/%s' % mobj.group('more'), playlist_id,
198                 'Downloading page #%s' % page_num,
199                 transform_source=uppercase_escape)
200             content_html = more['content_html']
201             if not content_html.strip():
202                 # Some webpages show a "Load more" button but they don't
203                 # have more videos
204                 break
205             more_widget_html = more['load_more_widget_html']
206
207
208 class YoutubePlaylistBaseInfoExtractor(YoutubeEntryListBaseInfoExtractor):
209     def _process_page(self, content):
210         for video_id, video_title in self.extract_videos_from_page(content):
211             yield self.url_result(video_id, 'Youtube', video_id, video_title)
212
213     def extract_videos_from_page(self, page):
214         ids_in_page = []
215         titles_in_page = []
216         for mobj in re.finditer(self._VIDEO_RE, page):
217             # The link with index 0 is not the first video of the playlist (not sure if still actual)
218             if 'index' in mobj.groupdict() and mobj.group('id') == '0':
219                 continue
220             video_id = mobj.group('id')
221             video_title = unescapeHTML(mobj.group('title'))
222             if video_title:
223                 video_title = video_title.strip()
224             try:
225                 idx = ids_in_page.index(video_id)
226                 if video_title and not titles_in_page[idx]:
227                     titles_in_page[idx] = video_title
228             except ValueError:
229                 ids_in_page.append(video_id)
230                 titles_in_page.append(video_title)
231         return zip(ids_in_page, titles_in_page)
232
233
234 class YoutubePlaylistsBaseInfoExtractor(YoutubeEntryListBaseInfoExtractor):
235     def _process_page(self, content):
236         for playlist_id in orderedSet(re.findall(r'href="/?playlist\?list=([0-9A-Za-z-_]{10,})"', content)):
237             yield self.url_result(
238                 'https://www.youtube.com/playlist?list=%s' % playlist_id, 'YoutubePlaylist')
239
240     def _real_extract(self, url):
241         playlist_id = self._match_id(url)
242         webpage = self._download_webpage(url, playlist_id)
243         title = self._og_search_title(webpage, fatal=False)
244         return self.playlist_result(self._entries(webpage, playlist_id), playlist_id, title)
245
246
247 class YoutubeIE(YoutubeBaseInfoExtractor):
248     IE_DESC = 'YouTube.com'
249     _VALID_URL = r"""(?x)^
250                      (
251                          (?:https?://|//)                                    # http(s):// or protocol-independent URL
252                          (?:(?:(?:(?:\w+\.)?[yY][oO][uU][tT][uU][bB][eE](?:-nocookie)?\.com/|
253                             (?:www\.)?deturl\.com/www\.youtube\.com/|
254                             (?:www\.)?pwnyoutube\.com/|
255                             (?:www\.)?yourepeat\.com/|
256                             tube\.majestyc\.net/|
257                             youtube\.googleapis\.com/)                        # the various hostnames, with wildcard subdomains
258                          (?:.*?\#/)?                                          # handle anchor (#/) redirect urls
259                          (?:                                                  # the various things that can precede the ID:
260                              (?:(?:v|embed|e)/(?!videoseries))                # v/ or embed/ or e/
261                              |(?:                                             # or the v= param in all its forms
262                                  (?:(?:watch|movie)(?:_popup)?(?:\.php)?/?)?  # preceding watch(_popup|.php) or nothing (like /?v=xxxx)
263                                  (?:\?|\#!?)                                  # the params delimiter ? or # or #!
264                                  (?:.*?[&;])??                                # any other preceding param (like /?s=tuff&v=xxxx or ?s=tuff&amp;v=V36LpHqtcDY)
265                                  v=
266                              )
267                          ))
268                          |(?:
269                             youtu\.be|                                        # just youtu.be/xxxx
270                             vid\.plus                                         # or vid.plus/xxxx
271                          )/
272                          |(?:www\.)?cleanvideosearch\.com/media/action/yt/watch\?videoId=
273                          )
274                      )?                                                       # all until now is optional -> you can pass the naked ID
275                      ([0-9A-Za-z_-]{11})                                      # here is it! the YouTube video ID
276                      (?!.*?&list=)                                            # combined list/video URLs are handled by the playlist IE
277                      (?(1).+)?                                                # if we found the ID, everything can follow
278                      $"""
279     _NEXT_URL_RE = r'[\?&]next_url=([^&]+)'
280     _formats = {
281         '5': {'ext': 'flv', 'width': 400, 'height': 240, 'acodec': 'mp3', 'abr': 64, 'vcodec': 'h263'},
282         '6': {'ext': 'flv', 'width': 450, 'height': 270, 'acodec': 'mp3', 'abr': 64, 'vcodec': 'h263'},
283         '13': {'ext': '3gp', 'acodec': 'aac', 'vcodec': 'mp4v'},
284         '17': {'ext': '3gp', 'width': 176, 'height': 144, 'acodec': 'aac', 'abr': 24, 'vcodec': 'mp4v'},
285         '18': {'ext': 'mp4', 'width': 640, 'height': 360, 'acodec': 'aac', 'abr': 96, 'vcodec': 'h264'},
286         '22': {'ext': 'mp4', 'width': 1280, 'height': 720, 'acodec': 'aac', 'abr': 192, 'vcodec': 'h264'},
287         '34': {'ext': 'flv', 'width': 640, 'height': 360, 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264'},
288         '35': {'ext': 'flv', 'width': 854, 'height': 480, 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264'},
289         # itag 36 videos are either 320x180 (BaW_jenozKc) or 320x240 (__2ABJjxzNo), abr varies as well
290         '36': {'ext': '3gp', 'width': 320, 'acodec': 'aac', 'vcodec': 'mp4v'},
291         '37': {'ext': 'mp4', 'width': 1920, 'height': 1080, 'acodec': 'aac', 'abr': 192, 'vcodec': 'h264'},
292         '38': {'ext': 'mp4', 'width': 4096, 'height': 3072, 'acodec': 'aac', 'abr': 192, 'vcodec': 'h264'},
293         '43': {'ext': 'webm', 'width': 640, 'height': 360, 'acodec': 'vorbis', 'abr': 128, 'vcodec': 'vp8'},
294         '44': {'ext': 'webm', 'width': 854, 'height': 480, 'acodec': 'vorbis', 'abr': 128, 'vcodec': 'vp8'},
295         '45': {'ext': 'webm', 'width': 1280, 'height': 720, 'acodec': 'vorbis', 'abr': 192, 'vcodec': 'vp8'},
296         '46': {'ext': 'webm', 'width': 1920, 'height': 1080, 'acodec': 'vorbis', 'abr': 192, 'vcodec': 'vp8'},
297         '59': {'ext': 'mp4', 'width': 854, 'height': 480, 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264'},
298         '78': {'ext': 'mp4', 'width': 854, 'height': 480, 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264'},
299
300
301         # 3D videos
302         '82': {'ext': 'mp4', 'height': 360, 'format_note': '3D', 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264', 'preference': -20},
303         '83': {'ext': 'mp4', 'height': 480, 'format_note': '3D', 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264', 'preference': -20},
304         '84': {'ext': 'mp4', 'height': 720, 'format_note': '3D', 'acodec': 'aac', 'abr': 192, 'vcodec': 'h264', 'preference': -20},
305         '85': {'ext': 'mp4', 'height': 1080, 'format_note': '3D', 'acodec': 'aac', 'abr': 192, 'vcodec': 'h264', 'preference': -20},
306         '100': {'ext': 'webm', 'height': 360, 'format_note': '3D', 'acodec': 'vorbis', 'abr': 128, 'vcodec': 'vp8', 'preference': -20},
307         '101': {'ext': 'webm', 'height': 480, 'format_note': '3D', 'acodec': 'vorbis', 'abr': 192, 'vcodec': 'vp8', 'preference': -20},
308         '102': {'ext': 'webm', 'height': 720, 'format_note': '3D', 'acodec': 'vorbis', 'abr': 192, 'vcodec': 'vp8', 'preference': -20},
309
310         # Apple HTTP Live Streaming
311         '92': {'ext': 'mp4', 'height': 240, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 48, 'vcodec': 'h264', 'preference': -10},
312         '93': {'ext': 'mp4', 'height': 360, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264', 'preference': -10},
313         '94': {'ext': 'mp4', 'height': 480, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 128, 'vcodec': 'h264', 'preference': -10},
314         '95': {'ext': 'mp4', 'height': 720, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 256, 'vcodec': 'h264', 'preference': -10},
315         '96': {'ext': 'mp4', 'height': 1080, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 256, 'vcodec': 'h264', 'preference': -10},
316         '132': {'ext': 'mp4', 'height': 240, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 48, 'vcodec': 'h264', 'preference': -10},
317         '151': {'ext': 'mp4', 'height': 72, 'format_note': 'HLS', 'acodec': 'aac', 'abr': 24, 'vcodec': 'h264', 'preference': -10},
318
319         # DASH mp4 video
320         '133': {'ext': 'mp4', 'height': 240, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
321         '134': {'ext': 'mp4', 'height': 360, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
322         '135': {'ext': 'mp4', 'height': 480, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
323         '136': {'ext': 'mp4', 'height': 720, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
324         '137': {'ext': 'mp4', 'height': 1080, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
325         '138': {'ext': 'mp4', 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},  # Height can vary (https://github.com/rg3/youtube-dl/issues/4559)
326         '160': {'ext': 'mp4', 'height': 144, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
327         '264': {'ext': 'mp4', 'height': 1440, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
328         '298': {'ext': 'mp4', 'height': 720, 'format_note': 'DASH video', 'vcodec': 'h264', 'fps': 60, 'preference': -40},
329         '299': {'ext': 'mp4', 'height': 1080, 'format_note': 'DASH video', 'vcodec': 'h264', 'fps': 60, 'preference': -40},
330         '266': {'ext': 'mp4', 'height': 2160, 'format_note': 'DASH video', 'vcodec': 'h264', 'preference': -40},
331
332         # Dash mp4 audio
333         '139': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'abr': 48, 'preference': -50, 'container': 'm4a_dash'},
334         '140': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'abr': 128, 'preference': -50, 'container': 'm4a_dash'},
335         '141': {'ext': 'm4a', 'format_note': 'DASH audio', 'acodec': 'aac', 'abr': 256, 'preference': -50, 'container': 'm4a_dash'},
336
337         # Dash webm
338         '167': {'ext': 'webm', 'height': 360, 'width': 640, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
339         '168': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
340         '169': {'ext': 'webm', 'height': 720, 'width': 1280, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
341         '170': {'ext': 'webm', 'height': 1080, 'width': 1920, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
342         '218': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
343         '219': {'ext': 'webm', 'height': 480, 'width': 854, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp8', 'preference': -40},
344         '278': {'ext': 'webm', 'height': 144, 'format_note': 'DASH video', 'container': 'webm', 'vcodec': 'vp9', 'preference': -40},
345         '242': {'ext': 'webm', 'height': 240, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
346         '243': {'ext': 'webm', 'height': 360, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
347         '244': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
348         '245': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
349         '246': {'ext': 'webm', 'height': 480, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
350         '247': {'ext': 'webm', 'height': 720, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
351         '248': {'ext': 'webm', 'height': 1080, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
352         '271': {'ext': 'webm', 'height': 1440, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
353         # itag 272 videos are either 3840x2160 (e.g. RtoitU2A-3E) or 7680x4320 (sLprVF6d7Ug)
354         '272': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
355         '302': {'ext': 'webm', 'height': 720, 'format_note': 'DASH video', 'vcodec': 'vp9', 'fps': 60, 'preference': -40},
356         '303': {'ext': 'webm', 'height': 1080, 'format_note': 'DASH video', 'vcodec': 'vp9', 'fps': 60, 'preference': -40},
357         '308': {'ext': 'webm', 'height': 1440, 'format_note': 'DASH video', 'vcodec': 'vp9', 'fps': 60, 'preference': -40},
358         '313': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'vcodec': 'vp9', 'preference': -40},
359         '315': {'ext': 'webm', 'height': 2160, 'format_note': 'DASH video', 'vcodec': 'vp9', 'fps': 60, 'preference': -40},
360
361         # Dash webm audio
362         '171': {'ext': 'webm', 'acodec': 'vorbis', 'format_note': 'DASH audio', 'abr': 128, 'preference': -50},
363         '172': {'ext': 'webm', 'acodec': 'vorbis', 'format_note': 'DASH audio', 'abr': 256, 'preference': -50},
364
365         # Dash webm audio with opus inside
366         '249': {'ext': 'webm', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 50, 'preference': -50},
367         '250': {'ext': 'webm', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 70, 'preference': -50},
368         '251': {'ext': 'webm', 'format_note': 'DASH audio', 'acodec': 'opus', 'abr': 160, 'preference': -50},
369
370         # RTMP (unnamed)
371         '_rtmp': {'protocol': 'rtmp'},
372     }
373     _SUBTITLE_FORMATS = ('ttml', 'vtt')
374
375     IE_NAME = 'youtube'
376     _TESTS = [
377         {
378             'url': 'http://www.youtube.com/watch?v=BaW_jenozKc&t=1s&end=9',
379             'info_dict': {
380                 'id': 'BaW_jenozKc',
381                 'ext': 'mp4',
382                 'title': 'youtube-dl test video "\'/\\ä↭𝕐',
383                 'uploader': 'Philipp Hagemeister',
384                 'uploader_id': 'phihag',
385                 'upload_date': '20121002',
386                 'description': 'test chars:  "\'/\\ä↭𝕐\ntest URL: https://github.com/rg3/youtube-dl/issues/1892\n\nThis is a test video for youtube-dl.\n\nFor more information, contact phihag@phihag.de .',
387                 'categories': ['Science & Technology'],
388                 'tags': ['youtube-dl'],
389                 'like_count': int,
390                 'dislike_count': int,
391                 'start_time': 1,
392                 'end_time': 9,
393             }
394         },
395         {
396             'url': 'http://www.youtube.com/watch?v=UxxajLWwzqY',
397             'note': 'Test generic use_cipher_signature video (#897)',
398             'info_dict': {
399                 'id': 'UxxajLWwzqY',
400                 'ext': 'mp4',
401                 'upload_date': '20120506',
402                 'title': 'Icona Pop - I Love It (feat. Charli XCX) [OFFICIAL VIDEO]',
403                 'alt_title': 'I Love It (feat. Charli XCX)',
404                 'description': 'md5:782e8651347686cba06e58f71ab51773',
405                 'tags': ['Icona Pop i love it', 'sweden', 'pop music', 'big beat records', 'big beat', 'charli',
406                          'xcx', 'charli xcx', 'girls', 'hbo', 'i love it', "i don't care", 'icona', 'pop',
407                          'iconic ep', 'iconic', 'love', 'it'],
408                 'uploader': 'Icona Pop',
409                 'uploader_id': 'IconaPop',
410                 'creator': 'Icona Pop',
411             }
412         },
413         {
414             'url': 'https://www.youtube.com/watch?v=07FYdnEawAQ',
415             'note': 'Test VEVO video with age protection (#956)',
416             'info_dict': {
417                 'id': '07FYdnEawAQ',
418                 'ext': 'mp4',
419                 'upload_date': '20130703',
420                 'title': 'Justin Timberlake - Tunnel Vision (Explicit)',
421                 'alt_title': 'Tunnel Vision',
422                 'description': 'md5:64249768eec3bc4276236606ea996373',
423                 'uploader': 'justintimberlakeVEVO',
424                 'uploader_id': 'justintimberlakeVEVO',
425                 'creator': 'Justin Timberlake',
426                 'age_limit': 18,
427             }
428         },
429         {
430             'url': '//www.YouTube.com/watch?v=yZIXLfi8CZQ',
431             'note': 'Embed-only video (#1746)',
432             'info_dict': {
433                 'id': 'yZIXLfi8CZQ',
434                 'ext': 'mp4',
435                 'upload_date': '20120608',
436                 'title': 'Principal Sexually Assaults A Teacher - Episode 117 - 8th June 2012',
437                 'description': 'md5:09b78bd971f1e3e289601dfba15ca4f7',
438                 'uploader': 'SET India',
439                 'uploader_id': 'setindia',
440                 'age_limit': 18,
441             }
442         },
443         {
444             'url': 'http://www.youtube.com/watch?v=BaW_jenozKc&v=UxxajLWwzqY',
445             'note': 'Use the first video ID in the URL',
446             'info_dict': {
447                 'id': 'BaW_jenozKc',
448                 'ext': 'mp4',
449                 'title': 'youtube-dl test video "\'/\\ä↭𝕐',
450                 'uploader': 'Philipp Hagemeister',
451                 'uploader_id': 'phihag',
452                 'upload_date': '20121002',
453                 'description': 'test chars:  "\'/\\ä↭𝕐\ntest URL: https://github.com/rg3/youtube-dl/issues/1892\n\nThis is a test video for youtube-dl.\n\nFor more information, contact phihag@phihag.de .',
454                 'categories': ['Science & Technology'],
455                 'tags': ['youtube-dl'],
456                 'like_count': int,
457                 'dislike_count': int,
458             },
459             'params': {
460                 'skip_download': True,
461             },
462         },
463         {
464             'url': 'http://www.youtube.com/watch?v=a9LDPn-MO4I',
465             'note': '256k DASH audio (format 141) via DASH manifest',
466             'info_dict': {
467                 'id': 'a9LDPn-MO4I',
468                 'ext': 'm4a',
469                 'upload_date': '20121002',
470                 'uploader_id': '8KVIDEO',
471                 'description': '',
472                 'uploader': '8KVIDEO',
473                 'title': 'UHDTV TEST 8K VIDEO.mp4'
474             },
475             'params': {
476                 'youtube_include_dash_manifest': True,
477                 'format': '141',
478             },
479         },
480         # DASH manifest with encrypted signature
481         {
482             'url': 'https://www.youtube.com/watch?v=IB3lcPjvWLA',
483             'info_dict': {
484                 'id': 'IB3lcPjvWLA',
485                 'ext': 'm4a',
486                 'title': 'Afrojack, Spree Wilson - The Spark ft. Spree Wilson',
487                 'description': 'md5:12e7067fa6735a77bdcbb58cb1187d2d',
488                 'uploader': 'AfrojackVEVO',
489                 'uploader_id': 'AfrojackVEVO',
490                 'upload_date': '20131011',
491             },
492             'params': {
493                 'youtube_include_dash_manifest': True,
494                 'format': '141',
495             },
496         },
497         # JS player signature function name containing $
498         {
499             'url': 'https://www.youtube.com/watch?v=nfWlot6h_JM',
500             'info_dict': {
501                 'id': 'nfWlot6h_JM',
502                 'ext': 'm4a',
503                 'title': 'Taylor Swift - Shake It Off',
504                 'alt_title': 'Shake It Off',
505                 'description': 'md5:95f66187cd7c8b2c13eb78e1223b63c3',
506                 'uploader': 'TaylorSwiftVEVO',
507                 'uploader_id': 'TaylorSwiftVEVO',
508                 'upload_date': '20140818',
509                 'creator': 'Taylor Swift',
510             },
511             'params': {
512                 'youtube_include_dash_manifest': True,
513                 'format': '141',
514             },
515         },
516         # Controversy video
517         {
518             'url': 'https://www.youtube.com/watch?v=T4XJQO3qol8',
519             'info_dict': {
520                 'id': 'T4XJQO3qol8',
521                 'ext': 'mp4',
522                 'upload_date': '20100909',
523                 'uploader': 'The Amazing Atheist',
524                 'uploader_id': 'TheAmazingAtheist',
525                 'title': 'Burning Everyone\'s Koran',
526                 'description': 'SUBSCRIBE: http://www.youtube.com/saturninefilms\n\nEven Obama has taken a stand against freedom on this issue: http://www.huffingtonpost.com/2010/09/09/obama-gma-interview-quran_n_710282.html',
527             }
528         },
529         # Normal age-gate video (No vevo, embed allowed)
530         {
531             'url': 'http://youtube.com/watch?v=HtVdAasjOgU',
532             'info_dict': {
533                 'id': 'HtVdAasjOgU',
534                 'ext': 'mp4',
535                 'title': 'The Witcher 3: Wild Hunt - The Sword Of Destiny Trailer',
536                 'description': 're:(?s).{100,}About the Game\n.*?The Witcher 3: Wild Hunt.{100,}',
537                 'uploader': 'The Witcher',
538                 'uploader_id': 'WitcherGame',
539                 'upload_date': '20140605',
540                 'age_limit': 18,
541             },
542         },
543         # Age-gate video with encrypted signature
544         {
545             'url': 'http://www.youtube.com/watch?v=6kLq3WMV1nU',
546             'info_dict': {
547                 'id': '6kLq3WMV1nU',
548                 'ext': 'mp4',
549                 'title': 'Dedication To My Ex (Miss That) (Lyric Video)',
550                 'description': 'md5:33765bb339e1b47e7e72b5490139bb41',
551                 'uploader': 'LloydVEVO',
552                 'uploader_id': 'LloydVEVO',
553                 'upload_date': '20110629',
554                 'age_limit': 18,
555             },
556         },
557         # video_info is None (https://github.com/rg3/youtube-dl/issues/4421)
558         {
559             'url': '__2ABJjxzNo',
560             'info_dict': {
561                 'id': '__2ABJjxzNo',
562                 'ext': 'mp4',
563                 'upload_date': '20100430',
564                 'uploader_id': 'deadmau5',
565                 'creator': 'deadmau5',
566                 'description': 'md5:12c56784b8032162bb936a5f76d55360',
567                 'uploader': 'deadmau5',
568                 'title': 'Deadmau5 - Some Chords (HD)',
569                 'alt_title': 'Some Chords',
570             },
571             'expected_warnings': [
572                 'DASH manifest missing',
573             ]
574         },
575         # Olympics (https://github.com/rg3/youtube-dl/issues/4431)
576         {
577             'url': 'lqQg6PlCWgI',
578             'info_dict': {
579                 'id': 'lqQg6PlCWgI',
580                 'ext': 'mp4',
581                 'upload_date': '20150827',
582                 'uploader_id': 'olympic',
583                 'description': 'HO09  - Women -  GER-AUS - Hockey - 31 July 2012 - London 2012 Olympic Games',
584                 'uploader': 'Olympics',
585                 'title': 'Hockey - Women -  GER-AUS - London 2012 Olympic Games',
586             },
587             'params': {
588                 'skip_download': 'requires avconv',
589             }
590         },
591         # Non-square pixels
592         {
593             'url': 'https://www.youtube.com/watch?v=_b-2C3KPAM0',
594             'info_dict': {
595                 'id': '_b-2C3KPAM0',
596                 'ext': 'mp4',
597                 'stretched_ratio': 16 / 9.,
598                 'upload_date': '20110310',
599                 'uploader_id': 'AllenMeow',
600                 'description': 'made by Wacom from Korea | 字幕&加油添醋 by TY\'s Allen | 感謝heylisa00cavey1001同學熱情提供梗及翻譯',
601                 'uploader': '孫艾倫',
602                 'title': '[A-made] 變態妍字幕版 太妍 我就是這樣的人',
603             },
604         },
605         # url_encoded_fmt_stream_map is empty string
606         {
607             'url': 'qEJwOuvDf7I',
608             'info_dict': {
609                 'id': 'qEJwOuvDf7I',
610                 'ext': 'webm',
611                 'title': 'Обсуждение судебной практики по выборам 14 сентября 2014 года в Санкт-Петербурге',
612                 'description': '',
613                 'upload_date': '20150404',
614                 'uploader_id': 'spbelect',
615                 'uploader': 'Наблюдатели Петербурга',
616             },
617             'params': {
618                 'skip_download': 'requires avconv',
619             },
620             'skip': 'This live event has ended.',
621         },
622         # Extraction from multiple DASH manifests (https://github.com/rg3/youtube-dl/pull/6097)
623         {
624             'url': 'https://www.youtube.com/watch?v=FIl7x6_3R5Y',
625             'info_dict': {
626                 'id': 'FIl7x6_3R5Y',
627                 'ext': 'mp4',
628                 'title': 'md5:7b81415841e02ecd4313668cde88737a',
629                 'description': 'md5:116377fd2963b81ec4ce64b542173306',
630                 'upload_date': '20150625',
631                 'uploader_id': 'dorappi2000',
632                 'uploader': 'dorappi2000',
633                 'formats': 'mincount:33',
634             },
635         },
636         # DASH manifest with segment_list
637         {
638             'url': 'https://www.youtube.com/embed/CsmdDsKjzN8',
639             'md5': '8ce563a1d667b599d21064e982ab9e31',
640             'info_dict': {
641                 'id': 'CsmdDsKjzN8',
642                 'ext': 'mp4',
643                 'upload_date': '20150501',  # According to '<meta itemprop="datePublished"', but in other places it's 20150510
644                 'uploader': 'Airtek',
645                 'description': 'Retransmisión en directo de la XVIII media maratón de Zaragoza.',
646                 'uploader_id': 'UCzTzUmjXxxacNnL8I3m4LnQ',
647                 'title': 'Retransmisión XVIII Media maratón Zaragoza 2015',
648             },
649             'params': {
650                 'youtube_include_dash_manifest': True,
651                 'format': '135',  # bestvideo
652             }
653         },
654         {
655             # Multifeed videos (multiple cameras), URL is for Main Camera
656             'url': 'https://www.youtube.com/watch?v=jqWvoWXjCVs',
657             'info_dict': {
658                 'id': 'jqWvoWXjCVs',
659                 'title': 'teamPGP: Rocket League Noob Stream',
660                 'description': 'md5:dc7872fb300e143831327f1bae3af010',
661             },
662             'playlist': [{
663                 'info_dict': {
664                     'id': 'jqWvoWXjCVs',
665                     'ext': 'mp4',
666                     'title': 'teamPGP: Rocket League Noob Stream (Main Camera)',
667                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
668                     'upload_date': '20150721',
669                     'uploader': 'Beer Games Beer',
670                     'uploader_id': 'beergamesbeer',
671                 },
672             }, {
673                 'info_dict': {
674                     'id': '6h8e8xoXJzg',
675                     'ext': 'mp4',
676                     'title': 'teamPGP: Rocket League Noob Stream (kreestuh)',
677                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
678                     'upload_date': '20150721',
679                     'uploader': 'Beer Games Beer',
680                     'uploader_id': 'beergamesbeer',
681                 },
682             }, {
683                 'info_dict': {
684                     'id': 'PUOgX5z9xZw',
685                     'ext': 'mp4',
686                     'title': 'teamPGP: Rocket League Noob Stream (grizzle)',
687                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
688                     'upload_date': '20150721',
689                     'uploader': 'Beer Games Beer',
690                     'uploader_id': 'beergamesbeer',
691                 },
692             }, {
693                 'info_dict': {
694                     'id': 'teuwxikvS5k',
695                     'ext': 'mp4',
696                     'title': 'teamPGP: Rocket League Noob Stream (zim)',
697                     'description': 'md5:dc7872fb300e143831327f1bae3af010',
698                     'upload_date': '20150721',
699                     'uploader': 'Beer Games Beer',
700                     'uploader_id': 'beergamesbeer',
701                 },
702             }],
703             'params': {
704                 'skip_download': True,
705             },
706         },
707         {
708             'url': 'http://vid.plus/FlRa-iH7PGw',
709             'only_matching': True,
710         },
711         {
712             # Title with JS-like syntax "};" (see https://github.com/rg3/youtube-dl/issues/7468)
713             # Also tests cut-off URL expansion in video description (see
714             # https://github.com/rg3/youtube-dl/issues/1892,
715             # https://github.com/rg3/youtube-dl/issues/8164)
716             'url': 'https://www.youtube.com/watch?v=lsguqyKfVQg',
717             'info_dict': {
718                 'id': 'lsguqyKfVQg',
719                 'ext': 'mp4',
720                 'title': '{dark walk}; Loki/AC/Dishonored; collab w/Elflover21',
721                 'alt_title': 'Dark Walk',
722                 'description': 'md5:8085699c11dc3f597ce0410b0dcbb34a',
723                 'upload_date': '20151119',
724                 'uploader_id': 'IronSoulElf',
725                 'uploader': 'IronSoulElf',
726                 'creator': 'Todd Haberman, Daniel Law Heath & Aaron Kaplan',
727             },
728             'params': {
729                 'skip_download': True,
730             },
731         },
732         {
733             # Tags with '};' (see https://github.com/rg3/youtube-dl/issues/7468)
734             'url': 'https://www.youtube.com/watch?v=Ms7iBXnlUO8',
735             'only_matching': True,
736         },
737         {
738             # Video with yt:stretch=17:0
739             'url': 'https://www.youtube.com/watch?v=Q39EVAstoRM',
740             'info_dict': {
741                 'id': 'Q39EVAstoRM',
742                 'ext': 'mp4',
743                 'title': 'Clash Of Clans#14 Dicas De Ataque Para CV 4',
744                 'description': 'md5:ee18a25c350637c8faff806845bddee9',
745                 'upload_date': '20151107',
746                 'uploader_id': 'UCCr7TALkRbo3EtFzETQF1LA',
747                 'uploader': 'CH GAMER DROID',
748             },
749             'params': {
750                 'skip_download': True,
751             },
752         },
753         {
754             'url': 'https://www.youtube.com/watch?feature=player_embedded&amp;amp;v=V36LpHqtcDY',
755             'only_matching': True,
756         }
757     ]
758
759     def __init__(self, *args, **kwargs):
760         super(YoutubeIE, self).__init__(*args, **kwargs)
761         self._player_cache = {}
762
763     def report_video_info_webpage_download(self, video_id):
764         """Report attempt to download video info webpage."""
765         self.to_screen('%s: Downloading video info webpage' % video_id)
766
767     def report_information_extraction(self, video_id):
768         """Report attempt to extract video information."""
769         self.to_screen('%s: Extracting video information' % video_id)
770
771     def report_unavailable_format(self, video_id, format):
772         """Report extracted video URL."""
773         self.to_screen('%s: Format %s not available' % (video_id, format))
774
775     def report_rtmp_download(self):
776         """Indicate the download will use the RTMP protocol."""
777         self.to_screen('RTMP download detected')
778
779     def _signature_cache_id(self, example_sig):
780         """ Return a string representation of a signature """
781         return '.'.join(compat_str(len(part)) for part in example_sig.split('.'))
782
783     def _extract_signature_function(self, video_id, player_url, example_sig):
784         id_m = re.match(
785             r'.*?-(?P<id>[a-zA-Z0-9_-]+)(?:/watch_as3|/html5player(?:-new)?|/base)?\.(?P<ext>[a-z]+)$',
786             player_url)
787         if not id_m:
788             raise ExtractorError('Cannot identify player %r' % player_url)
789         player_type = id_m.group('ext')
790         player_id = id_m.group('id')
791
792         # Read from filesystem cache
793         func_id = '%s_%s_%s' % (
794             player_type, player_id, self._signature_cache_id(example_sig))
795         assert os.path.basename(func_id) == func_id
796
797         cache_spec = self._downloader.cache.load('youtube-sigfuncs', func_id)
798         if cache_spec is not None:
799             return lambda s: ''.join(s[i] for i in cache_spec)
800
801         download_note = (
802             'Downloading player %s' % player_url
803             if self._downloader.params.get('verbose') else
804             'Downloading %s player %s' % (player_type, player_id)
805         )
806         if player_type == 'js':
807             code = self._download_webpage(
808                 player_url, video_id,
809                 note=download_note,
810                 errnote='Download of %s failed' % player_url)
811             res = self._parse_sig_js(code)
812         elif player_type == 'swf':
813             urlh = self._request_webpage(
814                 player_url, video_id,
815                 note=download_note,
816                 errnote='Download of %s failed' % player_url)
817             code = urlh.read()
818             res = self._parse_sig_swf(code)
819         else:
820             assert False, 'Invalid player type %r' % player_type
821
822         test_string = ''.join(map(compat_chr, range(len(example_sig))))
823         cache_res = res(test_string)
824         cache_spec = [ord(c) for c in cache_res]
825
826         self._downloader.cache.store('youtube-sigfuncs', func_id, cache_spec)
827         return res
828
829     def _print_sig_code(self, func, example_sig):
830         def gen_sig_code(idxs):
831             def _genslice(start, end, step):
832                 starts = '' if start == 0 else str(start)
833                 ends = (':%d' % (end + step)) if end + step >= 0 else ':'
834                 steps = '' if step == 1 else (':%d' % step)
835                 return 's[%s%s%s]' % (starts, ends, steps)
836
837             step = None
838             # Quelch pyflakes warnings - start will be set when step is set
839             start = '(Never used)'
840             for i, prev in zip(idxs[1:], idxs[:-1]):
841                 if step is not None:
842                     if i - prev == step:
843                         continue
844                     yield _genslice(start, prev, step)
845                     step = None
846                     continue
847                 if i - prev in [-1, 1]:
848                     step = i - prev
849                     start = prev
850                     continue
851                 else:
852                     yield 's[%d]' % prev
853             if step is None:
854                 yield 's[%d]' % i
855             else:
856                 yield _genslice(start, i, step)
857
858         test_string = ''.join(map(compat_chr, range(len(example_sig))))
859         cache_res = func(test_string)
860         cache_spec = [ord(c) for c in cache_res]
861         expr_code = ' + '.join(gen_sig_code(cache_spec))
862         signature_id_tuple = '(%s)' % (
863             ', '.join(compat_str(len(p)) for p in example_sig.split('.')))
864         code = ('if tuple(len(p) for p in s.split(\'.\')) == %s:\n'
865                 '    return %s\n') % (signature_id_tuple, expr_code)
866         self.to_screen('Extracted signature function:\n' + code)
867
868     def _parse_sig_js(self, jscode):
869         funcname = self._search_regex(
870             r'\.sig\|\|([a-zA-Z0-9$]+)\(', jscode,
871             'Initial JS player signature function name')
872
873         jsi = JSInterpreter(jscode)
874         initial_function = jsi.extract_function(funcname)
875         return lambda s: initial_function([s])
876
877     def _parse_sig_swf(self, file_contents):
878         swfi = SWFInterpreter(file_contents)
879         TARGET_CLASSNAME = 'SignatureDecipher'
880         searched_class = swfi.extract_class(TARGET_CLASSNAME)
881         initial_function = swfi.extract_function(searched_class, 'decipher')
882         return lambda s: initial_function([s])
883
884     def _decrypt_signature(self, s, video_id, player_url, age_gate=False):
885         """Turn the encrypted s field into a working signature"""
886
887         if player_url is None:
888             raise ExtractorError('Cannot decrypt signature without player_url')
889
890         if player_url.startswith('//'):
891             player_url = 'https:' + player_url
892         try:
893             player_id = (player_url, self._signature_cache_id(s))
894             if player_id not in self._player_cache:
895                 func = self._extract_signature_function(
896                     video_id, player_url, s
897                 )
898                 self._player_cache[player_id] = func
899             func = self._player_cache[player_id]
900             if self._downloader.params.get('youtube_print_sig_code'):
901                 self._print_sig_code(func, s)
902             return func(s)
903         except Exception as e:
904             tb = traceback.format_exc()
905             raise ExtractorError(
906                 'Signature extraction failed: ' + tb, cause=e)
907
908     def _get_subtitles(self, video_id, webpage):
909         try:
910             subs_doc = self._download_xml(
911                 'https://video.google.com/timedtext?hl=en&type=list&v=%s' % video_id,
912                 video_id, note=False)
913         except ExtractorError as err:
914             self._downloader.report_warning('unable to download video subtitles: %s' % error_to_compat_str(err))
915             return {}
916
917         sub_lang_list = {}
918         for track in subs_doc.findall('track'):
919             lang = track.attrib['lang_code']
920             if lang in sub_lang_list:
921                 continue
922             sub_formats = []
923             for ext in self._SUBTITLE_FORMATS:
924                 params = compat_urllib_parse.urlencode({
925                     'lang': lang,
926                     'v': video_id,
927                     'fmt': ext,
928                     'name': track.attrib['name'].encode('utf-8'),
929                 })
930                 sub_formats.append({
931                     'url': 'https://www.youtube.com/api/timedtext?' + params,
932                     'ext': ext,
933                 })
934             sub_lang_list[lang] = sub_formats
935         if not sub_lang_list:
936             self._downloader.report_warning('video doesn\'t have subtitles')
937             return {}
938         return sub_lang_list
939
940     def _get_ytplayer_config(self, video_id, webpage):
941         patterns = (
942             # User data may contain arbitrary character sequences that may affect
943             # JSON extraction with regex, e.g. when '};' is contained the second
944             # regex won't capture the whole JSON. Yet working around by trying more
945             # concrete regex first keeping in mind proper quoted string handling
946             # to be implemented in future that will replace this workaround (see
947             # https://github.com/rg3/youtube-dl/issues/7468,
948             # https://github.com/rg3/youtube-dl/pull/7599)
949             r';ytplayer\.config\s*=\s*({.+?});ytplayer',
950             r';ytplayer\.config\s*=\s*({.+?});',
951         )
952         config = self._search_regex(
953             patterns, webpage, 'ytplayer.config', default=None)
954         if config:
955             return self._parse_json(
956                 uppercase_escape(config), video_id, fatal=False)
957
958     def _get_automatic_captions(self, video_id, webpage):
959         """We need the webpage for getting the captions url, pass it as an
960            argument to speed up the process."""
961         self.to_screen('%s: Looking for automatic captions' % video_id)
962         player_config = self._get_ytplayer_config(video_id, webpage)
963         err_msg = 'Couldn\'t find automatic captions for %s' % video_id
964         if not player_config:
965             self._downloader.report_warning(err_msg)
966             return {}
967         try:
968             args = player_config['args']
969             caption_url = args['ttsurl']
970             if not caption_url:
971                 self._downloader.report_warning(err_msg)
972                 return {}
973             timestamp = args['timestamp']
974             # We get the available subtitles
975             list_params = compat_urllib_parse.urlencode({
976                 'type': 'list',
977                 'tlangs': 1,
978                 'asrs': 1,
979             })
980             list_url = caption_url + '&' + list_params
981             caption_list = self._download_xml(list_url, video_id)
982             original_lang_node = caption_list.find('track')
983             if original_lang_node is None:
984                 self._downloader.report_warning('Video doesn\'t have automatic captions')
985                 return {}
986             original_lang = original_lang_node.attrib['lang_code']
987             caption_kind = original_lang_node.attrib.get('kind', '')
988
989             sub_lang_list = {}
990             for lang_node in caption_list.findall('target'):
991                 sub_lang = lang_node.attrib['lang_code']
992                 sub_formats = []
993                 for ext in self._SUBTITLE_FORMATS:
994                     params = compat_urllib_parse.urlencode({
995                         'lang': original_lang,
996                         'tlang': sub_lang,
997                         'fmt': ext,
998                         'ts': timestamp,
999                         'kind': caption_kind,
1000                     })
1001                     sub_formats.append({
1002                         'url': caption_url + '&' + params,
1003                         'ext': ext,
1004                     })
1005                 sub_lang_list[sub_lang] = sub_formats
1006             return sub_lang_list
1007         # An extractor error can be raise by the download process if there are
1008         # no automatic captions but there are subtitles
1009         except (KeyError, ExtractorError):
1010             self._downloader.report_warning(err_msg)
1011             return {}
1012
1013     @classmethod
1014     def extract_id(cls, url):
1015         mobj = re.match(cls._VALID_URL, url, re.VERBOSE)
1016         if mobj is None:
1017             raise ExtractorError('Invalid URL: %s' % url)
1018         video_id = mobj.group(2)
1019         return video_id
1020
1021     def _extract_from_m3u8(self, manifest_url, video_id):
1022         url_map = {}
1023
1024         def _get_urls(_manifest):
1025             lines = _manifest.split('\n')
1026             urls = filter(lambda l: l and not l.startswith('#'),
1027                           lines)
1028             return urls
1029         manifest = self._download_webpage(manifest_url, video_id, 'Downloading formats manifest')
1030         formats_urls = _get_urls(manifest)
1031         for format_url in formats_urls:
1032             itag = self._search_regex(r'itag/(\d+?)/', format_url, 'itag')
1033             url_map[itag] = format_url
1034         return url_map
1035
1036     def _extract_annotations(self, video_id):
1037         url = 'https://www.youtube.com/annotations_invideo?features=1&legacy=1&video_id=%s' % video_id
1038         return self._download_webpage(url, video_id, note='Searching for annotations.', errnote='Unable to download video annotations.')
1039
1040     def _real_extract(self, url):
1041         url, smuggled_data = unsmuggle_url(url, {})
1042
1043         proto = (
1044             'http' if self._downloader.params.get('prefer_insecure', False)
1045             else 'https')
1046
1047         start_time = None
1048         end_time = None
1049         parsed_url = compat_urllib_parse_urlparse(url)
1050         for component in [parsed_url.fragment, parsed_url.query]:
1051             query = compat_parse_qs(component)
1052             if start_time is None and 't' in query:
1053                 start_time = parse_duration(query['t'][0])
1054             if start_time is None and 'start' in query:
1055                 start_time = parse_duration(query['start'][0])
1056             if end_time is None and 'end' in query:
1057                 end_time = parse_duration(query['end'][0])
1058
1059         # Extract original video URL from URL with redirection, like age verification, using next_url parameter
1060         mobj = re.search(self._NEXT_URL_RE, url)
1061         if mobj:
1062             url = proto + '://www.youtube.com/' + compat_urllib_parse_unquote(mobj.group(1)).lstrip('/')
1063         video_id = self.extract_id(url)
1064
1065         # Get video webpage
1066         url = proto + '://www.youtube.com/watch?v=%s&gl=US&hl=en&has_verified=1&bpctr=9999999999' % video_id
1067         video_webpage = self._download_webpage(url, video_id)
1068
1069         # Attempt to extract SWF player URL
1070         mobj = re.search(r'swfConfig.*?"(https?:\\/\\/.*?watch.*?-.*?\.swf)"', video_webpage)
1071         if mobj is not None:
1072             player_url = re.sub(r'\\(.)', r'\1', mobj.group(1))
1073         else:
1074             player_url = None
1075
1076         dash_mpds = []
1077
1078         def add_dash_mpd(video_info):
1079             dash_mpd = video_info.get('dashmpd')
1080             if dash_mpd and dash_mpd[0] not in dash_mpds:
1081                 dash_mpds.append(dash_mpd[0])
1082
1083         # Get video info
1084         embed_webpage = None
1085         is_live = None
1086         if re.search(r'player-age-gate-content">', video_webpage) is not None:
1087             age_gate = True
1088             # We simulate the access to the video from www.youtube.com/v/{video_id}
1089             # this can be viewed without login into Youtube
1090             url = proto + '://www.youtube.com/embed/%s' % video_id
1091             embed_webpage = self._download_webpage(url, video_id, 'Downloading embed webpage')
1092             data = compat_urllib_parse.urlencode({
1093                 'video_id': video_id,
1094                 'eurl': 'https://youtube.googleapis.com/v/' + video_id,
1095                 'sts': self._search_regex(
1096                     r'"sts"\s*:\s*(\d+)', embed_webpage, 'sts', default=''),
1097             })
1098             video_info_url = proto + '://www.youtube.com/get_video_info?' + data
1099             video_info_webpage = self._download_webpage(
1100                 video_info_url, video_id,
1101                 note='Refetching age-gated info webpage',
1102                 errnote='unable to download video info webpage')
1103             video_info = compat_parse_qs(video_info_webpage)
1104             add_dash_mpd(video_info)
1105         else:
1106             age_gate = False
1107             video_info = None
1108             # Try looking directly into the video webpage
1109             ytplayer_config = self._get_ytplayer_config(video_id, video_webpage)
1110             if ytplayer_config:
1111                 args = ytplayer_config['args']
1112                 if args.get('url_encoded_fmt_stream_map'):
1113                     # Convert to the same format returned by compat_parse_qs
1114                     video_info = dict((k, [v]) for k, v in args.items())
1115                     add_dash_mpd(video_info)
1116                 if args.get('livestream') == '1' or args.get('live_playback') == 1:
1117                     is_live = True
1118             if not video_info or self._downloader.params.get('youtube_include_dash_manifest', True):
1119                 # We also try looking in get_video_info since it may contain different dashmpd
1120                 # URL that points to a DASH manifest with possibly different itag set (some itags
1121                 # are missing from DASH manifest pointed by webpage's dashmpd, some - from DASH
1122                 # manifest pointed by get_video_info's dashmpd).
1123                 # The general idea is to take a union of itags of both DASH manifests (for example
1124                 # video with such 'manifest behavior' see https://github.com/rg3/youtube-dl/issues/6093)
1125                 self.report_video_info_webpage_download(video_id)
1126                 for el_type in ['&el=info', '&el=embedded', '&el=detailpage', '&el=vevo', '']:
1127                     video_info_url = (
1128                         '%s://www.youtube.com/get_video_info?&video_id=%s%s&ps=default&eurl=&gl=US&hl=en'
1129                         % (proto, video_id, el_type))
1130                     video_info_webpage = self._download_webpage(
1131                         video_info_url,
1132                         video_id, note=False,
1133                         errnote='unable to download video info webpage')
1134                     get_video_info = compat_parse_qs(video_info_webpage)
1135                     if get_video_info.get('use_cipher_signature') != ['True']:
1136                         add_dash_mpd(get_video_info)
1137                     if not video_info:
1138                         video_info = get_video_info
1139                     if 'token' in get_video_info:
1140                         # Different get_video_info requests may report different results, e.g.
1141                         # some may report video unavailability, but some may serve it without
1142                         # any complaint (see https://github.com/rg3/youtube-dl/issues/7362,
1143                         # the original webpage as well as el=info and el=embedded get_video_info
1144                         # requests report video unavailability due to geo restriction while
1145                         # el=detailpage succeeds and returns valid data). This is probably
1146                         # due to YouTube measures against IP ranges of hosting providers.
1147                         # Working around by preferring the first succeeded video_info containing
1148                         # the token if no such video_info yet was found.
1149                         if 'token' not in video_info:
1150                             video_info = get_video_info
1151                         break
1152         if 'token' not in video_info:
1153             if 'reason' in video_info:
1154                 if 'The uploader has not made this video available in your country.' in video_info['reason']:
1155                     regions_allowed = self._html_search_meta('regionsAllowed', video_webpage, default=None)
1156                     if regions_allowed:
1157                         raise ExtractorError('YouTube said: This video is available in %s only' % (
1158                             ', '.join(map(ISO3166Utils.short2full, regions_allowed.split(',')))),
1159                             expected=True)
1160                 raise ExtractorError(
1161                     'YouTube said: %s' % video_info['reason'][0],
1162                     expected=True, video_id=video_id)
1163             else:
1164                 raise ExtractorError(
1165                     '"token" parameter not in video info for unknown reason',
1166                     video_id=video_id)
1167
1168         # title
1169         if 'title' in video_info:
1170             video_title = video_info['title'][0]
1171         else:
1172             self._downloader.report_warning('Unable to extract video title')
1173             video_title = '_'
1174
1175         # description
1176         video_description = get_element_by_id("eow-description", video_webpage)
1177         if video_description:
1178             video_description = re.sub(r'''(?x)
1179                 <a\s+
1180                     (?:[a-zA-Z-]+="[^"]+"\s+)*?
1181                     (?:title|href)="([^"]+)"\s+
1182                     (?:[a-zA-Z-]+="[^"]+"\s+)*?
1183                     class="(?:yt-uix-redirect-link|yt-uix-sessionlink[^"]*)"[^>]*>
1184                 [^<]+\.{3}\s*
1185                 </a>
1186             ''', r'\1', video_description)
1187             video_description = clean_html(video_description)
1188         else:
1189             fd_mobj = re.search(r'<meta name="description" content="([^"]+)"', video_webpage)
1190             if fd_mobj:
1191                 video_description = unescapeHTML(fd_mobj.group(1))
1192             else:
1193                 video_description = ''
1194
1195         if 'multifeed_metadata_list' in video_info and not smuggled_data.get('force_singlefeed', False):
1196             if not self._downloader.params.get('noplaylist'):
1197                 entries = []
1198                 feed_ids = []
1199                 multifeed_metadata_list = compat_urllib_parse_unquote_plus(video_info['multifeed_metadata_list'][0])
1200                 for feed in multifeed_metadata_list.split(','):
1201                     feed_data = compat_parse_qs(feed)
1202                     entries.append({
1203                         '_type': 'url_transparent',
1204                         'ie_key': 'Youtube',
1205                         'url': smuggle_url(
1206                             '%s://www.youtube.com/watch?v=%s' % (proto, feed_data['id'][0]),
1207                             {'force_singlefeed': True}),
1208                         'title': '%s (%s)' % (video_title, feed_data['title'][0]),
1209                     })
1210                     feed_ids.append(feed_data['id'][0])
1211                 self.to_screen(
1212                     'Downloading multifeed video (%s) - add --no-playlist to just download video %s'
1213                     % (', '.join(feed_ids), video_id))
1214                 return self.playlist_result(entries, video_id, video_title, video_description)
1215             self.to_screen('Downloading just video %s because of --no-playlist' % video_id)
1216
1217         if 'view_count' in video_info:
1218             view_count = int(video_info['view_count'][0])
1219         else:
1220             view_count = None
1221
1222         # Check for "rental" videos
1223         if 'ypc_video_rental_bar_text' in video_info and 'author' not in video_info:
1224             raise ExtractorError('"rental" videos not supported')
1225
1226         # Start extracting information
1227         self.report_information_extraction(video_id)
1228
1229         # uploader
1230         if 'author' not in video_info:
1231             raise ExtractorError('Unable to extract uploader name')
1232         video_uploader = compat_urllib_parse_unquote_plus(video_info['author'][0])
1233
1234         # uploader_id
1235         video_uploader_id = None
1236         mobj = re.search(r'<link itemprop="url" href="http://www.youtube.com/(?:user|channel)/([^"]+)">', video_webpage)
1237         if mobj is not None:
1238             video_uploader_id = mobj.group(1)
1239         else:
1240             self._downloader.report_warning('unable to extract uploader nickname')
1241
1242         # thumbnail image
1243         # We try first to get a high quality image:
1244         m_thumb = re.search(r'<span itemprop="thumbnail".*?href="(.*?)">',
1245                             video_webpage, re.DOTALL)
1246         if m_thumb is not None:
1247             video_thumbnail = m_thumb.group(1)
1248         elif 'thumbnail_url' not in video_info:
1249             self._downloader.report_warning('unable to extract video thumbnail')
1250             video_thumbnail = None
1251         else:   # don't panic if we can't find it
1252             video_thumbnail = compat_urllib_parse_unquote_plus(video_info['thumbnail_url'][0])
1253
1254         # upload date
1255         upload_date = self._html_search_meta(
1256             'datePublished', video_webpage, 'upload date', default=None)
1257         if not upload_date:
1258             upload_date = self._search_regex(
1259                 [r'(?s)id="eow-date.*?>(.*?)</span>',
1260                  r'id="watch-uploader-info".*?>.*?(?:Published|Uploaded|Streamed live|Started) on (.+?)</strong>'],
1261                 video_webpage, 'upload date', default=None)
1262             if upload_date:
1263                 upload_date = ' '.join(re.sub(r'[/,-]', r' ', mobj.group(1)).split())
1264         upload_date = unified_strdate(upload_date)
1265
1266         m_music = re.search(
1267             r'<h4[^>]+class="title"[^>]*>\s*Music\s*</h4>\s*<ul[^>]*>\s*<li>(?P<title>.+?) by (?P<creator>.+?)(?:\(.+?\))?</li',
1268             video_webpage)
1269         if m_music:
1270             video_alt_title = remove_quotes(unescapeHTML(m_music.group('title')))
1271             video_creator = clean_html(m_music.group('creator'))
1272         else:
1273             video_alt_title = video_creator = None
1274
1275         m_cat_container = self._search_regex(
1276             r'(?s)<h4[^>]*>\s*Category\s*</h4>\s*<ul[^>]*>(.*?)</ul>',
1277             video_webpage, 'categories', default=None)
1278         if m_cat_container:
1279             category = self._html_search_regex(
1280                 r'(?s)<a[^<]+>(.*?)</a>', m_cat_container, 'category',
1281                 default=None)
1282             video_categories = None if category is None else [category]
1283         else:
1284             video_categories = None
1285
1286         video_tags = [
1287             unescapeHTML(m.group('content'))
1288             for m in re.finditer(self._meta_regex('og:video:tag'), video_webpage)]
1289
1290         def _extract_count(count_name):
1291             return str_to_int(self._search_regex(
1292                 r'-%s-button[^>]+><span[^>]+class="yt-uix-button-content"[^>]*>([\d,]+)</span>'
1293                 % re.escape(count_name),
1294                 video_webpage, count_name, default=None))
1295
1296         like_count = _extract_count('like')
1297         dislike_count = _extract_count('dislike')
1298
1299         # subtitles
1300         video_subtitles = self.extract_subtitles(video_id, video_webpage)
1301         automatic_captions = self.extract_automatic_captions(video_id, video_webpage)
1302
1303         if 'length_seconds' not in video_info:
1304             self._downloader.report_warning('unable to extract video duration')
1305             video_duration = None
1306         else:
1307             video_duration = int(compat_urllib_parse_unquote_plus(video_info['length_seconds'][0]))
1308
1309         # annotations
1310         video_annotations = None
1311         if self._downloader.params.get('writeannotations', False):
1312             video_annotations = self._extract_annotations(video_id)
1313
1314         def _map_to_format_list(urlmap):
1315             formats = []
1316             for itag, video_real_url in urlmap.items():
1317                 dct = {
1318                     'format_id': itag,
1319                     'url': video_real_url,
1320                     'player_url': player_url,
1321                 }
1322                 if itag in self._formats:
1323                     dct.update(self._formats[itag])
1324                 formats.append(dct)
1325             return formats
1326
1327         if 'conn' in video_info and video_info['conn'][0].startswith('rtmp'):
1328             self.report_rtmp_download()
1329             formats = [{
1330                 'format_id': '_rtmp',
1331                 'protocol': 'rtmp',
1332                 'url': video_info['conn'][0],
1333                 'player_url': player_url,
1334             }]
1335         elif len(video_info.get('url_encoded_fmt_stream_map', [''])[0]) >= 1 or len(video_info.get('adaptive_fmts', [''])[0]) >= 1:
1336             encoded_url_map = video_info.get('url_encoded_fmt_stream_map', [''])[0] + ',' + video_info.get('adaptive_fmts', [''])[0]
1337             if 'rtmpe%3Dyes' in encoded_url_map:
1338                 raise ExtractorError('rtmpe downloads are not supported, see https://github.com/rg3/youtube-dl/issues/343 for more information.', expected=True)
1339             formats = []
1340             for url_data_str in encoded_url_map.split(','):
1341                 url_data = compat_parse_qs(url_data_str)
1342                 if 'itag' not in url_data or 'url' not in url_data:
1343                     continue
1344                 format_id = url_data['itag'][0]
1345                 url = url_data['url'][0]
1346
1347                 if 'sig' in url_data:
1348                     url += '&signature=' + url_data['sig'][0]
1349                 elif 's' in url_data:
1350                     encrypted_sig = url_data['s'][0]
1351                     ASSETS_RE = r'"assets":.+?"js":\s*("[^"]+")'
1352
1353                     jsplayer_url_json = self._search_regex(
1354                         ASSETS_RE,
1355                         embed_webpage if age_gate else video_webpage,
1356                         'JS player URL (1)', default=None)
1357                     if not jsplayer_url_json and not age_gate:
1358                         # We need the embed website after all
1359                         if embed_webpage is None:
1360                             embed_url = proto + '://www.youtube.com/embed/%s' % video_id
1361                             embed_webpage = self._download_webpage(
1362                                 embed_url, video_id, 'Downloading embed webpage')
1363                         jsplayer_url_json = self._search_regex(
1364                             ASSETS_RE, embed_webpage, 'JS player URL')
1365
1366                     player_url = json.loads(jsplayer_url_json)
1367                     if player_url is None:
1368                         player_url_json = self._search_regex(
1369                             r'ytplayer\.config.*?"url"\s*:\s*("[^"]+")',
1370                             video_webpage, 'age gate player URL')
1371                         player_url = json.loads(player_url_json)
1372
1373                     if self._downloader.params.get('verbose'):
1374                         if player_url is None:
1375                             player_version = 'unknown'
1376                             player_desc = 'unknown'
1377                         else:
1378                             if player_url.endswith('swf'):
1379                                 player_version = self._search_regex(
1380                                     r'-(.+?)(?:/watch_as3)?\.swf$', player_url,
1381                                     'flash player', fatal=False)
1382                                 player_desc = 'flash player %s' % player_version
1383                             else:
1384                                 player_version = self._search_regex(
1385                                     [r'html5player-([^/]+?)(?:/html5player(?:-new)?)?\.js', r'(?:www|player)-([^/]+)/base\.js'],
1386                                     player_url,
1387                                     'html5 player', fatal=False)
1388                                 player_desc = 'html5 player %s' % player_version
1389
1390                         parts_sizes = self._signature_cache_id(encrypted_sig)
1391                         self.to_screen('{%s} signature length %s, %s' %
1392                                        (format_id, parts_sizes, player_desc))
1393
1394                     signature = self._decrypt_signature(
1395                         encrypted_sig, video_id, player_url, age_gate)
1396                     url += '&signature=' + signature
1397                 if 'ratebypass' not in url:
1398                     url += '&ratebypass=yes'
1399
1400                 dct = {
1401                     'format_id': format_id,
1402                     'url': url,
1403                     'player_url': player_url,
1404                 }
1405                 if format_id in self._formats:
1406                     dct.update(self._formats[format_id])
1407
1408                 # Some itags are not included in DASH manifest thus corresponding formats will
1409                 # lack metadata (see https://github.com/rg3/youtube-dl/pull/5993).
1410                 # Trying to extract metadata from url_encoded_fmt_stream_map entry.
1411                 mobj = re.search(r'^(?P<width>\d+)[xX](?P<height>\d+)$', url_data.get('size', [''])[0])
1412                 width, height = (int(mobj.group('width')), int(mobj.group('height'))) if mobj else (None, None)
1413
1414                 more_fields = {
1415                     'filesize': int_or_none(url_data.get('clen', [None])[0]),
1416                     'tbr': float_or_none(url_data.get('bitrate', [None])[0], 1000),
1417                     'width': width,
1418                     'height': height,
1419                     'fps': int_or_none(url_data.get('fps', [None])[0]),
1420                     'format_note': url_data.get('quality_label', [None])[0] or url_data.get('quality', [None])[0],
1421                 }
1422                 for key, value in more_fields.items():
1423                     if value:
1424                         dct[key] = value
1425                 type_ = url_data.get('type', [None])[0]
1426                 if type_:
1427                     type_split = type_.split(';')
1428                     kind_ext = type_split[0].split('/')
1429                     if len(kind_ext) == 2:
1430                         kind, _ = kind_ext
1431                         dct['ext'] = mimetype2ext(type_split[0])
1432                         if kind in ('audio', 'video'):
1433                             codecs = None
1434                             for mobj in re.finditer(
1435                                     r'(?P<key>[a-zA-Z_-]+)=(?P<quote>["\']?)(?P<val>.+?)(?P=quote)(?:;|$)', type_):
1436                                 if mobj.group('key') == 'codecs':
1437                                     codecs = mobj.group('val')
1438                                     break
1439                             if codecs:
1440                                 codecs = codecs.split(',')
1441                                 if len(codecs) == 2:
1442                                     acodec, vcodec = codecs[1], codecs[0]
1443                                 else:
1444                                     acodec, vcodec = (codecs[0], 'none') if kind == 'audio' else ('none', codecs[0])
1445                                 dct.update({
1446                                     'acodec': acodec,
1447                                     'vcodec': vcodec,
1448                                 })
1449                 formats.append(dct)
1450         elif video_info.get('hlsvp'):
1451             manifest_url = video_info['hlsvp'][0]
1452             url_map = self._extract_from_m3u8(manifest_url, video_id)
1453             formats = _map_to_format_list(url_map)
1454             # Accept-Encoding header causes failures in live streams on Youtube and Youtube Gaming
1455             for a_format in formats:
1456                 a_format.setdefault('http_headers', {})['Youtubedl-no-compression'] = 'True'
1457         else:
1458             unavailable_message = self._html_search_regex(
1459                 r'(?s)<h1[^>]+id="unavailable-message"[^>]*>(.+?)</h1>',
1460                 video_webpage, 'unavailable message', default=None)
1461             if unavailable_message:
1462                 raise ExtractorError(unavailable_message, expected=True)
1463             raise ExtractorError('no conn, hlsvp or url_encoded_fmt_stream_map information found in video info')
1464
1465         # Look for the DASH manifest
1466         if self._downloader.params.get('youtube_include_dash_manifest', True):
1467             dash_mpd_fatal = True
1468             for mpd_url in dash_mpds:
1469                 dash_formats = {}
1470                 try:
1471                     def decrypt_sig(mobj):
1472                         s = mobj.group(1)
1473                         dec_s = self._decrypt_signature(s, video_id, player_url, age_gate)
1474                         return '/signature/%s' % dec_s
1475
1476                     mpd_url = re.sub(r'/s/([a-fA-F0-9\.]+)', decrypt_sig, mpd_url)
1477
1478                     for df in self._extract_mpd_formats(
1479                             mpd_url, video_id, fatal=dash_mpd_fatal,
1480                             formats_dict=self._formats):
1481                         # Do not overwrite DASH format found in some previous DASH manifest
1482                         if df['format_id'] not in dash_formats:
1483                             dash_formats[df['format_id']] = df
1484                         # Additional DASH manifests may end up in HTTP Error 403 therefore
1485                         # allow them to fail without bug report message if we already have
1486                         # some DASH manifest succeeded. This is temporary workaround to reduce
1487                         # burst of bug reports until we figure out the reason and whether it
1488                         # can be fixed at all.
1489                         dash_mpd_fatal = False
1490                 except (ExtractorError, KeyError) as e:
1491                     self.report_warning(
1492                         'Skipping DASH manifest: %r' % e, video_id)
1493                 if dash_formats:
1494                     # Remove the formats we found through non-DASH, they
1495                     # contain less info and it can be wrong, because we use
1496                     # fixed values (for example the resolution). See
1497                     # https://github.com/rg3/youtube-dl/issues/5774 for an
1498                     # example.
1499                     formats = [f for f in formats if f['format_id'] not in dash_formats.keys()]
1500                     formats.extend(dash_formats.values())
1501
1502         # Check for malformed aspect ratio
1503         stretched_m = re.search(
1504             r'<meta\s+property="og:video:tag".*?content="yt:stretch=(?P<w>[0-9]+):(?P<h>[0-9]+)">',
1505             video_webpage)
1506         if stretched_m:
1507             w = float(stretched_m.group('w'))
1508             h = float(stretched_m.group('h'))
1509             # yt:stretch may hold invalid ratio data (e.g. for Q39EVAstoRM ratio is 17:0).
1510             # We will only process correct ratios.
1511             if w > 0 and h > 0:
1512                 ratio = w / h
1513                 for f in formats:
1514                     if f.get('vcodec') != 'none':
1515                         f['stretched_ratio'] = ratio
1516
1517         self._sort_formats(formats)
1518
1519         return {
1520             'id': video_id,
1521             'uploader': video_uploader,
1522             'uploader_id': video_uploader_id,
1523             'upload_date': upload_date,
1524             'creator': video_creator,
1525             'title': video_title,
1526             'alt_title': video_alt_title,
1527             'thumbnail': video_thumbnail,
1528             'description': video_description,
1529             'categories': video_categories,
1530             'tags': video_tags,
1531             'subtitles': video_subtitles,
1532             'automatic_captions': automatic_captions,
1533             'duration': video_duration,
1534             'age_limit': 18 if age_gate else 0,
1535             'annotations': video_annotations,
1536             'webpage_url': proto + '://www.youtube.com/watch?v=%s' % video_id,
1537             'view_count': view_count,
1538             'like_count': like_count,
1539             'dislike_count': dislike_count,
1540             'average_rating': float_or_none(video_info.get('avg_rating', [None])[0]),
1541             'formats': formats,
1542             'is_live': is_live,
1543             'start_time': start_time,
1544             'end_time': end_time,
1545         }
1546
1547
1548 class YoutubePlaylistIE(YoutubePlaylistBaseInfoExtractor):
1549     IE_DESC = 'YouTube.com playlists'
1550     _VALID_URL = r"""(?x)(?:
1551                         (?:https?://)?
1552                         (?:\w+\.)?
1553                         youtube\.com/
1554                         (?:
1555                            (?:course|view_play_list|my_playlists|artist|playlist|watch|embed/videoseries)
1556                            \? (?:.*?[&;])*? (?:p|a|list)=
1557                         |  p/
1558                         )
1559                         (
1560                             (?:PL|LL|EC|UU|FL|RD|UL)?[0-9A-Za-z-_]{10,}
1561                             # Top tracks, they can also include dots
1562                             |(?:MC)[\w\.]*
1563                         )
1564                         .*
1565                      |
1566                         ((?:PL|LL|EC|UU|FL|RD|UL)[0-9A-Za-z-_]{10,})
1567                      )"""
1568     _TEMPLATE_URL = 'https://www.youtube.com/playlist?list=%s'
1569     _VIDEO_RE = r'href="\s*/watch\?v=(?P<id>[0-9A-Za-z_-]{11})&amp;[^"]*?index=(?P<index>\d+)(?:[^>]+>(?P<title>[^<]+))?'
1570     IE_NAME = 'youtube:playlist'
1571     _TESTS = [{
1572         'url': 'https://www.youtube.com/playlist?list=PLwiyx1dc3P2JR9N8gQaQN_BCvlSlap7re',
1573         'info_dict': {
1574             'title': 'ytdl test PL',
1575             'id': 'PLwiyx1dc3P2JR9N8gQaQN_BCvlSlap7re',
1576         },
1577         'playlist_count': 3,
1578     }, {
1579         'url': 'https://www.youtube.com/playlist?list=PLtPgu7CB4gbZDA7i_euNxn75ISqxwZPYx',
1580         'info_dict': {
1581             'id': 'PLtPgu7CB4gbZDA7i_euNxn75ISqxwZPYx',
1582             'title': 'YDL_Empty_List',
1583         },
1584         'playlist_count': 0,
1585     }, {
1586         'note': 'Playlist with deleted videos (#651). As a bonus, the video #51 is also twice in this list.',
1587         'url': 'https://www.youtube.com/playlist?list=PLwP_SiAcdui0KVebT0mU9Apz359a4ubsC',
1588         'info_dict': {
1589             'title': '29C3: Not my department',
1590             'id': 'PLwP_SiAcdui0KVebT0mU9Apz359a4ubsC',
1591         },
1592         'playlist_count': 95,
1593     }, {
1594         'note': 'issue #673',
1595         'url': 'PLBB231211A4F62143',
1596         'info_dict': {
1597             'title': '[OLD]Team Fortress 2 (Class-based LP)',
1598             'id': 'PLBB231211A4F62143',
1599         },
1600         'playlist_mincount': 26,
1601     }, {
1602         'note': 'Large playlist',
1603         'url': 'https://www.youtube.com/playlist?list=UUBABnxM4Ar9ten8Mdjj1j0Q',
1604         'info_dict': {
1605             'title': 'Uploads from Cauchemar',
1606             'id': 'UUBABnxM4Ar9ten8Mdjj1j0Q',
1607         },
1608         'playlist_mincount': 799,
1609     }, {
1610         'url': 'PLtPgu7CB4gbY9oDN3drwC3cMbJggS7dKl',
1611         'info_dict': {
1612             'title': 'YDL_safe_search',
1613             'id': 'PLtPgu7CB4gbY9oDN3drwC3cMbJggS7dKl',
1614         },
1615         'playlist_count': 2,
1616     }, {
1617         'note': 'embedded',
1618         'url': 'http://www.youtube.com/embed/videoseries?list=PL6IaIsEjSbf96XFRuNccS_RuEXwNdsoEu',
1619         'playlist_count': 4,
1620         'info_dict': {
1621             'title': 'JODA15',
1622             'id': 'PL6IaIsEjSbf96XFRuNccS_RuEXwNdsoEu',
1623         }
1624     }, {
1625         'note': 'Embedded SWF player',
1626         'url': 'http://www.youtube.com/p/YN5VISEtHet5D4NEvfTd0zcgFk84NqFZ?hl=en_US&fs=1&rel=0',
1627         'playlist_count': 4,
1628         'info_dict': {
1629             'title': 'JODA7',
1630             'id': 'YN5VISEtHet5D4NEvfTd0zcgFk84NqFZ',
1631         }
1632     }, {
1633         'note': 'Buggy playlist: the webpage has a "Load more" button but it doesn\'t have more videos',
1634         'url': 'https://www.youtube.com/playlist?list=UUXw-G3eDE9trcvY2sBMM_aA',
1635         'info_dict': {
1636             'title': 'Uploads from Interstellar Movie',
1637             'id': 'UUXw-G3eDE9trcvY2sBMM_aA',
1638         },
1639         'playlist_mincout': 21,
1640     }]
1641
1642     def _real_initialize(self):
1643         self._login()
1644
1645     def _extract_mix(self, playlist_id):
1646         # The mixes are generated from a single video
1647         # the id of the playlist is just 'RD' + video_id
1648         url = 'https://youtube.com/watch?v=%s&list=%s' % (playlist_id[-11:], playlist_id)
1649         webpage = self._download_webpage(
1650             url, playlist_id, 'Downloading Youtube mix')
1651         search_title = lambda class_name: get_element_by_attribute('class', class_name, webpage)
1652         title_span = (
1653             search_title('playlist-title') or
1654             search_title('title long-title') or
1655             search_title('title'))
1656         title = clean_html(title_span)
1657         ids = orderedSet(re.findall(
1658             r'''(?xs)data-video-username=".*?".*?
1659                        href="/watch\?v=([0-9A-Za-z_-]{11})&amp;[^"]*?list=%s''' % re.escape(playlist_id),
1660             webpage))
1661         url_results = self._ids_to_results(ids)
1662
1663         return self.playlist_result(url_results, playlist_id, title)
1664
1665     def _extract_playlist(self, playlist_id):
1666         url = self._TEMPLATE_URL % playlist_id
1667         page = self._download_webpage(url, playlist_id)
1668
1669         for match in re.findall(r'<div class="yt-alert-message">([^<]+)</div>', page):
1670             match = match.strip()
1671             # Check if the playlist exists or is private
1672             if re.match(r'[^<]*(The|This) playlist (does not exist|is private)[^<]*', match):
1673                 raise ExtractorError(
1674                     'The playlist doesn\'t exist or is private, use --username or '
1675                     '--netrc to access it.',
1676                     expected=True)
1677             elif re.match(r'[^<]*Invalid parameters[^<]*', match):
1678                 raise ExtractorError(
1679                     'Invalid parameters. Maybe URL is incorrect.',
1680                     expected=True)
1681             elif re.match(r'[^<]*Choose your language[^<]*', match):
1682                 continue
1683             else:
1684                 self.report_warning('Youtube gives an alert message: ' + match)
1685
1686         playlist_title = self._html_search_regex(
1687             r'(?s)<h1 class="pl-header-title[^"]*"[^>]*>\s*(.*?)\s*</h1>',
1688             page, 'title')
1689
1690         return self.playlist_result(self._entries(page, playlist_id), playlist_id, playlist_title)
1691
1692     def _real_extract(self, url):
1693         # Extract playlist id
1694         mobj = re.match(self._VALID_URL, url)
1695         if mobj is None:
1696             raise ExtractorError('Invalid URL: %s' % url)
1697         playlist_id = mobj.group(1) or mobj.group(2)
1698
1699         # Check if it's a video-specific URL
1700         query_dict = compat_urlparse.parse_qs(compat_urlparse.urlparse(url).query)
1701         if 'v' in query_dict:
1702             video_id = query_dict['v'][0]
1703             if self._downloader.params.get('noplaylist'):
1704                 self.to_screen('Downloading just video %s because of --no-playlist' % video_id)
1705                 return self.url_result(video_id, 'Youtube', video_id=video_id)
1706             else:
1707                 self.to_screen('Downloading playlist %s - add --no-playlist to just download video %s' % (playlist_id, video_id))
1708
1709         if playlist_id.startswith('RD') or playlist_id.startswith('UL'):
1710             # Mixes require a custom extraction process
1711             return self._extract_mix(playlist_id)
1712
1713         return self._extract_playlist(playlist_id)
1714
1715
1716 class YoutubeChannelIE(YoutubePlaylistBaseInfoExtractor):
1717     IE_DESC = 'YouTube.com channels'
1718     _VALID_URL = r'https?://(?:youtu\.be|(?:\w+\.)?youtube(?:-nocookie)?\.com)/channel/(?P<id>[0-9A-Za-z_-]+)'
1719     _TEMPLATE_URL = 'https://www.youtube.com/channel/%s/videos'
1720     _VIDEO_RE = r'(?:title="(?P<title>[^"]+)"[^>]+)?href="/watch\?v=(?P<id>[0-9A-Za-z_-]+)&?'
1721     IE_NAME = 'youtube:channel'
1722     _TESTS = [{
1723         'note': 'paginated channel',
1724         'url': 'https://www.youtube.com/channel/UCKfVa3S1e4PHvxWcwyMMg8w',
1725         'playlist_mincount': 91,
1726         'info_dict': {
1727             'id': 'UUKfVa3S1e4PHvxWcwyMMg8w',
1728             'title': 'Uploads from lex will',
1729         }
1730     }, {
1731         'note': 'Age restricted channel',
1732         # from https://www.youtube.com/user/DeusExOfficial
1733         'url': 'https://www.youtube.com/channel/UCs0ifCMCm1icqRbqhUINa0w',
1734         'playlist_mincount': 64,
1735         'info_dict': {
1736             'id': 'UUs0ifCMCm1icqRbqhUINa0w',
1737             'title': 'Uploads from Deus Ex',
1738         },
1739     }]
1740
1741     @classmethod
1742     def suitable(cls, url):
1743         return False if YoutubePlaylistsIE.suitable(url) else super(YoutubeChannelIE, cls).suitable(url)
1744
1745     def _real_extract(self, url):
1746         channel_id = self._match_id(url)
1747
1748         url = self._TEMPLATE_URL % channel_id
1749
1750         # Channel by page listing is restricted to 35 pages of 30 items, i.e. 1050 videos total (see #5778)
1751         # Workaround by extracting as a playlist if managed to obtain channel playlist URL
1752         # otherwise fallback on channel by page extraction
1753         channel_page = self._download_webpage(
1754             url + '?view=57', channel_id,
1755             'Downloading channel page', fatal=False)
1756         if channel_page is False:
1757             channel_playlist_id = False
1758         else:
1759             channel_playlist_id = self._html_search_meta(
1760                 'channelId', channel_page, 'channel id', default=None)
1761             if not channel_playlist_id:
1762                 channel_playlist_id = self._search_regex(
1763                     r'data-(?:channel-external-|yt)id="([^"]+)"',
1764                     channel_page, 'channel id', default=None)
1765         if channel_playlist_id and channel_playlist_id.startswith('UC'):
1766             playlist_id = 'UU' + channel_playlist_id[2:]
1767             return self.url_result(
1768                 compat_urlparse.urljoin(url, '/playlist?list=%s' % playlist_id), 'YoutubePlaylist')
1769
1770         channel_page = self._download_webpage(url, channel_id, 'Downloading page #1')
1771         autogenerated = re.search(r'''(?x)
1772                 class="[^"]*?(?:
1773                     channel-header-autogenerated-label|
1774                     yt-channel-title-autogenerated
1775                 )[^"]*"''', channel_page) is not None
1776
1777         if autogenerated:
1778             # The videos are contained in a single page
1779             # the ajax pages can't be used, they are empty
1780             entries = [
1781                 self.url_result(
1782                     video_id, 'Youtube', video_id=video_id,
1783                     video_title=video_title)
1784                 for video_id, video_title in self.extract_videos_from_page(channel_page)]
1785             return self.playlist_result(entries, channel_id)
1786
1787         return self.playlist_result(self._entries(channel_page, channel_id), channel_id)
1788
1789
1790 class YoutubeUserIE(YoutubeChannelIE):
1791     IE_DESC = 'YouTube.com user videos (URL or "ytuser" keyword)'
1792     _VALID_URL = r'(?:(?:https?://(?:\w+\.)?youtube\.com/(?:user/)?(?!(?:attribution_link|watch|results)(?:$|[^a-z_A-Z0-9-])))|ytuser:)(?!feed/)(?P<id>[A-Za-z0-9_-]+)'
1793     _TEMPLATE_URL = 'https://www.youtube.com/user/%s/videos'
1794     IE_NAME = 'youtube:user'
1795
1796     _TESTS = [{
1797         'url': 'https://www.youtube.com/user/TheLinuxFoundation',
1798         'playlist_mincount': 320,
1799         'info_dict': {
1800             'title': 'TheLinuxFoundation',
1801         }
1802     }, {
1803         'url': 'ytuser:phihag',
1804         'only_matching': True,
1805     }]
1806
1807     @classmethod
1808     def suitable(cls, url):
1809         # Don't return True if the url can be extracted with other youtube
1810         # extractor, the regex would is too permissive and it would match.
1811         other_ies = iter(klass for (name, klass) in globals().items() if name.endswith('IE') and klass is not cls)
1812         if any(ie.suitable(url) for ie in other_ies):
1813             return False
1814         else:
1815             return super(YoutubeUserIE, cls).suitable(url)
1816
1817
1818 class YoutubePlaylistsIE(YoutubePlaylistsBaseInfoExtractor):
1819     IE_DESC = 'YouTube.com user/channel playlists'
1820     _VALID_URL = r'https?://(?:\w+\.)?youtube\.com/(?:user|channel)/(?P<id>[^/]+)/playlists'
1821     IE_NAME = 'youtube:playlists'
1822
1823     _TESTS = [{
1824         'url': 'http://www.youtube.com/user/ThirstForScience/playlists',
1825         'playlist_mincount': 4,
1826         'info_dict': {
1827             'id': 'ThirstForScience',
1828             'title': 'Thirst for Science',
1829         },
1830     }, {
1831         # with "Load more" button
1832         'url': 'http://www.youtube.com/user/igorkle1/playlists?view=1&sort=dd',
1833         'playlist_mincount': 70,
1834         'info_dict': {
1835             'id': 'igorkle1',
1836             'title': 'Игорь Клейнер',
1837         },
1838     }, {
1839         'url': 'https://www.youtube.com/channel/UCiU1dHvZObB2iP6xkJ__Icw/playlists',
1840         'playlist_mincount': 17,
1841         'info_dict': {
1842             'id': 'UCiU1dHvZObB2iP6xkJ__Icw',
1843             'title': 'Chem Player',
1844         },
1845     }]
1846
1847
1848 class YoutubeSearchIE(SearchInfoExtractor, YoutubePlaylistIE):
1849     IE_DESC = 'YouTube.com searches'
1850     # there doesn't appear to be a real limit, for example if you search for
1851     # 'python' you get more than 8.000.000 results
1852     _MAX_RESULTS = float('inf')
1853     IE_NAME = 'youtube:search'
1854     _SEARCH_KEY = 'ytsearch'
1855     _EXTRA_QUERY_ARGS = {}
1856     _TESTS = []
1857
1858     def _get_n_results(self, query, n):
1859         """Get a specified number of results for a query"""
1860
1861         videos = []
1862         limit = n
1863
1864         for pagenum in itertools.count(1):
1865             url_query = {
1866                 'search_query': query.encode('utf-8'),
1867                 'page': pagenum,
1868                 'spf': 'navigate',
1869             }
1870             url_query.update(self._EXTRA_QUERY_ARGS)
1871             result_url = 'https://www.youtube.com/results?' + compat_urllib_parse.urlencode(url_query)
1872             data = self._download_json(
1873                 result_url, video_id='query "%s"' % query,
1874                 note='Downloading page %s' % pagenum,
1875                 errnote='Unable to download API page')
1876             html_content = data[1]['body']['content']
1877
1878             if 'class="search-message' in html_content:
1879                 raise ExtractorError(
1880                     '[youtube] No video results', expected=True)
1881
1882             new_videos = self._ids_to_results(orderedSet(re.findall(
1883                 r'href="/watch\?v=(.{11})', html_content)))
1884             videos += new_videos
1885             if not new_videos or len(videos) > limit:
1886                 break
1887
1888         if len(videos) > n:
1889             videos = videos[:n]
1890         return self.playlist_result(videos, query)
1891
1892
1893 class YoutubeSearchDateIE(YoutubeSearchIE):
1894     IE_NAME = YoutubeSearchIE.IE_NAME + ':date'
1895     _SEARCH_KEY = 'ytsearchdate'
1896     IE_DESC = 'YouTube.com searches, newest videos first'
1897     _EXTRA_QUERY_ARGS = {'search_sort': 'video_date_uploaded'}
1898
1899
1900 class YoutubeSearchURLIE(InfoExtractor):
1901     IE_DESC = 'YouTube.com search URLs'
1902     IE_NAME = 'youtube:search_url'
1903     _VALID_URL = r'https?://(?:www\.)?youtube\.com/results\?(.*?&)?search_query=(?P<query>[^&]+)(?:[&]|$)'
1904     _TESTS = [{
1905         'url': 'https://www.youtube.com/results?baz=bar&search_query=youtube-dl+test+video&filters=video&lclk=video',
1906         'playlist_mincount': 5,
1907         'info_dict': {
1908             'title': 'youtube-dl test video',
1909         }
1910     }]
1911
1912     def _real_extract(self, url):
1913         mobj = re.match(self._VALID_URL, url)
1914         query = compat_urllib_parse_unquote_plus(mobj.group('query'))
1915
1916         webpage = self._download_webpage(url, query)
1917         result_code = self._search_regex(
1918             r'(?s)<ol[^>]+class="item-section"(.*?)</ol>', webpage, 'result HTML')
1919
1920         part_codes = re.findall(
1921             r'(?s)<h3[^>]+class="[^"]*yt-lockup-title[^"]*"[^>]*>(.*?)</h3>', result_code)
1922         entries = []
1923         for part_code in part_codes:
1924             part_title = self._html_search_regex(
1925                 [r'(?s)title="([^"]+)"', r'>([^<]+)</a>'], part_code, 'item title', fatal=False)
1926             part_url_snippet = self._html_search_regex(
1927                 r'(?s)href="([^"]+)"', part_code, 'item URL')
1928             part_url = compat_urlparse.urljoin(
1929                 'https://www.youtube.com/', part_url_snippet)
1930             entries.append({
1931                 '_type': 'url',
1932                 'url': part_url,
1933                 'title': part_title,
1934             })
1935
1936         return {
1937             '_type': 'playlist',
1938             'entries': entries,
1939             'title': query,
1940         }
1941
1942
1943 class YoutubeShowIE(YoutubePlaylistsBaseInfoExtractor):
1944     IE_DESC = 'YouTube.com (multi-season) shows'
1945     _VALID_URL = r'https?://www\.youtube\.com/show/(?P<id>[^?#]*)'
1946     IE_NAME = 'youtube:show'
1947     _TESTS = [{
1948         'url': 'https://www.youtube.com/show/airdisasters',
1949         'playlist_mincount': 5,
1950         'info_dict': {
1951             'id': 'airdisasters',
1952             'title': 'Air Disasters',
1953         }
1954     }]
1955
1956     def _real_extract(self, url):
1957         playlist_id = self._match_id(url)
1958         return super(YoutubeShowIE, self)._real_extract(
1959             'https://www.youtube.com/show/%s/playlists' % playlist_id)
1960
1961
1962 class YoutubeFeedsInfoExtractor(YoutubeBaseInfoExtractor):
1963     """
1964     Base class for feed extractors
1965     Subclasses must define the _FEED_NAME and _PLAYLIST_TITLE properties.
1966     """
1967     _LOGIN_REQUIRED = True
1968
1969     @property
1970     def IE_NAME(self):
1971         return 'youtube:%s' % self._FEED_NAME
1972
1973     def _real_initialize(self):
1974         self._login()
1975
1976     def _real_extract(self, url):
1977         page = self._download_webpage(
1978             'https://www.youtube.com/feed/%s' % self._FEED_NAME, self._PLAYLIST_TITLE)
1979
1980         # The extraction process is the same as for playlists, but the regex
1981         # for the video ids doesn't contain an index
1982         ids = []
1983         more_widget_html = content_html = page
1984         for page_num in itertools.count(1):
1985             matches = re.findall(r'href="\s*/watch\?v=([0-9A-Za-z_-]{11})', content_html)
1986
1987             # 'recommended' feed has infinite 'load more' and each new portion spins
1988             # the same videos in (sometimes) slightly different order, so we'll check
1989             # for unicity and break when portion has no new videos
1990             new_ids = filter(lambda video_id: video_id not in ids, orderedSet(matches))
1991             if not new_ids:
1992                 break
1993
1994             ids.extend(new_ids)
1995
1996             mobj = re.search(r'data-uix-load-more-href="/?(?P<more>[^"]+)"', more_widget_html)
1997             if not mobj:
1998                 break
1999
2000             more = self._download_json(
2001                 'https://youtube.com/%s' % mobj.group('more'), self._PLAYLIST_TITLE,
2002                 'Downloading page #%s' % page_num,
2003                 transform_source=uppercase_escape)
2004             content_html = more['content_html']
2005             more_widget_html = more['load_more_widget_html']
2006
2007         return self.playlist_result(
2008             self._ids_to_results(ids), playlist_title=self._PLAYLIST_TITLE)
2009
2010
2011 class YoutubeWatchLaterIE(YoutubePlaylistIE):
2012     IE_NAME = 'youtube:watchlater'
2013     IE_DESC = 'Youtube watch later list, ":ytwatchlater" for short (requires authentication)'
2014     _VALID_URL = r'https?://www\.youtube\.com/(?:feed/watch_later|playlist\?list=WL)|:ytwatchlater'
2015
2016     _TESTS = []  # override PlaylistIE tests
2017
2018     def _real_extract(self, url):
2019         return self._extract_playlist('WL')
2020
2021
2022 class YoutubeFavouritesIE(YoutubeBaseInfoExtractor):
2023     IE_NAME = 'youtube:favorites'
2024     IE_DESC = 'YouTube.com favourite videos, ":ytfav" for short (requires authentication)'
2025     _VALID_URL = r'https?://www\.youtube\.com/my_favorites|:ytfav(?:ou?rites)?'
2026     _LOGIN_REQUIRED = True
2027
2028     def _real_extract(self, url):
2029         webpage = self._download_webpage('https://www.youtube.com/my_favorites', 'Youtube Favourites videos')
2030         playlist_id = self._search_regex(r'list=(.+?)["&]', webpage, 'favourites playlist id')
2031         return self.url_result(playlist_id, 'YoutubePlaylist')
2032
2033
2034 class YoutubeRecommendedIE(YoutubeFeedsInfoExtractor):
2035     IE_DESC = 'YouTube.com recommended videos, ":ytrec" for short (requires authentication)'
2036     _VALID_URL = r'https?://www\.youtube\.com/feed/recommended|:ytrec(?:ommended)?'
2037     _FEED_NAME = 'recommended'
2038     _PLAYLIST_TITLE = 'Youtube Recommended videos'
2039
2040
2041 class YoutubeSubscriptionsIE(YoutubeFeedsInfoExtractor):
2042     IE_DESC = 'YouTube.com subscriptions feed, "ytsubs" keyword (requires authentication)'
2043     _VALID_URL = r'https?://www\.youtube\.com/feed/subscriptions|:ytsubs(?:criptions)?'
2044     _FEED_NAME = 'subscriptions'
2045     _PLAYLIST_TITLE = 'Youtube Subscriptions'
2046
2047
2048 class YoutubeHistoryIE(YoutubeFeedsInfoExtractor):
2049     IE_DESC = 'Youtube watch history, ":ythistory" for short (requires authentication)'
2050     _VALID_URL = 'https?://www\.youtube\.com/feed/history|:ythistory'
2051     _FEED_NAME = 'history'
2052     _PLAYLIST_TITLE = 'Youtube History'
2053
2054
2055 class YoutubeTruncatedURLIE(InfoExtractor):
2056     IE_NAME = 'youtube:truncated_url'
2057     IE_DESC = False  # Do not list
2058     _VALID_URL = r'''(?x)
2059         (?:https?://)?
2060         (?:\w+\.)?[yY][oO][uU][tT][uU][bB][eE](?:-nocookie)?\.com/
2061         (?:watch\?(?:
2062             feature=[a-z_]+|
2063             annotation_id=annotation_[^&]+|
2064             x-yt-cl=[0-9]+|
2065             hl=[^&]*|
2066             t=[0-9]+
2067         )?
2068         |
2069             attribution_link\?a=[^&]+
2070         )
2071         $
2072     '''
2073
2074     _TESTS = [{
2075         'url': 'http://www.youtube.com/watch?annotation_id=annotation_3951667041',
2076         'only_matching': True,
2077     }, {
2078         'url': 'http://www.youtube.com/watch?',
2079         'only_matching': True,
2080     }, {
2081         'url': 'https://www.youtube.com/watch?x-yt-cl=84503534',
2082         'only_matching': True,
2083     }, {
2084         'url': 'https://www.youtube.com/watch?feature=foo',
2085         'only_matching': True,
2086     }, {
2087         'url': 'https://www.youtube.com/watch?hl=en-GB',
2088         'only_matching': True,
2089     }, {
2090         'url': 'https://www.youtube.com/watch?t=2372',
2091         'only_matching': True,
2092     }]
2093
2094     def _real_extract(self, url):
2095         raise ExtractorError(
2096             'Did you forget to quote the URL? Remember that & is a meta '
2097             'character in most shells, so you want to put the URL in quotes, '
2098             'like  youtube-dl '
2099             '"http://www.youtube.com/watch?feature=foo&v=BaW_jenozKc" '
2100             ' or simply  youtube-dl BaW_jenozKc  .',
2101             expected=True)
2102
2103
2104 class YoutubeTruncatedIDIE(InfoExtractor):
2105     IE_NAME = 'youtube:truncated_id'
2106     IE_DESC = False  # Do not list
2107     _VALID_URL = r'https?://(?:www\.)?youtube\.com/watch\?v=(?P<id>[0-9A-Za-z_-]{1,10})$'
2108
2109     _TESTS = [{
2110         'url': 'https://www.youtube.com/watch?v=N_708QY7Ob',
2111         'only_matching': True,
2112     }]
2113
2114     def _real_extract(self, url):
2115         video_id = self._match_id(url)
2116         raise ExtractorError(
2117             'Incomplete YouTube ID %s. URL %s looks truncated.' % (video_id, url),
2118             expected=True)