[srgssr] split long lines and use m3u8_native
[youtube-dl] / youtube_dl / extractor / srgssr.py
1 # coding: utf-8
2 from __future__ import unicode_literals
3
4 import re
5
6 from .common import InfoExtractor
7 from ..utils import (
8     ExtractorError,
9     parse_iso8601,
10     qualities,
11 )
12
13
14 class SRGSSRIE(InfoExtractor):
15     _VALID_URL = r'(?:https?://tp\.srgssr\.ch/p(?:/[^/]+)+\?urn=urn|srgssr):(?P<bu>srf|rts|rsi|rtr|swi):(?:[^:]+:)?(?P<type>video|audio):(?P<id>[0-9a-f\-]{36}|\d+)'
16
17     _ERRORS = {
18         'AGERATING12': 'To protect children under the age of 12, this video is only available between 8 p.m. and 6 a.m.',
19         'AGERATING18': 'To protect children under the age of 18, this video is only available between 11 p.m. and 5 a.m.',
20         # 'ENDDATE': 'For legal reasons, this video was only available for a specified period of time.',
21         'GEOBLOCK': 'For legal reasons, this video is only available in Switzerland.',
22         'LEGAL': 'The video cannot be transmitted for legal reasons.',
23         'STARTDATE': 'This video is not yet available. Please try again later.',
24     }
25
26     def get_media_data(self, bu, media_type, media_id):
27         media_data = self._download_json(
28             'http://il.srgssr.ch/integrationlayer/1.0/ue/%s/%s/play/%s.json' % (bu, media_type, media_id),
29             media_id)[media_type.capitalize()]
30
31         if media_data.get('block') and media_data['block'] in self._ERRORS:
32             raise ExtractorError('%s said: %s' % (
33                 self.IE_NAME, self._ERRORS[media_data['block']]), expected=True)
34
35         return media_data
36
37     def _real_extract(self, url):
38         bu, media_type, media_id = re.match(self._VALID_URL, url).groups()
39
40         if bu == 'rts':
41             return self.url_result('rts:%s' % media_id, 'RTS')
42
43         media_data = self.get_media_data(bu, media_type, media_id)
44
45         metadata = media_data['AssetMetadatas']['AssetMetadata'][0]
46         title = metadata['title']
47         description = metadata.get('description')
48         created_date = media_data.get('createdDate') or metadata.get('createdDate')
49         timestamp = parse_iso8601(created_date)
50
51         thumbnails = [{
52             'id': image.get('id'),
53             'url': image['url'],
54         } for image in media_data.get('Image', {}).get('ImageRepresentations', {}).get('ImageRepresentation', [])]
55
56         preference = qualities(['LQ', 'MQ', 'SD', 'HQ', 'HD'])
57         formats = []
58         for source in media_data.get('Playlists', {}).get('Playlist', []) + media_data.get('Downloads', {}).get('Download', []):
59             protocol = source.get('@protocol')
60             if protocol in ('HTTP-HDS', 'HTTP-HLS'):
61                 assets = {}
62                 for quality in source['url']:
63                     assets[quality['@quality']] = quality['text']
64                 asset_url = assets.get('HD') or assets.get('HQ') or assets.get('SD') or assets.get('MQ') or assets.get('LQ')
65                 if '.f4m' in asset_url:
66                     formats.extend(self._extract_f4m_formats(
67                         asset_url + '?hdcore=3.4.0', media_id,
68                         f4m_id='hds', fatal=False))
69                 elif '.m3u8' in asset_url:
70                     formats.extend(self._extract_m3u8_formats(
71                         asset_url, media_id, 'mp4', 'm3u8_native',
72                         m3u8_id='hls', fatal=False))
73             else:
74                 for asset in source['url']:
75                     asset_url = asset['text']
76                     ext = None
77                     if asset_url.startswith('rtmp'):
78                         ext = self._search_regex(r'([a-z0-9]+):[^/]+', asset_url, 'ext')
79                     formats.append({
80                         'format_id': asset['@quality'],
81                         'url': asset_url,
82                         'preference': preference(asset['@quality']),
83                         'ext': ext,
84                     })
85         self._sort_formats(formats)
86
87         return {
88             'id': media_id,
89             'title': title,
90             'description': description,
91             'timestamp': timestamp,
92             'thumbnails': thumbnails,
93             'formats': formats,
94         }
95
96
97 class SRGSSRPlayIE(InfoExtractor):
98     IE_DESC = 'srf.ch, rts.ch, rsi.ch, rtr.ch and swissinfo.ch play sites'
99     _VALID_URL = r'https?://(?:(?:www|play)\.)?(?P<bu>srf|rts|rsi|rtr|swissinfo)\.ch/play/(?:tv|radio)/[^/]+/(?P<type>video|audio)/[^?]+\?id=(?P<id>[0-9a-f\-]{36}|\d+)'
100
101     _TESTS = [{
102         'url': 'http://www.srf.ch/play/tv/10vor10/video/snowden-beantragt-asyl-in-russland?id=28e1a57d-5b76-4399-8ab3-9097f071e6c5',
103         'md5': '4cd93523723beff51bb4bee974ee238d',
104         'info_dict': {
105             'id': '28e1a57d-5b76-4399-8ab3-9097f071e6c5',
106             'ext': 'm4v',
107             'upload_date': '20130701',
108             'title': 'Snowden beantragt Asyl in Russland',
109             'timestamp': 1372713995,
110         }
111     }, {
112         # No Speichern (Save) button
113         'url': 'http://www.srf.ch/play/tv/top-gear/video/jaguar-xk120-shadow-und-tornado-dampflokomotive?id=677f5829-e473-4823-ac83-a1087fe97faa',
114         'md5': '0a274ce38fda48c53c01890651985bc6',
115         'info_dict': {
116             'id': '677f5829-e473-4823-ac83-a1087fe97faa',
117             'ext': 'flv',
118             'upload_date': '20130710',
119             'title': 'Jaguar XK120, Shadow und Tornado-Dampflokomotive',
120             'description': 'md5:88604432b60d5a38787f152dec89cd56',
121             'timestamp': 1373493600,
122         },
123     }, {
124         'url': 'http://www.rtr.ch/play/radio/actualitad/audio/saira-tujetsch-tuttina-cuntinuar-cun-sedrun-muster-turissem?id=63cb0778-27f8-49af-9284-8c7a8c6d15fc',
125         'info_dict': {
126             'id': '63cb0778-27f8-49af-9284-8c7a8c6d15fc',
127             'ext': 'mp3',
128             'upload_date': '20151013',
129             'title': 'Saira: Tujetsch - tuttina cuntinuar cun Sedrun Mustér Turissem',
130             'timestamp': 1444750398,
131         },
132         'params': {
133             # rtmp download
134             'skip_download': True,
135         },
136     }, {
137         'url': 'http://www.rts.ch/play/tv/-/video/le-19h30?id=6348260',
138         'md5': '67a2a9ae4e8e62a68d0e9820cc9782df',
139         'info_dict': {
140             'id': '6348260',
141             'display_id': '6348260',
142             'ext': 'mp4',
143             'duration': 1796,
144             'title': 'Le 19h30',
145             'description': '',
146             'uploader': '19h30',
147             'upload_date': '20141201',
148             'timestamp': 1417458600,
149             'thumbnail': 're:^https?://.*\.image',
150             'view_count': int,
151         },
152         'params': {
153             # m3u8 download
154             'skip_download': True,
155         }
156     }]
157
158     def _real_extract(self, url):
159         bu, media_type, media_id = re.match(self._VALID_URL, url).groups()
160         # other info can be extracted from url + '&layout=json'
161         return self.url_result('srgssr:%s:%s:%s' % (bu[:3], media_type, media_id), 'SRGSSR')