0

Statistical Learning for Big Dependent Data

eBook - Wiley Series in Probability and Statistics

107,99 €
(inkl. MwSt.)

Download

E-Book Download
Bibliografische Daten
ISBN/EAN: 9781119417392
Sprache: Englisch
Umfang: 560 S., 30.67 MB
Auflage: 1. Auflage 2021
E-Book
Format: PDF
DRM: Adobe DRM

Beschreibung

<p><b>Master advanced topics in the analysis of large, dynamically dependent datasets with this insightful resource</b></p><p><i>Statistical Learning with Big Dependent Data</i> delivers a comprehensive presentation of the statistical and machine learning methods useful for analyzing and forecasting large and dynamically dependent data sets. The book presents automatic procedures for modelling and forecasting large sets of time series data.  Beginning with some visualization tools, the book discusses procedures and methods for finding outliers, clusters, and other types of heterogeneity in big dependent data. It then introduces various dimension reduction methods, including regularization and factor models such as regularized Lasso in the presence of dynamical dependence and dynamic factor models. The book also covers other forecasting procedures, including index models, partial least squares, boosting, and now-casting. It further presents machine-learning methods, including neural network, deep learning, classification and regression trees and random forests.  Finally, procedures for modelling and forecasting spatio-temporal dependent data are also presented.</p><p>Throughout the book, the advantages and disadvantages of the methods discussed are given.  The book uses real-world examples to demonstrate applications, including use of many R packages. Finally, an R package associated with the book is available to assist readers in reproducing the analyses of examples and to facilitate real applications.</p><p><i>Analysis of Big Dependent Data</i>includes a wide variety of topics for modeling and understanding big dependent data, like:</p><ul><li>New ways to plot large sets of time series</li><li>An automatic procedure to build univariate ARMA models for individual components of a large data set</li><li>Powerful outlier detection procedures for large sets of related time series</li><li>New methods for finding the number of clusters of time series and discrimination methods , including vector support machines, for time series</li><li>Broad coverage of dynamic factor models including new representations and estimation methods for generalized dynamic factor models</li><li>Discussion on the usefulness of lasso with time series and an evaluation of several machine learning procedure for forecasting large sets of time series</li><li>Forecasting large sets of time series with exogenous variables, including discussions of index models, partial least squares, and boosting.</li><li>Introduction of modern procedures for modeling and forecasting spatio-temporal data</li></ul><p>Perfect for PhD students and researchers in business, economics, engineering, and science:<i>Statistical Learning with Big Dependent Data</i>also belongs to the bookshelves of practitioners in these fields who hope to improve their understanding of statistical and machine learning methods for analyzing and forecasting big dependent data.</p>

Autorenportrait

Daniel Peña, PhD, is Professor of Statistics at Universidad Carlos III de Madrid, Spain. He received his PhD from Universidad Politecnica de Madrid in 1976 and has taught at the Universities of Wisconsin-Madison, Chicago and Carlos III de Madrid, where he was Rector from 2007 to 2015.Ruey S. Tsay, PhD, is the H.G.B Alexander Professor of Econometrics& Statistics at the Booth School of Business, University of Chicago, United States. He received his PhD in 1982 from the University of Wisconsin-Madison. His research focuses on areas of business and economic forecasting, financial econometrics, risk management, and analysis of big dependent data.

Inhalt

1 Introduction to Big Dependent Data 11.1 Examples of Dependent Data 21.2 Stochastic Processes 111.2.1 Scalar Processes 111.2.1.1 Stationarity 121.2.1.2 White Noise Process 141.2.1.3 Conditional Distribution 141.2.2 Vector Processes 141.2.2.1 Vector White Noises 171.2.2.2 Invertibility 171.3 Sample Moments of Stationary Vector Process 181.3.1 Sample Mean 181.3.2 Sample Covariance and Correlation Matrices 191.3.3 Example 1.1 201.3.4 Example 1.2 231.4 Nonstationary Processes 231.5 Principal Component Analysis 261.5.1 Discussion 301.5.2 Properties of the Principal Components 301.5.3 Example 1.3 311.6 Effects of Serial Dependence 351.6.1 Example 1.4 371.7 Appendix 1: Some Matrix Theory 382 Linear Univariate Time Series 432.1 Visualizing a Large Set of Time Series 452.1.1 Dynamic Plots 452.1.2 Static Plots 512.1.3 Example 2.1 552.2 Stationary ARMA Models 562.2.1 The Autoregressive Process 582.2.1.1 Autocorrelation Functions 592.2.2 The Moving Average Process 602.2.3 The ARMA Process 622.2.4 Linear Combinations of ARMA Processes 632.2.5 Example 2.2 642.3 Spectral Analysis of Stationary Processes 652.3.1 Fitting Harmonic Functions to a Time Series 652.3.2 The Periodogram 672.3.3 The Spectral Density Function and its Estimation 702.3.4 Example 2.3 712.4 Integrated Processes 722.4.1 The Random Walk Process 722.4.2 ARIMA Models 742.4.3 Seasonal ARIMA Models 752.4.3.1 The Airline Model 772.4.4 Example 2.4 782.5 Structural and State Space Models 802.5.1 Structural Time Series Models 802.5.2 State-Space Models 812.5.3 The Kalman Filter 852.6 Forecasting with Linear Models 882.6.1 Computing Optimal Predictors 882.6.2 Variances of the Predictions 902.6.3 Measuring Predictability 912.7 Modeling a Set of Time Series 922.7.1 Data Transformation 932.7.2 Testing for White Noise 952.7.3 Determination of the Difference Order 952.7.4 Example 2.5 962.7.5 Model Identification 972.8 Estimation and Information Criteria 972.8.1 Conditional Likelihood 972.8.2 On-line Estimation 992.8.3 Maximum Likelihood Estimation 1002.8.4 Model Selection 1012.8.4.1 The Akaike Information Criterion 1022.8.4.2 The BIC Criterion 1032.8.4.3 Other Criteria 1032.8.4.4 Cross-Validation 1042.8.5 Example 2.6 1042.9 Diagnostic Checking 1072.9.1 Residual Plot 1072.9.2 Portmanteau Test for Residual Serial Correlations 1072.9.3 Homoscedastic Tests 1092.9.4 Normality Tests 1092.9.5 Checking for Deterministic Components 1092.9.6 Example 2.7 1102.10 Forecasting 1112.10.1 Out-of-Sample Forecasts 1112.10.2 Forecasting with Model Averaging 1122.10.3 Forecasting with Shrinkage Estimators 1132.10.4 Example 2.8 1142.11 Appendix 2: Difference Equations 1153 Analysis of Multivariate Time Series 1253.1 Transfer Function Models 1263.1.1 Single Input and Single Output 1263.1.2 Example 3.1 1313.1.3 Multiple Inputs and Multiple Outputs 1323.2 Vector AR Models 1333.2.1 Impulse Response Function 1353.2.2 Some Special Cases 1363.2.3 Estimation 1373.2.4 Model Building 1393.2.5 Prediction 1413.2.6 Forecast Error Variance Decomposition 1433.2.7 Example 3.2 1443.3 Vector Moving-Average Models 1523.3.1 Properties of VMA Models 1533.3.2 VMA Modeling 1533.4 Stationary VARMA Models 1573.4.1 Are VAR Models Sufficient? 1573.4.2 Properties of VARMA Models 1583.4.3 Modeling VARMA Process 1593.4.4 Use of VARMA Models 1593.4.5 Example 3.4 1603.5 Unit Roots and Co-integration 1653.5.1 Spurious Regression 1653.5.2 Linear Combinations of a Vector Process 1663.5.3 Co-integration 1673.5.4 Over-Differencing 1673.6 Error-Correction Models 1693.6.1 Co-integration Test 1703.6.2 Example 3.5 1714 Handling Heterogeneity in Many Time Series 1794.1 Intervention Analysis 1804.1.1 Intervention with Indicator Variables 1824.1.2 Intervention with Step Functions 1844.1.3 Intervention with General Exogenous Variables 1854.1.4 Building an Intervention Model 1854.1.5 Example 4.1 1864.2 Estimation of Missing Values 1874.2.1 Univariate Interpolation 1874.2.2 Multivariate Interpolation 1924.2.3 Example 4.2 1934.3 Outliers in Vector Time Series 1944.3.1 Multivariate Additive Outliers 1954.3.1.1 Effects on Residuals and Estimation 1954.3.2 Multivariate Level Shift or Structural Break 1974.3.2.1 Effects on Residuals and Estimation 1974.3.3 Other Types of Outliers 1984.3.3.1 Multivariate Innovative Outliers 1984.3.3.2 Transitory Change 1994.3.3.3 Ramp Shift 2004.3.4 Masking and Swamping 2004.4 Univariate Outlier Detection 2014.4.1 Other Procedures for Univariate Outlier Detection 2034.4.2 Example 4.3 2044.4.3 New Approaches to Outlier Detection 2054.4.4 Example 4.4 2074.4.5 Example 4.5 2094.5 Multivariate Outliers Detection 2104.5.1 VARMA Outlier Detection 2104.5.2 Outlier Detection by Projections 2124.5.3 A Projection Algorithm for Outliers Detection 2144.5.4 The Nonstationary Case 2154.5.5 Example 4.6 2164.5.6 Example 4.7 2174.6 Robust estimation 2184.6.1 Example 4.8 2204.7 Heterogeneity for Parameter Changes 2214.7.1 Parameter Changes in Univariate Time Series 2214.7.2 Covariance Changes in Multivariate Time Series 2234.7.2.1 Detecting Multiple Covariance Changes 2244.7.2.2 LR test: 2254.8 Appendix 4: Cusum Algorithms 2275 Clustering and Classification of Time Series 2355.1 Distances and Dissimilarities 2365.1.1 Distance Between Univariate Time Series 2365.1.2 Dissimilarities Between Univariate Series 2395.1.3 Example 5.1 2415.1.4 Dissimilarities Based on Cross-Linear Dependency 2475.1.5 Example 5.2 2505.2 Hierarchical Clustering of Time Series 2525.2.1 Criteria for Defining Distances Between Groups 2535.2.2 The Dendrogram 2545.2.3 Selecting the Number of Groups 2545.2.3.1 The Height and Step Plots 2545.2.3.2 Silhouette Statistic 2555.2.3.3 The Gap Statistic 2585.2.4 Example 5.3 2605.3 Clustering by Variables 2705.3.1 The K-means Algorithm 2715.3.1.1 Number of Groups 2735.3.2 Example 5.4 2735.3.3 K-Mediods 2775.3.4 Model Based Clustering by Variables 2795.3.4.1 ML Estimation of the AR Mixture Model 2805.3.4.2 The EM Algorithm 2825.3.4.3 Estimation of Mixture of Multivariate Normals 2835.3.4.4 Bayesian Estimation 2845.3.4.5 Clustering with Structural Breaks 2855.3.5 Example 5.5 2865.3.6 Clustering by Projections 2875.3.7 Example 5.6 2905.4 Classification with Time Series 2925.4.1 Classification Among a Set of Models 2935.4.2 Checking the Classification Rule 2955.5 Classification with Features 2965.5.1 Linear Discriminant Function 2965.5.2 Quadratic Classification and Admissible Functions 2975.5.3 Logistic Regression 2985.5.4 Example 5.7 3005.6 Nonparametric Classification 3075.6.1 Nearest Neighbors 3075.6.2 Support Vector Machines 3085.6.2.1 Linearly Separable Problems 3095.6.2.2 Nonlinearly Separable Problems 3125.6.3 Density Estimation 3145.6.4 Example 5.8 3155.7 Other Classification Problems and Methods 3176 Dynamic Factor Models 3236.1 The Dynamic Factor Model for Stationary Series 3256.1.1 Properties of the Covariance Matrices 3276.1.1.1 The Exact DFM 3286.1.1.2 The Approximate DFM 3296.1.2 Example 6.1 3306.1.3 Dynamic Factor and VARMA Models 3336.2 Fitting a Stationary DFM to Data 3346.2.1 Principal Component Estimation 3346.2.2 Pooled Principal Component Estimator 3366.2.3 Generalized Principal Component Estimator 3376.2.4 Maximum Likelihood Estimation 3376.2.5 Selecting the Number of Factors 3396.2.5.1 Rank Testing via Canonical Correlation 3396.2.5.2 Testing a Jump in Eigenvalues 3406.2.5.3 Using Information Criteria 3416.2.6 Forecasting with DFM 3416.2.7 Example 6.2 3426.2.8 Example 6.3 3436.2.9 Alternative Formulations of the EDFM 3486.3 Generalized Dynamic Factor Models for Stationary Series 3506.3.1 Some Properties of the GDFM 3516.3.2 GDFM and VARMA Models 3526.4 Dynamic Principal Components 3526.4.1 DPC for Optimal Reconstruction 3526.4.2 One-sided Dynamic Principal Components 3536.4.3 Model Selection and Forecasting 3566.4.4 One Sided DPC and GDFM Estimation 3576.4.5 Example 6.4 3576.5 Dynamic Factor Models for Nonstationary Series 3606.5.1 Example 6.5 3626.5.2 Cointegration and DFM 3666.6 Generalized Dynamic Factor Models for Nonstationary Series 3666.6.1 Estimation by Generalized Dynamic Principal Component 3676.6.2 Example 6.6 3696.7 Outliers in Dynamic Factor Models 3716.7.1 Factor and Idiosyncratic Outliers 3716.7.2 A Procedure to Find Outliers in DFM 3726.8 DFM with Cluster Structure 3736.8.1 Fitting DFMCS 3746.8.2 Example 6.7 3776.9 Some Extensions of DFM 3816.10 High-Dimensional Case 3836.10.1 Sparse Principal Components 3836.10.2 An Structural-Factor Model Approach 3866.10.3 Estimation 3866.10.4 Selecting the Number of Common Factors 3886.10.5 Asymptotic Properties of Loading Estimates 3897 Forecasting With Big Dependent Data 4017.1 Regularized Linear Models 4027.1.1 Properties of Lasso Estimator 4057.1.2 Some Extensions of Lasso Regression 4097.1.2.1 Adaptive Lasso 4097.1.2.2 Group Lasso 4107.1.2.3 Elastic Net 4117.1.2.4 Fused Lasso 4117.1.2.5 SCAD Penalty 4117.1.3 Example 7.1 4127.1.4 Example 7.2 4187.2 Impacts of Dynamic Dependence on Lasso 4227.3 Lasso for Dependent Data 4287.3.1 Example 7.5 4337.4 Principal Component Regression and Diffusion Index 4357.4.1 Example 7.6 4367.5 Partial Least Squares 4407.5.1 Example 7.7 4437.6 Boosting 4467.6.1 `2 Boosting 4477.6.2 Choices of Weak Learner 4487.6.3 Example 7.8 4497.6.4 Boosting for Classification 4527.7 Mixed-Frequency Data and Nowcasting 4547.7.1 MIDAS Regression 4557.7.2 Nowcasting 4567.7.3 Example 7.9 4577.7.4 Example 7.10 4617.8 Strong Serial Dependence 4648 Machine Learning of Big Dependent Data 4718.1 Regression Trees and Random Forest 4728.1.1 Growing Tree 4728.1.2 Pruning 4738.1.3 Classification Trees 4748.1.4 Example 8.1 4758.1.5 Random Forests 4778.1.6 Example 8.2 4788.2 Neural Networks 4808.2.1 Network Training 4828.2.2 Example 8.3 4888.3 Deep Learning 4908.3.1 Types of Deep Networks 4908.3.2 Recurrent Neural Network 4928.3.3 Activation Functions for Deep Learning 4938.3.4 Training Deep Networks 4948.3.4.1 Long Short-Term Memory Model 4958.3.4.2 Training Algorithm 4968.4 Some Applications 4978.4.1 The Package: keras 4988.4.2 Example 8.4 4988.4.3 Example 8.5 5028.4.4 Dropout Layer 5058.4.5 Application of Convolution Networks 5068.4.6 Application of LSTM 5138.4.7 Example 8.6 5188.5 Deep Generative Models 5248.6 Reinforcement Learning 5249 Spatio-Temporal Dependent Data 5299.1 Examples and Visualization 5309.2 Spatial Processes and Data Analysis 5369.3 Geostatistical Processes 5389.3.1 Stationary Variogram 5399.3.2 Examples of Semivariogram 5399.3.3 Stationary Covariance Function 5419.3.4 Estimation of Variogram 5429.3.5 Testing Spatial Dependence 5439.3.6 Kriging 5439.3.6.1 Simple Kriging 5449.3.6.2 Ordinary Kriging 5469.3.6.3 Universal Kriging 5479.4 Lattice Processes 5479.4.1 Markov-Type Models 5489.5 Spatial Point Processes 5509.5.1 Second-Order Intensity 5519.6 Example 9.1 5529.7 Spatio-Temporal Processes and Analysis 5559.7.1 Basic Properties 5569.7.2 Some Nonseparable Covariance Functions 5599.7.3 Spatio-Temporal Variogram 5609.7.4 Spatio-Temporal Kriging 5609.7.5 Example 9.2 5629.8 Descriptive Spatio-Temporal Models 5659.8.1 Random Effects with Spatio-Temporal Basis Functions 5669.8.2 Random Effects with Spatial Basis Functions 5679.8.3 Fixed Rank Kriging 5689.8.4 Example 9.3 5709.8.5 Spatial Principal Component Analysis 5729.8.6 Example 9.4 5739.8.7 Random Effects with Temporal Basis Functions 5769.8.8 Example 9.5 5769.9 Dynamic Spatio-Temporal Models 5829.9.1 Space-Time Autoregressive Moving-Average Models 5829.9.2 Spatio-Temporal Component Models 5849.9.3 Spatio-Temporal Factor Models 5849.9.4 Spatio-Temporal Hierarchical Models 585

Informationen zu E-Books

Allgemeine E-Book-Informationen

E-Books in diesem Webshop können in den Dateiformaten EPUB und PDF vorliegen und können ggf. mit einem Kopierschutz versehen sein. Sie finden die entsprechenden Informationen in der Detailansicht des jeweiligen Titels.

E-Books ohne Kopierschutz oder mit einem digitalen Wasserzeichen können Sie problemlos auf Ihr Gerät übertragen. Sie müssen lediglich die Kompatibilität mit Ihrem Gerät prüfen.

Um E-Books, die mit Adobe DRM geschützt sind, auf Ihr Lesegerät zu übertragen, benötigen Sie zusätzlich eine Adobe ID und die kostenlose Software Adobe® Digital Editions, wo Sie Ihre Adobe ID hinterlegen müssen. Beim Herunterladen eines mit Adobe DRM geschützten E-Books erhalten Sie zunächst eine .acsm-Datei, die Sie in Adobe® Digital Editions öffnen müssen. Durch diesen Prozess wird das E-Book mit Ihrer Adobe-ID verknüpft und in Adobe® Digital Editions geöffnet. 

Lizenz- und Nutzungsbedingungen für den Kauf von E-Books:

Mit dem Kauf eines E-Books erhalten Sie ein beschränktes Recht, dieses E-Book einmalig herunterzuladen und zu benutzen gemäß der nachfolgenden Bestimmungen:

1. Rechteeinräumung: Sie erhalten das Recht, die gekaufte elektronische Kopie des E-Books auf einem der Übertragung auf Leseendgeräte dienenden Gerät (Transfer Device), beispielsweise Ihrem Personal Computer, einem ausschließlich Ihnen zugewiesenen Speicherplatz auf einem Server oder innerhalb einer sogenannten "Cloud" herunterzuladen und dort dauerhaft zu speichern, Sicherungskopien hiervon anzufertigen sowie bis zu höchstens sechs weitere, gleichzeitige elektronische Kopien der gekauften Kopie des E-Books zu erstellen, auf Leseendgeräten zu speichern und auf diesen Geräten bestimmungsgemäß zu nutzen, soweit es sich um E-Books mit Adobe-DRM-Kopierschutz handelt.
E-Books, die mit einem digitalen Wasserzeichen versehen sind, können auf beliebig viele Geräte kopiert werden.

2. Einschränkungen: Sie dürfen das E-Book ausschließlich zu privaten und nicht-gewerblichen Zwecken nutzen. Eine kostenlose Weitergabe des E-Books an und ein Zugänglichmachen für Dritte sind ausschließlich auf und zusammen mit dem Leseendgerät zu privaten und nicht gewerblichen Zwecken zulässig. Das öffentliche Zugänglichmachen, das Weiterleiten, entgeltliche oder unentgeltliche Einstellen ins öffentliche Internet oder in andere öffentlich zugängliche Netze und Medien und jede Art der Nutzung zu kommerziellen Zwecken sind nicht zulässig. Es werden Ihnen keine weitergehenden Rechte zur Anfertigung von Vervielfältigungen als die in Ziffer 1 genannten eingeräumt, insbesondere dürfen Sie dieses E-Book nicht ganz oder teilweise ausdrucken oder längeren Abschnitte oder das gesamte E-Book elektronisch im Wege des "Copy and Paste" zitieren oder kopieren; auch erhalten Sie keine Rechte zur Nutzung einer Vorlesefunktion (sog. "Text-to-Speech", es sei denn, der Verlag hat dies für das jeweilige E-Book freigegeben. Eine weitergehende Nutzung, insbesondere eine weitere Vervielfältigung oder eine Verbreitung der gekauften elektronischen Kopie eines E-Books sowie der von ihm erstellten elektronischen Kopien, ist nicht gestattet. Der Inhalt des E-Books darf von Ihnen vorbehaltlich abweichender zwingender gesetzlicher Regeln weder inhaltlich noch redaktionell verändert werden. Änderungen an eventuell vom Verlag vorgenommenen Maßnahmen zum Schutz der Urheberrechte (insbesondere DRM-Verschlüsselungen oder Wasserzeichen) sind nicht erlaubt.

3. Download / Re-Download: Sie erhalten nur das Recht zum einmaligen Herunterladen (Download) der gekauften elektronischen Kopie des E-Books. Wir versuchen, Ihnen auch hiernach weitere Downloads nach dem ersten vollständig erfolgten Download (Re-Downloads) zu ermöglichen, ein Anspruch hierauf besteht jedoch nicht.

4. DRM: Falls das E-Book verlagsseitig mit einem System zum digitalen Rechtemanagement (DRM) verschlüsselt und individualisiert wurde, bestehen folgende zusätzliche Einschränkungen:

Sie können dieses E-Book nur mit einer zum eingesetzten DRM passenden Lese-Software (z.B. Adobe Digital Editions) nur auf solchen Leseendgeräten nutzen, die die vom Verlag vorgegebenen Verschlüsselungsmechanismen unterstützen.

Zur Nutzung des E-Books auf Leseendgeräten müssen Sie diese zuvor in geeigneter Art und Weise aktivieren. Hierzu müssen Sie sich ggf. vorab bei einem Dritten (z.B. Adobe Inc.) registrieren, um eine eindeutige ID für die Aktivierung zu erhalten. Hierfür ist ggf. die Angabe personenbezogener Daten gegenüber Dritten erforderlich. Die Deaktivierung eines Transfer Devices oder Leseendgerätes ist jederzeit möglich.

Bei Übertragung des E-Books zu Ihnen wird das E-Book mittels einer eindeutigen ID individuell verschlüsselt und ist dadurch nur auf Geräten nutzbar, die mit dieser ID aktiviert wurden.

Um ein E-Book zu kaufen, benötigen Sie in der Regel eine Internetverbindung, da der Download online abgewickelt wird. Auch zur Registrierung sowie zur Aktivierung und Deaktivierung von Leseendgeräten ist eine Internetverbindung nötig. Nach der Aktivierung brauchen Sie zum Lesen des E-Books jedoch keine Internetverbindung mehr; das gilt auch für E-Books, die Sie auf ein Leseendgerät übertragen haben.

5. Wasserzeichen: Falls das E-Book verlagsseitig beim Download mit einem individuellen, nicht löschbaren Wasserzeichen markiert wurde, gilt Folgendes:

Beim Download wird das E-Book mit einem individuellen, sichtbaren oder nicht sichtbaren Code markiert, der eine eindeutige Zuordnung zum Käufer ermöglicht.

Der Verlag, als Rechteinhaber, behält sich im Falle einer missbräuchlichen Nutzung des E-Books vor, vom Verkäufer die Herausgabe personenbezogener Daten des Käufers zu verlangen, um ggf. rechtliche Schritte einzuleiten.

6. Datenschutz: Nur im Falle eines identifizierten Verstoßes gegen diese Nutzungsbedingungen werden Ihre beim Verkäufer gespeicherten personenbezogenen Daten mit den beim Verlag gespeicherten Daten verknüpft. Ferner ist der Verkäufer verpflichtet, dem Verlag Ihre personenbezogenen Daten zu übermitteln, falls der Einzug des Kaufpreises scheitert. Der Verlag speichert die IP-Adresse unter der der Download des E-Books erfolgt und ggf. weitere anonyme Nutzungsdaten. Die Registrierung, sowie die Aktivierung und Deaktivierung von Leseendgeräten erfolgt gemäß den Datenschutzbestimmungen des jeweiligen Anbieters. Ihre personenbezogenen Daten werden im Übrigen nur zur Abwicklung der vertraglichen Leistungen genutzt und nur an hieran beteiligte Personen im erforderlichen Umfang weitergegeben.

7. Umtausch: Sie können ein gekauftes E-Book nicht umtauschen oder zurückgeben, außer, es liegt ein Gewährleistungsfall gemäß Ziffer 8 vor. E-Books gelten gesetzlich als Waren, die aufgrund ihrer Beschaffenheit nicht für eine Rücksendung geeignet sind. Wie bei Film-, Musik- oder Software-Downloads sind auch elektronische Bücher vom Widerrufsrecht ausgeschlossen. Dies beschränkt nicht Ihre gesetzlichen Gewährleistungsrechte im Falle von Mängeln.

8. Gewährleistung: Gelingt der erstmalige Download des E-Books nicht, nicht vollständig oder nicht fehlerfrei oder liegt nach erfolgreichem, vollständigem und fehlerfreiem Download ein Mangel des E-Books vor, können Sie Nacherfüllung entweder durch Mängelbeseitigung oder durch Ersatzlieferung verlangen. Ist die von Ihnen gewählte Art der Nacherfüllung unverhältnismäßig, kann alternativ eine andere Art der Nacherfüllung gewählt werden. Ist auch diese Nacherfüllung unverhältnismäßig, nicht möglich, verzögert sich diese über angemessene Fristen hinaus oder schlägt die Nacherfüllung in sonstiger Weise fehl, sind Sie nach Ihrer Wahl berechtigt, vom Vertrag zurückzutreten oder eine Minderung des Kaufpreises zu verlangen. Bitte richten Sie alle Gewährleistungsanfragen an uns, Buchladen zur schwankenden Weltkugel, Kastanienallee 85, 10435 Berlin, Telefon 030-4409158, info[at]buchladen-weltkugel.de.

9. Haftung: Eine über Ziffer 7 hinausgehende Haftung des Verkäufers und des Verlags sind ohne Rücksicht auf die Rechtsnatur des geltend gemachten Anspruchs ausgeschlossen, soweit sie nur auf leichter Fahrlässigkeit beruht. Der vorstehend genannte Haftungsausschluss gilt nicht für den Fall der Verletzung einer Garantie oder einer vertragswesentlichen Pflicht sowie bei einem Verstoß gegen das Produkthaftungsgesetz oder beim Fehlen einer garantierten Beschaffenheit. Bei Verletzung einer vertragswesentlichen Pflicht ist die Haftung jedoch auf den typischerweise voraussehbaren Schaden begrenzt. Der Haftungsausschluss und die Haftungsbegrenzung gelten nicht bei einer Verletzung des Lebens, des Körpers oder der Gesundheit.

10. Rechtswahl: Es gilt deutsches Recht unter Ausschluss des UN-Kaufrechts, auch wenn aus dem Ausland oder in das Ausland bestellt oder geliefert wird.