Essay for you

Gemeinsame Verteilung Von Zufallsvariablen Beispiel Essay

Category: Essay

Description

Gemeinsame verteilung von zufallsvariablen beispiel essay

bivariate Look at other dictionaries:

bivariate — (adj.) also bi variate, involving two variables, 1906, from BI (Cf. bi ) + variate, from L. variatio (see VARIATION (Cf. variation)) … Etymology dictionary

bivariate — adjective Date: 1920 of, relating to, or involving two variables … New Collegiate Dictionary

bivariate — adjective having two variables bivariate binomial distribution • Pertains to noun: ↑variable • Topics: ↑mathematics, ↑math, ↑maths … Useful english dictionary

bivariate — 1. adjective Having or involving exactly two variables 2. noun A polynomial or function with exactly two variables … Wiktionary

bivariate — adj. having two variables (Mathematics) … English contemporary dictionary

bivariate — [bʌɪ vɛ:rɪət] adjective Statistics involving or depending on two variates … English new terms dictionary

bivariate — a. denoting a quantity that depends on two variables … Dictionary of difficult words

Bivariate Verteilung — nennt man die gemeinsame Verteilung der Merkmalsausprägungen zweier Zufallsvariablen. Dabei geht es in der Statistik häufig um die Frage, ob und in welcher Form beide Variablen stochastisch unabhängig sind, was beispielsweise durch den… … Deutsch Wikipedia

Other articles

Gemeinsame verteilung von zufallsvariablen beispiel essay

bivariate Look at other dictionaries:

bivariate — (adj.) also bi variate, involving two variables, 1906, from BI (Cf. bi ) + variate, from L. variatio (see VARIATION (Cf. variation)) … Etymology dictionary

bivariate — adjective Date: 1920 of, relating to, or involving two variables … New Collegiate Dictionary

bivariate — /buy vair ee it, ayt /, adj. Statistics. of, relating to, or having two variates. [1915 20; BI 1 + VARIATE] * * * … Universalium

bivariate — 1. adjective Having or involving exactly two variables 2. noun A polynomial or function with exactly two variables … Wiktionary

bivariate — adj. having two variables (Mathematics) … English contemporary dictionary

bivariate — [bʌɪ vɛ:rɪət] adjective Statistics involving or depending on two variates … English new terms dictionary

bivariate — a. denoting a quantity that depends on two variables … Dictionary of difficult words

Bivariate Verteilung — nennt man die gemeinsame Verteilung der Merkmalsausprägungen zweier Zufallsvariablen. Dabei geht es in der Statistik häufig um die Frage, ob und in welcher Form beide Variablen stochastisch unabhängig sind, was beispielsweise durch den… … Deutsch Wikipedia

PPT - Der ²-Test PowerPoint Presentation

Der ²-Test PowerPoint PPT Presentation Download Presentation

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.

Presentation Transcript

Überprüfen von Verteilungen

Beispiel Binomialverteilung
  • Die Wahrscheinlichkeit für ein Einzelereignis sei p.z. B. Geburt eines Jungen: p = 0.495.
  • In n Fällen kann das Ereignis 0, 1. n-mal auftreten.z. B. n Geburten in einer Entbindungsstation an einem Tag.

  • Wie wahrscheinlich ist es, daß das Ereignis 0-mal (1-mal. n-mal) auftritt? Voraussetzung: unabhängig!

  • Es tritt i-mal auf mit der Wahrscheinlichkeit

    bn,p (i) = (n) pi (1–p)n–i.

    bn,p (i) = (i) pi (1–p)n–i.

    Überprüfen der Verteilung
    • Wahrscheinlichkeit für Geburt eines Jungen: p = 0.495.
  • Wir betrachten alle Tage (n=17), wo in der Entbindungsstation 10 Geburten entbunden werden und betrachten die Verteilung der Zahl mi der geborenen Jungen über die k=11 Klassen 0, 1. 10.

  • Wir vergleichen dies mit der erwarteten Verteilung pi = b10,0.495(i–1), i = 1, 2. 11, und bestimmen die Abweichung:

    ²k–1 = i=1. k (mi – n·pi)² / n·pi.

    hier: ²10 = 13.11. ²10,0.05 = 18.3.

  • PPT - Folie 1 PowerPoint presentation

    Folie 1 - PowerPoint PPT Presentation

    Transcript and Presenter's Notes


    1
    Graphical Models and Biological Networks
    Lecture room A 0.01
    2
    Organisational Issues
    Lectures Tue 14hct 16h Exercises Tue 16h -
    16.45h 1 Exercise sheet per week participation
    obligatory submission of solutions highly
    recommended Credit Points 3 ECTS Location
    Seminar Room 0.4 Gene Center
    Feodor-Lynen-Str.25 81377 Munich
    Time Date OK? Other preferences? Final exam
    Written or oral? Online materials
    http//www.lmb.uni-muenchen.de/tresch/graphicalmod
    els.html
    3
    Schedule
    • Introduction to statistics (probability
      distributions, conditional probability, maximum
      likelihood, Bayes' Theorem, priors and
      posteriors)
    • Bayesian networks, Markov Random fields and their
      applications
    • Factor graphs I Definitions and examples in
      computational biology
    • Factor graphs II Sum-product and max-sum
      algorithms
    • Applications to regulatory networks, gene
      prediction, and data clustering
    • Introduction to hidden Markov models and
      applications in sequence searching
    • Conditional random fields
    • Applications in protein structure prediction and
      sequence searching

    4
    References
    • Theory
    • Theory Duda, Hart, Storck (2000), "Pattern
      Classification", chapter 3
    • Bishop (2006), "Pattern recognition and Machine
      learning", chapters 1,8
    • Kschischang, Frey, Loeliger (1998) Factor graphs
      and sum-product algorithm, IEEE Transactions
      Information Theory
    • Kschischang, Frey, Loeliger (2001) Factor graphs
      and sum-product algorithm, IEEE Transactions
      Info Theory
    • Durbin, Eddy, Krogh, Mitchison, (1998)
      "Biological sequence analysis", chapters 3,5
      Sutton,
    • McCallum (2006) "An introduction to conditional
      random fields for relational learning",
      Introduction to Statistical Relational Learning.
      MIT Press, 2006.

    5
    References
    • Applications
    • Heckermann (1996) A Tutorial on Learning with
      Bayesian Networks, Microsoft Technical Report,
      MSR TR 95-06
    • Friedman (1998) The Bayesian structural EM
      algorithm, Proc. 14th Conf. UAI Huang,
    • Bystroff (2006) "Improved pairwise alignments of
      proteins in the Twilight Zone using local
      structure predictions", Bioinformatics
    • Zhao, Li, Sterner, Xu (2008) "Discriminative
      learning for protein conformation sampling",
      Proteins
    • Vaske et al. (2009) "A factor graph nested
      effects model to identify networks from genetic
      perturbations", PLoS Comput Biol
    • Gat-Viks, Tanay, Raijman, Shamir, (2006) "A
      Probabilistic Methodology for Integrating
      Knowledge and Experiments on Biological
      Networks", Journal of Computational Biology
    • Yeang et al. (2005) "Validation and refinement of
      gene-regulatory pathways on a network of physical
      interactions", Genome Biology
    • Frey a al. (2005) "Genome-wide analysis of mouse
      transcripts using exon microarrays and factor
      graphs", Nature Genetics

    6
    Introduction
    Experiment
    design
    measure,evaluate
    formalize
    interpret
    Graphical Models
    predict
    Biological Networks
    (e.g. Markov random fields)
    (e.g. protein-protein interaction map)
    observe, hypothesize
    observe
    Nature
    7
    Introduction
    Definition of Graphical Models Jordan99
    Short Graphical models are a class of
    probabilistic models that provide a compact
    encoding of a joint probability distribution in
    terms of a graph strucure and a set of local
    distributions.
    8
    Example Probabilistic Models
    Beispiel Unterscheidung von Lachs und Seebarsch
    Task Sorting two kinds of fish species using
    optical sensing
    Taken from Duda, Hart, Stork
    9
    Example Probabilistic Models
    Beispiel Unterscheidung von Lachs und Seebarsch
    Idea Classify according to length(-distributions)
    Choose a threshold x above which we classify an
    object as sea bass, and below which we classify
    as salmon.
    10
    Example Probabilistic Models
    Beispiel Unterscheidung von Lachs und Seebarsch
    Similarly, classify according to
    lightness(-distributions)
    11
    Example Probabilistic Models
    Beispiel Unterscheidung von Lachs und Seebarsch
    Combine length and lightness(-distributions)
    length
    12
    Example Probabilistic Models
    Beispiel Unterscheidung von Lachs und Seebarsch
    How to find a good decision boundary (
    prediction algorithm, classifier)?
    13
    Beispiel Unterscheidung von Lachs und Seebarsch
    Task Find a (two) model(s) that describe(s) the
    probability distribution (/density) of length and
    lightness, given a salmon resp. a sea bass.
    For a given observation (length, lightness),
    define the likelihood
    L(fish?) p(length,lightness ?)
    The likelihood is a function of the
    model(-parameters), not of the data!
    14
    Bayessche Entscheidungstheorie
    Use a model to construct a good decision rule (in
    one dimension) Consider the lightness density
    for salmon resp. sea bass.
    P(x ?salmon)
    P(x ?sea bass)
    How would you decide when observing a new fish of
    lightness 10.5 ?
    Without additional information on the overall
    frequency of salmon and sea bass, it is sensible
    to decide for the maximum likelihood (ML)
    estimate. ML argmax. L(?)
    15
    Bayessche Entscheidungstheorie
    Assume that we exclusively catch salmon and sea
    bass. Picking a fish at random, there is a prior
    probability (prior for short) for grabbing a
    salmon resp. sea bass, P(?salmon), P(?sea
    bass) This means that we regard. as a random
    variable.
    NB. In the absence of any prior knowledge, one
    usually assumes a uniform prior over the possible
    outcomes of a variable. In our case, this would
    mean P(?salmon)
    P(?sea bass) 0.5
    For given lightness x, we want to decide
    whether P( ?salmon x) gt P( ?sea bass x)
    (then decide for salmon) Question What does
    this expression mean? How can we calculate it?
    16
    Bayessche Entscheidungstheorie
    Recall the (informal) definition of conditional
    probability p( x. ) p( x. ) P(?)
    P(. x) p(x)
    Bayes Theorem
    Bayes Essay Towards Solving a Problem in the
    Doctrine of Chances, which contains the above
    formula, was published only three years after his
    death.
    Reverend Thomas Bayes, 1702, 1761English
    mathematician and Presbyterian minister.
    17
    Bayessche Entscheidungstheorie
    Bayes Theorem
    Likelihood
    Prior
    Posterior
    The decision rule can be formulated without
    knowing p(x) salmon, if P( x. salmon)
    P(? salmon) gt P( x ?bass) P(?bass) sea
    bass, if P( x. salmon) P(? salmon) P(
    x ?bass) P(?bass)
    This maximum a posteriori (MAP) decision rule is
    also called the Bayes classifier. MAP
    argmax. P(?x)
    It can be shown that the Bayes classifier is
    optimal in the sense that it minimizes the risk
    of misclassification Exercise.
    18
    Bayessche Entscheidungstheorie
    P(?sea bass x)
    P(?salmon x)
    19
    Beispiel The O.J. Simpson Trial
    O.J. SimpsonIn 1995, Simpson was accused of the
    murder of Nicole Simpson and Ronald Goldman.
    Traces of blood were found at the murder scene
    which could be attributed to O.J. Simpson with a
    1 in 170 million chance. In spite of this
    evidence, he was acquitted of the murder after a
    lengthy, highly publicized criminal trial.
    preemption of the Jury, factors from prior
    knowledge
    20
    Bayes-Entscheidungn bei normalverteiltem Posterior
    Exkurs Die Normalverteilung
    21
    Bayes-Entscheidungn bei normalverteiltem Posterior
    22
    Bayes-Entscheidungn bei normalverteiltem Posterior
    p(x) p((x1,x2))
    x2
    x1
    23
    Bayes-Entscheidungn bei normalverteiltem Posterior
    Geometrische Interpretation der multivariaten
    Normalverteilung
    Sei ej die Standardnormalbasis,
    ?
    ?
    Lemma Es existiert eine Orthonormalbasis vj
    (bzgl. des euklid. Skalarprodukts) von
    Eigenvektoren von G
    ?
    mit nicht-negativen reellen Eigenwerten ?j
    ?
    ?
    ?
    mit
    24
    Bayes-Entscheidungn bei normalverteiltem Posterior
    25
    Bayes-Entscheidungn bei normalverteiltem Posterior
    26
    MAP- und ML-Schätzung. Beispiel
    Wie konstruiert man aus gegebenen Daten geeignete
    Priors und Likelihoods?
    1. Versuch Benutze die empirischen Häufigkeiten
    PEmp(?j) als Annäherung an die wahren Priors
    P(?j) Benutze die empirischen Verteilungen
    PEmp(x?j) als Annäherung an die wahre Likelihood
    P(x?j).
    Daten (Beobachtungen)
    Empirische Verteilung(en)
    PEmp(x Lachs)
    PEmp(x Barsch)
    Das Auszählen der Klassenhäufigkeiten liefert
    meist eine gute Approximation der wahren Priors.
    Problem Die empirische Verteilung ist meist
    eine schlechte Approximation der Likelihood. Es
    existieren zu wenige Beobachtungen, um
    insbesondere hochdimensionale Verteilungen genau
    zu schätzen.
    27
    MAP- und ML-Schätzung. Beispiel
    Lösungsmöglichkeit Lasse Wissen über die Art des
    Problems, d.h. über die Form der Likelihood,
    einfließen. Mache zusätzliche Modellannahmen.
    Beispiel Daten D x1. xk. xj
    Größe von Barsch j in mm D.h. die gesuchte
    Verteilung die der Zufallsvariable X Länge
    eines Barsches.
    tatsächliche Dichte von X
    empirische Dichtefunktion
    Modellannahme X ist eine normalverteilte
    Zufallsvariable N(µ,s2)
    28
    MAP- und ML-Schätzung
    Modellannahmen können helfen, eine
    Zufallsvariable (bzw. deren Verteilung) besser zu
    approximieren. Modellannahmen fließen meist durch
    die Wahl einer Modellklasse ein. Eine
    Modellklasse ist eine Menge von Zufallsvariablen,
    von denen jedes Element durch eine feste, kleine
    Zahl von Parametern beschrieben werden kann.
    • Beispiele
    • Die Modellklasse aller eindimensionalen
      Normalverteilungen N(µ,s2) µ?R. s2gt0
    • Die Modellklasse aller multivariaten
      (n-dimensionalen) Normalverteilungen N(µ,S)
      µ?Rn. S positiv definite n x n Matrix
    • Die Klasse der Bayesnetze BN(V, L) V
      gerichteter azyklischer Graph, L Menge von
      lokalen bedingten Wahrscheinlichkeitsverteilungen
    • Die Klasse der Hidden Markov Modelle
      HMM(S,A,B,p,V). Zustandsmenge S, Übergangsmatrix
      A, Menge Emissionswahrscheinlichkeitsverteilungen
      B, Anfangsverteilung p, Merkmalsraum V
    • u.v.m.

    Problem (Modellselektion) Welches ist die
    richtige Modellklasse? Welches ist eine
    vernünftige Modellklasse?
    29
    MAP- und ML-Schätzung
    Sei eine Modellklasse P?(x). O gegeben.
    D.h. jedes konkrete Modell ist eine
    Wahrscheinlichkeitsverteilung P?(x), welche durch
    einen Satz von Parametern. O definiert wird.
    Es soll nun das bestpassende Modell P?(x)
    gefunden werden, d.h. der Parametersatz. O.
    welcher die beste Approximation der wahren
    Verteilung P(X) der Daten liefern.
    ? Problem (Parameteridentifikation) Wie finde
    ich die richtigen Parameter? Gesucht Ein
    Verfahren, das aus den beobachteten Daten
    Dx1,,xn die Parameter O eines möglichst gut
    passenden Modells schätzt.
    1. Möglichkeit Maximum Likelihood Schätzung
    (ML). Finde das (ein) ?O (den ML-Schätzer),
    für welches die Beobachtung der Daten D am
    wahrscheinlichsten ist. Anm. Fast immer nimmt
    man die Unabhängigkeit der Daten an. D.h. die
    Daten sind i.i.d. (independent, identically
    distributed) Realisierungen der Zufallsvariablen
    X. Somit entsteht jedes xj durch unabhängiges
    Ziehen aus der gleichen Verteilung P?(x). Dann ist
    und
    30
    MAP- und ML-Schätzung
    2. Möglichkeit Maximum A Posteriori Schätzung
    (MAP). Nimm an, der Parameterraum O sei ein
    Wahrscheinlichkeitsraum mit Dichte P(?). Dann ist
    Likelihood
    Modellrior
    Posterior
    Unabhängigkeit der Einzelbeobachtugnen
    angenommen, ergibt sich
    und
    Formal unterscheiden sich MAP- und ML-Schätzer
    nur durch den Modellprior P(?). Ist der Prior
    uniform ( P(?) const. ), so sind MAP- und
    ML-Schätzer identisch. Konzeptionell sind beide
    Verfahren verschieden ML betrachtet die Daten
    als Realisierungen eines festen Modells P?(x),
    MAP betrachtet die Daten als fest und die Modelle
    als Realisierungen einer Zufallsvariablen mit der
    Dichte P(?Daten).
    31
    Maximum Likelihood bei Normalverteilungen
    Die eingezeichneten Werte (schwarze Punkte)
    wurden aus einer Normalverteilung N(?,s2) mit
    bekannter Standardabweichung s, aber unbekanntem
    Erwartungswert. gezogen.
    ?2
    ?3
    ?4
    ?1
    Verschiedene Dichten P(x ?j)
    Likelihoodfunktion P(D?). Dies ist i.d.R. keine
    Wahrscheinlichkeitsdichte!
    log-Likelihoodfunktion l(?) ln
    P(D?) (Oft ist es leichter, die log-Likelihood
    zu maximieren)
    32
    Maximum Likelihood bei Normalverteilungen
    33
    Maximum Likelihood bei Normalverteilungen
    (Beweis Übung)
    34
    Maximum a posteriori bei Normalverteilungen
    n
    Wir wollen P(µD). P(D µ) P(µ) maximieren.
    Spezifikation des Priors P(µ) N(µ0,s02). µ0
    und s02 sind festgelegt
    35
    Maximum a posteriori bei Normalverteilungen
    Somit hat p(µD) die Gestalt
    Koeffizientenvergleich ergibt
    und
    , wobei
    36
    Maximum a posteriori bei Normalverteilungen
    Auflösen nach µn, sn ergibt (mit
    )
    Der Posterior versammelt seine Masse mit n?8
    immer enger um µn. Mit zunehmendem n wird der
    Einfluss des Priors (µ0,s0) auf den Posterior
    bzw. den MAP-Schätzer immer geringer.
    37
    Maximum a posteriori bei Normalverteilungen
    Während der ML-Schätzer ein Punktschätzer ist (es
    wird nur ein Satz Parameter ermittelt), liefert
    der MAP-Ansatz neben einem Punktschätzer eine
    Wahrscheinlichkeitsverteilung der Parameter,
    p(µD).
    38
    Maximum a posteriori bei Binomialverteilungen
    Einmaliger Münzwurf mit Kopfwahrscheinlichkeit ?
    n-faches Werfen derselben Münze (Dx1,,xn,
    davon nK Mal Kopf und nZ Mal Zahl)
    Die Betaverteilung
    Wir suchen den Posterior P(?D), gegeben ein
    geeigneter Prior. Es gibt eine geschickte
    Priorwahl
    39
    Konjugierte Prior
    Der Posterior kann nämlich in geschlossener Form
    ausgerechnet werden, und hat wieder eine
    Beta-Verteilung, stammt also aus der gleichen
    Verteilungsfamilie wie der Prior
    Sei eine Likelihoodfunktion gegeben. Ein Prior,
    bezüglich dessen der Posterior aus der gleichen
    Familie von Wahrscheinlichkeitsverteilungen wie
    der Prior stammt, heißt konjugierter
    Prior.Vorteil konjugierter Prior Die Berechnung
    des Posteriors ist besonders leicht, da nur die
    Parameter der Verteilung geupdated werden
    müssen, wie in obigem Beispiel Likelihood
    Binomialvert. Parameter des Priors (a,ß)
    Parameter des Posteriors (anK,ßnZ)
    40
    Konjugierte Prior
    True parameter. 0.3
    samples
    Posterior P(?Data)
    Uniform Prior P(?)Beta(1,1)
    41
    Konjugierte Prior
    from Wikipedia, conjugate prior
    42
    Was ist R ?
    • Framework for statistical data analysis
    • Open source, largely compatible with Splus
      (commercial software)
    • Active community, easy integration of new
      functionality (packages)
    • Most widespread statistics tool in science
      (together with SAS and SPSS)
    • The standard for Computational Biology

    43
    Installation von R/Bioconductor
    http//cran.r-project.org/
    44
    Installation von R/Bioconductor
    http//www.bioconductor.org/docs/install/
    45
    Installation von R/Bioconductor
    46
    R-Syntax, elementare Rechenoperationen
    gt x 020 gt y xx gt plot(x,y)
    47
    R-Syntax, elementare Rechenoperationen
    gt x 14 gt y x2 gt z xc(0,1)
    48
    R-Syntax, elementare Rechenoperationen
    gt x rnorm(100,mean0,sd1) gt hist(x) gt
    density(x)
    49
    R-Syntax, elementare Rechenoperationen
    • gt x rnorm(6,mean0,sd1)
    • gt x
    • 1 -1.08095279 -1.32442492 -0.77553316
      -0.44245375 0.03208035 0.03687350
    • gt likelihood function(mu0,sigma1,datax)
      prod(dnorm(data,meanmu,sdsigma))
    • gt theta seq(from-5,to5,length100)
    • gt plot(theta,sapply(theta,likelihood))
    • gt optimize(likelihood,interval
      c(-5,5),maximumTRUE)
    • maximum
    • 1 -0.5924009
    • objective
    • 1 0.001796537

    50
    Konjugierte Prior
    R-Code for the calculation of the posterior for
    the coin flip experiment
    gt theta0.3 gt alpha 1 beta 1 gt x
    seq(0,1,length200) gt plot(x,dbeta(x,alpha,beta),t
    ype"l",lwd2,ylab"Density",
    xlab"",ylimc(0,5.5)) gt abline(vtheta) gt n10 gt
    for (j in 25) nk rbinom(1,sizen,probth
    eta) nz n-nk alpha alpha nk beta
    beta nz points(x,dbeta(x,alpha,beta),type"l",
    lwd2,colj) gt legend(0.6,5,legendpaste("n",
    (04)n),col15,lty1)

    PowerShow.com is a leading presentation/slideshow sharing website. Whether your application is business, how-to, education, medicine, school, church, sales, marketing, online training or just for fun, PowerShow.com is a great resource. And, best of all, most of its cool features are free and easy to use.

    You can use PowerShow.com to find and download example online PowerPoint ppt presentations on just about any topic you can imagine so you can learn how to improve your own slides and presentations for free. Or use it to find and download high-quality how-to PowerPoint ppt presentations with illustrated or animated slides that will teach you how to do something new, also for free. Or use it to upload your own PowerPoint slides so you can share them with your teachers, class, students, bosses, employees, customers, potential investors or the world. Or use it to create really cool photo slideshows - with 2D and 3D transitions, animation, and your choice of music - that you can share with your Facebook friends or Google+ circles. That's all free as well!

    For a small fee you can get the industry's best online privacy or publicly promote your presentations and slide shows with top rankings. But aside from that it's free. We'll even convert your presentations and slide shows into the universal Flash format with all their original multimedia glory, including animation, 2D and 3D transition effects, embedded music or other audio, or even video embedded in slides. All for free. Most of the presentations and slideshows on PowerShow.com are free to view, many are even free to download. (You can choose whether to allow people to download your original PowerPoint presentations and photo slideshows for a fee or free or not at all.) Check out PowerShow.com today - for FREE. There is truly something for everyone!

    presentations for free. Or use it to find and download high-quality how-to PowerPoint ppt presentations with illustrated or animated slides that will teach you how to do something new, also for free. Or use it to upload your own PowerPoint slides so you can share them with your teachers, class, students, bosses, employees, customers, potential investors or the world. Or use it to create really cool photo slideshows - with 2D and 3D transitions, animation, and your choice of music - that you can share with your Facebook friends or Google+ circles. That's all free as well!

    For a small fee you can get the industry's best online privacy or publicly promote your presentations and slide shows with top rankings. But aside from that it's free. We'll even convert your presentations and slide shows into the universal Flash format with all their original multimedia glory, including animation, 2D and 3D transition effects, embedded music or other audio, or even video embedded in slides. All for free. Most of the presentations and slideshows on PowerShow.com are free to view, many are even free to download. (You can choose whether to allow people to download your original PowerPoint presentations and photo slideshows for a fee or free or not at all.) Check out PowerShow.com today - for FREE. There is truly something for everyone!

    Gemeinsame Verteilung von Zufallsvariablen

    Gemeinsame Verteilung von Zufallsvariablen About this Chapter Title Gemeinsame Verteilung von Zufallsvariablen Book Title Stochastik für Einsteiger Book Subtitle Eine Einführung in die faszinierende Welt des Zufalls Pages pp 131-141 Copyright 2011 DOI 10.1007/978-3-8348-8649-1_17 Print ISBN 978-3-8348-1845-4 Online ISBN 978-3-8348-8649-1 Publisher Vieweg+Teubner Verlag Copyright Holder Vieweg+Teubner Verlag | Springer Fachmedien Wiesbaden GmbH Additional Links
    • About this Book
    Topics
    • Probability Theory and Stochastic Processes
    Industry Sectors
    • Pharma
    • Automotive
    • Biotechnology
    • Finance, Business & Banking
    • Consumer Packaged Goods
    • Oil, Gas & Geosciences
    • Engineering
    eBook Packages
    • Life Science and Basic Disciplines (German Language)
    Authors
    • Prof. Dr. Norbert Henze (2)
    Author Affiliations
    • 2. Institut für Stochastik, Karlsruher Institut für Technologie, Kaiserstr. 89-93, 76131, Karlsruhe
    Continue reading.

    To view the rest of this content please follow the download PDF link above.

    Over 10 million scientific documents at your fingertips

    Our Content Other Sites Help & Contacts

    © Springer International Publishing AG, Part of Springer Science+Business Media Privacy Policy, Disclaimer, General Terms & Conditions

    Not logged in Unaffiliated 94.180.184.170

    Versorgung - Translation into English - examples German

    Translation of "versorgung" in English

    Die Erfindung dient zur Energieerzeugung und -versorgung (Strom, Wärme, Kälte) im privaten, kommunalen und industriellen Bereich und zur Energieeinspeisung in energetische und chemische Prozesse.

    The invention is used for generating and supplying energy (electricity, heat, cold) in the private, communal and industrial sectors and supplying energy to energetic and chemical processes.

    Mit der Richtlinie 2003/54/EG des Europäischen Parlaments und des Rates(5) werden gemeinsame Vorschriften für die Elektrizitätserzeugung, -übertragung, -verteilung und -versorgung im Elektrizitätsbinnenmarkt erlassen.

    Directive 2003/54/EC of the European Parliament and of the Council of 26 June 2003(5) establishes common rules for the generation, transmission, distribution and supply of electricity within the internal market in electricity.

    (2a) Grundwasser ist das empfindlichste und in der EU größte Süßwasser -vorkommen und vor allem die Haupt -quelle für die öffentliche Trinkwasser -versorgung .

    (2a) Groundwater is the most sensitive and the largest body of freshwater in the EU and in particular also the primary source of public drinking water supply .

    Freie Wahrscheinlichkeit Lehre

    Oberseminar zur Freien Wahrscheinlichkeit

    In diesem Seminar behandeln wir Themen aus der aktuellen Forschung zur Freien Wahrscheinlichkeit.

    Zeit und Ort

    mittwochs, 16-18 Uhr, SR6 (217)

    Vorträge
    • 11.9.2013, 14h ct, Hörsaal III (!), Xiao Xong (Université de Franche-Comté Besançon).
      Sobolev inequalities on quantum tori.
      We consider quantum tori with a series of operators, called partial derivatives. In analogy to the classical case, we define the corresponding Sobolev spaces and prove the Sobolev embedding inequalities.

  • 23.10.2013, Moritz Weber (Universität des Saarlandes, Saarbücken).
    The complete classification of easy quantum groups.
    Quantum groups generalize the notion of groups in noncommutative operator algebraic settings. The easy quantum groups in turn have a very intrinsic combinatorial component. Its classification (in the orthogonal case) has recently been completed by Sven Raum and myself, and I will report on these results.


  • 30.10.2013, Ion Nechita (Université de Toulouse).
    Optimization over random subspaces of matrices and free compression norms.
    Computing S_1 -> S_p norms of generic quantum channels (completely positive, trace preserving maps) is shown to be equivalent to some optimization problems for norms appearing in free probability. We shall discuss two such examples and describe the relation to free compression norms. If time permits, some applications to quantum information theory will be presented. This is joint work with S. Belinschi, B. Collins and M. Fukuda.


  • 06.11.2013, Pierre Tarrago (Universität des Saarlandes, Saarbücken).
    Teilklassifizierung der easy Quantengruppen im unitären Fall.
    Easy Quantengruppen sind spezielle Quantengruppen, deren Darstellungstheorie kombinatorische Eigenschaften hat. Aufgrund dieser Eigenschaften ist es möglich, eine Klassifizierung dieser Quantengruppen anzugehen. In diesem Vortrag wird eine Klassifizierung im Fall der sogenannten freien Quantengruppen vorgestellt. Dies ist eine gemeinsame Arbeit mit Moritz Weber.


  • 04.12.2013, Amaury Freslon (Paris, Frankreich).
    Quantum symmetries of noncrossing partitions
    The proofs of De Finetti type theorems reveal that the combinatorics of certain joint distributions of (conditionally) free random variables is exactly the same as the combinatorics governing the representation theory of some quantum groups. This leads to the notion of "partition (or easy) quantum group" defined by Banica and Speicher. In this talk, I will take this point of view as far as possible, explaining how a comprehensive (and purely combinatorial) study of noncrossing partitions can yield important results concerning quantum groups. This is based on a joint work with M. Weber.


  • 11.12.2013, Mireille Capitaine (CNRS, Institut de Mathematiques de Toulouse).
    Exact separation phenomenon for the eigenvalues of large Information-Plus-Noise type matrices. Application to spiked models


  • 11.12.2013, Francois Chapon (Paris, Frankreich).
    Quantum random walks and matrix Brownian motion.
    We will see the construction of non-commutative discrete time approximation of Hermitian Brownian motion by considering quantum random walks, and how this construction allows to understand the Markov property or not of some of its minors eigenvalues processes.


  • 11.12.2013, Cedric Schonard (Universität des Saarlandes).
    Topics in Free Transportation.
    A powerful result by Brenier states that for sufficiently "nice" probability measures the unique solution of Kantorovich's optimal transportation problem for quadratic cost is obtained as the push-forward via the gradient of a convex function. A. Guionnet and D. Shlyakhtenko proved an analogue result in the context of free probability. I will explain the main ideas of their proof and compare the obtained results to Brenier's theorem.


  • 11.12.2013, Jonas Wahl (Universität des Saarlandes).
    Haagerups Approximationseigenschaft für Quantum Reflection Groups
    Assoziiert man zu einer kompakten Quantengruppe ihre reduzierte C* - Algebra, sowie deren einhüllende von Neumann - Algebra, so ergeben sich eine Vielzahl von Fragen nach den Eigenschaften dieser Objekte. Besonders interessant ist dabei die von U. Haagerup eingeführte Approximationseigenschaft (HAP) für finite von Neumann - Algebren, da diese alleine von der Darstellungstheorie der Quantengruppe abhängt. Ich präsentiere einen Beweis der HAP für die Quantengruppe S_n^+ sowie für die Quantum Reflection Groups H_n^s+, welche eng mit den easy Quantengruppen verwandt sind.


  • 15.01.2014, Pierre Tarrago (Universität des Saarlandes).
    Die Verteilung des Charakters für ein freies Kranzprodukt.
    Der Begriff des Kranzprodukts von zwei diskreten Gruppen taucht bei der Untersuchung der Symmetrie von endlichen Graphen auf. Die Verallgemeinerung auf den nichtkommutativen Fall ist das freie Kranzprodukt zwischen zwei Untergruppen der freien symmetrischen Gruppe S_n^+. In meinem Vortrag werde ich diese Begriffe einführen und danach ein Ergebnis über die Verteilung des Charakters eines freien Kranzprodukts (mit einer direkten Anwendung) vorstellen.


  • 22.01.2014, Fabian Gerle (Bochum).
    Die Lindebergmethode in der Theorie der Zufallsmatrizen.
    Lindebergs Methode zum Beweis des zentralen Grenzwertsatzes lässt sich leicht verallgemeinern und kann angewandt werden, um Grenzwertsätze für die empirische Eigenwertverteilung von Zufallsmatrizen auf elegante Art zu beweisen. In meinem Vortrag über die Inhalte meiner Masterarbeit, werde ich zunächst kurz Lindebergs über 90 Jahre alten Beweis skizzieren. Wir werden dann sehen, wie sich die zu Grunde liegende Beweisidee auf allgemeinere Funktionen und allgemeinere Folgen von Zufallsvariablen erweitern und wie sich eine solche verallgemeinerte Lindebergmethode in der Theorie der Zufallsmatrizen anwenden lässt. Mit Hilfe der so gewonnenen verallgemeinerten Lindebergmethode leiten wir dann Bedingungen für die Konvergenz der empirischen Eigenwertverteilung von Wigner- und von Wishartmatrizen in verschiedenen Situationen her, die der klassischen Lindebergbedingung für den zentralen Grenzwertsatz nicht unähnlich sind.


  • Montag(!) 10.02.2014, 10h(!) ct, Zeichensaal U.39 (!) Guillaume Cébron (Paris, Frankreich).
    Random matrix model for free unitary Lévy processes.
    We shall investigate homomorphisms à la Bercovici-Pata between additive and multiplicative convolutions. Combined with a matricial model of Benaych-Georges and Cabanal-Duvillard, it allows us to define and study the large N asymptotic of a new matricial model on the unitary group for the free multiplicative Lévy processes. The techniques of proof relies on the theory of free log-cumulants and on the Schur-Weyl duality.


  • Donnerstag(!) 13.02.2014, 10h(!) ct, Zeichensaal U.39 (!) Anthony Meltcafe (Stockholm, Schweden).
    Universality classes of Gelfand-Tsetlin patterns.
    A Gelfand-Tsetlin pattern of depth n is a configuration of particles on n levels. Numbering the levels from the bottom, there are k particles on each level k. Also particles interlace in that, between any 2 particles on level k+1, there is a particle on level k. Probability distributions on such patterns arise naturally as the spectrum of projections of random Hermitian matrices. As n increases, we consider the asymptotic behaviour under the assumption that the empirical distribution of the particles on the top level converges weakly. The global asymptotic behaviour of the system is related to the free additive convolution semi-group of the asymptotic measure on the top level. The region in which particles exist asymptotically is called the "bulk", and the boundary of the bulk is called the "edge". In this talk we use steepest descent analysis to examine the local asymptotic behaviour of particles in the bulk and near the edge. We also recover the global asymptotic behaviour from the local considerations.


  • Montag 24.02.2014, 14h ct, Zeichensaal U.39 Alexander Lundervold (Inria Bordeaux Sud-Ouest, Frankreich).
    Noncommutative Bell polynomials, ordered partitions and incidence Hopf algebras.
    Bell polynomials appear in several combinatorial constructions throughout mathematics. Perhaps most naturally in the combinatorics of set partitions, but also when studying composition of diffeomorphisms on vector spaces and manifolds, and in connection with cumulants and moments in probability theory. I will present several variants of Bell polynomials, along with their associated incidence Hopf algebras (corresponding to various Faà di Bruno Hopf algebras), and sketch some links to the combinatorics of operator-valued free probability.

    Aktualisiert am: 12. Februar 2014 Carlos Vargas