Pressmeddelande: Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne år 1995

English
Swedish

Logo

Kungl. Vetenskapsakademien har beslutat utdela Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne år 1995 till

Professor Robert E. Lucas, Jr., University of Chicago, USA för att ha utvecklat och tillämpat hypotesen om rationella förväntningar och i grunden förändrat makroekonomisk analys och synen på ekonomisk politik.

Rationella förväntningar har revolutionerat makroekonomisk analys och synen på ekonomisk politik

Robert Lucas är den nationalekonom som haft störst betydelse för den makroekonomiska forskningen sedan 1970. Hans insatser har lett till en snabb och omvälvande utveckling när det gäller användningen av hypotesen om rationella förväntningar, framväxten av en jämviktsteori för konjunkturvariationer, insikterna om svårigheterna att styra ekonomin med ekonomisk politik, samt möjligheterna till en tillförlitlig utvärdering av ekonomisk politik med hjälp av statistiska metoder. Lucas insatser har också haft mycket stor betydelse för flera andra forskningsområden än makroekonomi.

Rationella förväntningar
Förväntningar om framtiden har stor betydelse för de ekonomiska beslut som hushåll och företag fattar vid varje tillfälle. Ett av många exempel är lönebildningen, där förväntningar om den framtida inflationstakten och arbetskraftsefterfrågan blir avgörande för den avtalade lönenivån. Faktisk inflationstakt bestäms sedan i hög grad av ingångna löneavtal. Ekonomins utveckling påverkas således i stor utsträckning av förväntningar om framtida förhållanden.

Trots förväntningarnas stora betydelse behandlades de länge styvmoderligt i ekonomisk analys. För ett par decennier sedan var det inte ovanligt att utgå från godtyckligt specificerade eller t.o.m. statiska förväntningar, så att t ex förväntad framtida prisnivå ansågs vara densamma som dagens prisnivå; eller från adaptiva förväntningar, så att förväntad framtida prisnivå mekaniskt justerades i proportion till avvikelsen mellan dagens prisnivå och tidigare förväntad prisnivå.

Rationella förväntningar är i stället genuint framåtblickande. Hypotesen om rationella förväntningar innebär att aktörerna använder tillgänglig information på bästa sätt och att förväntningarna bildas genom ständig nytolkning av denna information. Konsekvenserna blir ibland dramatiska, t.ex. för effekterna av ekonomisk politik. Hypotesen om rationella förväntningar formulerades på ett precist sätt första gången 1961 av John Muth. Den fick dock liten betydelse innan Lucas under 70-talet utvidgade den till att gälla modeller för hela ekonomin. I en serie mycket uppmärksammade uppsatser visade Lucas på de vittgående konsekvenserna av att förväntningarna bildas rationellt, särskilt för effekterna av ekonomisk politik och för utvärdering av dessa effekter med ekonometriska metoder, dvs. statistiska metoder speciellt anpassade för att undersöka ekonomiska samband. Lucas tillämpade också hypotesen inom en rad andra områden än makroekonomi.

Exemplet Phillipskurvan
Den förändrade synen på den s.k. Phillipskurvan är ett bra exempel på Lucas insatser. Phillipskurvan visar ett positivt samband mellan inflation och sysselsättning. Sambandet hade vid slutet av 1960-talet ett betydande empiriskt stöd och betraktades allmänt som ett av de mer stabila sambanden inom nationalekonomin. Det tolkades som en möjlighet för myndigheterna i ett land att varaktigt öka sysselsättningen genom att föra en mer expansiv politik som ger högre inflation. Milton Friedman och Edmund Phelps kritiserade denna tolkning och hävdade att allmänhetens förväntningar skulle komma att anpassas till en högre inflation och att ingen varaktig sysselsättningsökning skulle uppnås: Endast den kortsiktiga Phillipskurvan är lutande medan den långsiktiga kurvan är vertikal. Kritiken var dock inte helt övertygande. Friedman och Phelps förutsatte nämligen adaptiva förväntningar. Med sådana förväntningar kan sysselsättningen faktiskt varaktigt ökas om inflationen tillåts öka över tiden. Genom att utnyttja hypotesen om rationella förväntningar kunde Lucas, i ett arbete som publicerades år 1972, ge den första teoretiskt tillfredsställande förklaringen till att Phillipskurvan kan vara kortsiktigt lutande men långsiktigt vertikal. Det betyder att den långsiktiga sysselsättningsnivån inte kan påverkas av stabiliseringspolitiken, oavsett dess utformning. Lucas formulerade en teoretisk modell som genererar tidsserier över inflation och sysselsättning som uppvisar ett positivt samband. En statistiker som studerar dessa tidsserier skulle lätt kunna dra slutsatsen att sysselsättningen skulle kunna ökas med en mer expansiv politik. Inte desto mindre visade Lucas hur varje försök att, medelst en sådan politik, utnyttja sambandet och varaktigt höja sysselsättningen blir fruktlöst och bara leder till högre inflation. Detta beror på att aktörerna i modellen anpassar pris- och lönesättningen till den nya förväntade politiken. Erfarenheter under 70- och 80-talet har sedan visat att någon bestående ökning av sysselsättningen inte tycks kunna uppnås genom att välja högre inflation. Denna syn på stabiliseringspolitikens långsiktiga effekter har nu blivit allmänt accepterad och utgör numera grunden för penningpolitiken i en rad länder som strävar efter att uppnå och upprätthålla en låg och stabil inflationstakt.

Den kortsiktigt lutande och långsiktigt vertikala Phillipskurvan illustrerar farorna med att okritiskt använda statistiskt skattade s.k. makroekonometriska modeller för att dra slutsatser om effekterna av ändrad ekonomisk politik. Med “Lucas-kritiken” 1976 visade Lucas att de samband som tidigare betraktats som “strukturella” vid ekonometrisk analys av ekonomisk politik i själva verket påverkas av den förda politiken. Praktiskt taget alla då befintliga makroekonometriska modeller hade samband som vid närmare granskning visade sig kunna bero på den finans- och penningpolitik som bedrivits under den period för vilken skattningen gjorts. Då kan uppenbarligen inte samma samband användas vid simuleringar för att förutsäga effekterna av en annorlunda finans- eller penningpolitik. Inte desto mindre var det precis så som modellerna ofta användes.

Lucas-kritiken har fått djupgående konsekvenser för ekonomisk-politiska rekommendationer. Omläggningar av den ekonomiska politiken får ofta helt annorlunda effekter om aktörerna anpassar sina förväntningar till den nya situationen än om de inte gör det. I dessa dagar är det närmast en självklarhet att försöka ta hänsyn till de ekonomiska aktörernas ändrade beteende på grund av ändrade förväntningar när man bedömer effekterna av ekonomisk-politiska regimförändringar t.ex. ett nytt växelkurssystem, en ny uppläggning av penningpolitiken, en skattereform eller nya regler för arbetslöshetsunderstöd.

Hur skall då en forskare undvika de misstag som Lucas-kritiken varnar för? Lucas egen forskning gav svaret, i form av en uppmaning till ett nytt forskningsprogram. Målet för programmet är att formulera makroekonometriska modeller på ett sådant sätt att deras samband inte är känsliga för ändrad politik; bara då kan modellerna bidra till en tillförlitlig utvärdering av ekonomisk-politiska alternativ. Principen är lätt att formulera: Modellerna skall vara ”jämviktsmodeller” med rationella förväntningar. Med detta avses att modellerna skall vara kompletta, i den meningen att alla viktiga variabler skall bestämmas inom modellen genom interaktion mellan rationella aktörer som har rationella förväntningar och verkar i en välspecificerad ekonomisk omgivning. Modellerna skall vidare formuleras så att de bara innehåller politik-oberoende parametrar (de koefficienter som beskriver modellernas samband). Detta kräver i sin tur att modellerna har en god mikroekonomisk underbyggnad, dvs. att de individuella aktörernas beslutsproblem är uttömmande redovisat. Parametrarna skattas sedan med särskilt utvecklade ekonometriska metoder. Intressanta försök att formulera och skatta sådana modeller har senare gjorts inom en rad olika områden: t.ex. investeringarnas, konsumtionens och sysselsättningens bestämningsgrunder och prissättningen av tillgångar på finansiella marknader. Att genomföra programmet i praktiken kan dock vara svårt och försöken har inte alltid lyckats.

Stor efterföljd
Lucas har utvecklat kraftfulla operationella metoder för att dra slutsatser från modeller med rationella förväntningar. Dessa metoder har lagt grunden för en fortsatt snabb utveckling av den makroekonomiska analysen och så småningom blivit standardverktyg. Utan dem hade implikationerna av hypotesen om rationella förväntningar begränsats till allmänna insikter om förväntningarnas betydelse istället för precisa utsagor i specifika situationer. Rationella förväntningar har nu accepterats som den naturliga utgångspunkten för fortsatta studier av hur förväntningar bildas, t.ex. vid begränsad rationalitet, begränsad beräkningsförmåga och gradvis inlärning.

Lucas har grundlagt nya forskningsfält. Efter hans pionjärinsats beträffande Phillipskurvan har den s.k. jämviktsteorin för konjunkturcykler (“equilibrium business cycles”) blivit ett stort och dynamiskt forskningsområde, där olika reala och monetära störningars betydelse för konjunkturcykeln har blivit noggrant undersökta. Jämviktsteorin för konjunkturcykler byggde till en början på antaganden om fullständigt rörliga priser och ögonblicklig anpassning till jämvikt på varu- och arbetsmarknader med perfekt konkurrens. Lucas metodologiska ansats är emellertid inte alls oförenlig med trögrörliga priser och olika brister i marknadernas funktionssätt, såsom ofullständig konkurrens och bristande information. Den innebär dock att dessa friktioner och imperfektioner inte bör införas på ett godtyckligt sätt, utan i stället förklaras som ett resultat av rationella individers beslut och interaktion i en välspecificerad valsituation. Tolkad på detta sätt har Lucas metodologiska föredöme accepterats av snart sagt alla makroekonomer. Det förefaller i själva verket som om de största framstegen när det gäller att modellera friktioner och brister i marknadsmekanismen har gjorts just när denna metodologiska ansats har följts.

Lucas pionjärarbete har lagt grunden till ett helt nytt område inom ekonometrin, “rational expectations econometrics”. Hypotesen om rationella förväntningar utnyttjas här till att identifiera de mest effektiva statistiska skattningsmetoderna av sådana ekonomiska samband där förväntningar är centrala. Ett stort antal efterföljande forskare har senare gjort viktiga bidrag till detta område.

Övriga insatser
Förutom sina insatser i makroekonomi har Lucas gjort viktiga insatser även inom investeringsteori, finansiell ekonomi, penningteori, dynamisk offentlig ekonomi, internationell finansiell ekonomi och, under de senaste åren, ekonomisk tillväxt. På vart och ett av dessa områden har Lucas arbeten haft utomordentligt stor betydelse; de har givit områdena en ny inriktning och genererat en stor efterföljande litteratur.


Lästips

Kungl. Vetenskapsakademien (1995), The Scientific Contributions of Robert E. Lucas, Jr.

Lucas, R.E. (1972), “Expectations and the Neutrality of Money”, Journal of Economic Theory 4, 103-124

Lucas, R.E. (1976), “Econometric Policy Evaluation: A Critique”, Carnegie-Rochester Conference Series on Public Policy 1, 19-46

Lucas, R.E. (1981), Studies in Business-Cycle Theory, MIT Press, Cambridge, MA

Lucas R.E. (1987), Models of Business Cycles, 1985, Yrjö Jahnsson Lectures, Basil Blackwell, Oxford

En utförligare beskrivning av Lucas insatser ges i Kungl. Vetenskapsakademien (1995). Lucas två mest kända skrifter är Lucas (1972) och (1976). Lucas (1981) är en sammanställning av Lucas arbeten under 1970-talet. Lucas (1987) är en förhållandevis lättillgänglig redogörelse för hans syn på konjunkturcykelteorin.


Robert E. Lucas, Jr., född 1937 i Yakima, Washington, USA, erövrade sin doktorsgrad i nationalekonomi 1964 vid University of Chicago. Han började som Assistant Professor of Economics 1963 vid Carnegie-Mellon University, där han blev Associate Professor 1967 och Professor of Economics 1970. 1975 tillträdde han en tjänst som Professor of Economics vid University of Chicago, där han sedan verkat. Han är Second Vice-President i Econometric Society, Fellow i American Academy of Arts and Sciences och ledamot av US National Academy of Sciences.

Professor Robert E. Lucas, Jr.
Department of Economics
University of Chicago
1126 East 59th Street
Chicago, IL 60637
USA

 

To cite this section
MLA style: Pressmeddelande: Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne år 1995. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/economic-sciences/1995/9303-pressmeddelande-sveriges-riksbanks-pris-i-ekonomisk-vetenskap-till-alfred-nobels-minne-ar-1995/>

Press release

English
Swedish

Logo

10 October 1995

The Royal Swedish Academy of Sciences has decided to award the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel, 1995, to

Professor Robert E. Lucas, Jr., University of Chicago, USA,

for having developed and applied the hypothesis of rational expectations, and thereby having transformed macroeconomic analysis and deepened our understanding of economic policy.

Rational Expectations Have Transformed Macroeconomic Analysis and Our Understanding of Economic Policy

Robert Lucas is the economist who has had the greatest influence on macroeconomic research since 1970. His work has brought about a rapid and revolutionary development: Application of the rational expectations hypothesis, emergence of an equilibrium theory of business cycles, insights into the difficulties of using economic policy to control the economy, and possibilities of reliably evaluating economic policy with statistical methods. In addition to his work in macroeconomics, Lucas’s contributions have had a very significant impact on research in several other fields.

Rational Expectations
Expectations about the future are highly important to economic decisions made by households, firms and organizations. One among many examples is wage formation, where expectations about the inflation rate and the demand for labor in the future strongly affect the contracted wage level which, in turn, affects future inflation. Similarly, many other economic variables are to a large extent governed by expectations about future conditions.

Despite the major importance of expectations, economic analysis paid them only perfunctory attention for a long time. Twenty years ago, it was not unusual to assume arbitrarily specified or even static expectations, for example that the expected future price level was regarded as the same as today’s price level. Or else adaptive expectations were assumed, such that the expected future price level was mechanically adjusted to the deviation between today’s price level and the price level expected earlier.

Instead, rational expectations are genuinely forward-looking. The rational expectations hypothesis means that agents exploit available information without making the systematic mistakes implied by earlier theories. Expectations are formed by constantly updating and reinterpreting this information. Sometimes the consequences of rational expectations formation are dramatic, as in the case of economic policy. The first precise formulation of the rational expectations hypothesis was introduced by John Muth in 1961. But it did not gain much prominence until the 1970s, when Lucas extended it to models of the aggregate economy. In a series of path-breaking articles, Lucas demonstrated the far-reaching consequences of rational expectations formation, particularly concerning the effects of economic policy and the evaluation of these effects using econometric methods, that is, statistical methods specifically adapted for examining economic relationships. Lucas also applied the hypothesis to several fields other than macroeconomics.

The Phillips Curve Example
The change in our understanding of the so-called Phillips curve is an excellent example of Lucas’s contributions. The Phillips curve displays a positive relation between inflation and employment. In the late 1960s, there was considerable empirical support for the Phillips curve; it was regarded as one of the more stable relations in economics. It was interpreted as an option for government authorities to increase employment by pursuing an expansionary policy which raises inflation. Milton Friedman and Edmund Phelps criticized this interpretation and claimed that the expectations of the general public would adjust to higher inflation and preclude a lasting increase in employment: Only the short-run Phillips curve is sloping, whereas the long-run curve is vertical. This criticism was not quite convincing, however, because Friedman and Phelps assumed adaptive expectations. Such expectations do in fact imply a permanent rise in employment if inflation is allowed to increase over time. In a study published in 1972, Lucas used the rational expectations hypothesis to provide the first theoretically satisfactory explanation for why the Phillips curve could be sloping in the short run but vertical in the long run. In other words, regardless of how it is pursued, stabilization policy cannot systematically affect long-run employment. Lucas formulated an ingenious theoretical model which generates time series such that inflation and employment indeed seem to be positively correlated. A statistician who studies these time series might easily conclude that employment could be increased by implementing an expansionary economic policy. Nevertheless, Lucas demonstrated that any endeavor, based on such policy, to exploit the Phillips curve and permanently increase employment would be futile and only give rise to higher inflation. This is because agents in the model adjust their expectations and hence price and wage formation to the new, expected policy. Experience during the 1970s and 1980s has shown that higher inflation does not appear to bring about a permanent increase in employment. This insight into the long-run effects of stabilization policy has become a commonly accepted view; it is now the foundation for monetary policy in a number of countries in their efforts to achieve and maintain a low and stable inflation rate.

The short-run sloping and long-run vertical Phillips curve illustrates the pitfalls of uncritically relying on statistically estimated so-called macroeconometric models to draw conclusions about the effects of changes in economic policy. In a 1976 study, introducing what is now known as the “Lucas critique”, Lucas demonstrated that relations which had so far been regarded as “structural” in econometric analysis were in fact influenced by past policy. Two decades ago, virtually all macroeconometric models contained relations which, on closer examination, could be shown to depend on the fiscal and monetary policy carried out during the estimation period. Obviously, then, the same relations cannot be used in simulations designed to predict the effect of another fiscal or monetary policy. Yet this was exactly how the models were often used.

The Lucas critique has had a profound influence on economic-policy recommendations. Shifts in economic policy often produce a completely different outcome if the agents adapt their expectations to the new policy stance. Nowadays, when evaluating the consequences of shifts in economic-policy regimes – for example, a new exchange rate system, a new monetary policy, a tax reform or new rules for unemployment benefits – it is more or less self-evident to consider changes in the behavior of economic agents due to revised expectations.

How could researchers avoid the mistakes forewarned by the Lucas critique? Lucas’s own research provided the answer by calling for a new research program. The objective of the program was to formulate macroeconometric models such that their relations are not sensitive to policy changes; otherwise, the models cannot contribute to a reliable assessment of economic-policy alternatives. It is easy to formulate this principle: the models should be “equilibrium models” with rational expectations. This means that all important variables should be determined within the model, on the basis of interaction among rational agents who have rational expectations and operate in a well-specified economic environment. In addition, the models should be formulated so that they only incorporate policy-independent parameters (those coefficients which describe the relations of the models). This, in turn, requires sound microeconomic foundations, i.e., the individual agents’ decision problems have to be completely accounted for in the model. The parameters are then estimated using econometric methods developed for this purpose. Interesting attempts to derive and estimate such models have subsequently been made in several different areas, such as the empirical analysis of investment, consumption and employment, as well as of asset pricing on financial markets. The program can be difficult to implement in practice however, and not all attempts have been successful.

A Large Following
Lucas formulated powerful and operational methods for drawing conclusions from models with rational expectations. These methods provided the means for rapid development of macroeconomic analysis and eventually became part of the standard toolbox. Without them, the outcome of the rational expectations hypothesis would have been limited to general insights into the importance of expectations instead of clear-cut statements in specific situations. Rational expectations have now been accepted as the natural basis for further studies of expectation formation with respect to limited rationality, limited computational capacity and gradual learning.

Lucas has established new areas of research. After his pioneering work on the Phillips curve, the so-called equilibrium theory of business cycles has become an extensive and dynamic field, where the effects of real and monetary disturbances on the business cycle have been carefully examined. The equilibrium theory of business cycles initially relied on the assumption of completely flexible prices and immediate adjustment to equilibrium on goods and labor markets with perfect competition. However, Lucas’s methodological approach is not incompatible with sticky prices and various market failures such as imperfect competition and imperfect information. Nevertheless, these frictions and imperfections should not be introduced in an arbitrary way, but should be explained as a result of rational agents’ decisions and interaction in a well-specified choice situation. Interpreted in this way, Lucas’s methodological approach has been accepted by nearly all macroeconomists. Indeed, the greatest advances in modeling frictions and market imperfections seem to have been made precisely when this methodological approach has been followed.

Lucas’s pioneering work has created an entirely new field of econometrics, known as rational expectations econometrics. There, the rational expectations hypothesis is used to identify the most efficient statistical methods for estimating economic relations where expectations are the key components. A number of researchers have subsequently made important contributions to this new field.

Other Contributions
In addition to his work in macroeconomics, Lucas has made outstanding contributions to investment theory, financial economics, monetary theory, dynamic public economics, international finance and, most recently, the theory of economic growth. In each of these fields, Lucas’s studies have had a significant impact; they have launched new ideas and generated an extensive new literature.

Further reading

The Royal Swedish Academy of Sciences (1995), The Scientific Contributions of Robert E. Lucas, Jr.

Lucas, R.E. (1972), “Expectations and the Neutrality of Money”, Journal of Economic Theory 4, 103-124.

Lucas, R.E. (1976), “Econometric Policy Evaluation: A Critique”, Carnegie-Rochester Conference Series on Public Policy 1, 19-46.

Lucas, R.E. (1981), Studies in Business-Cycle Theory, MITPress, Cambridge, MA.

Lucas, R.E. (1987), Models of Business Cycles, 1985, Yrjö Jahnsson Lectures, Basil Blackwell, Oxford.

Lucas’s achievements are described at greater length in Royal Swedish Academy of Sciences (1995). His two best-known publications are Lucas (1972) and (1976). The research he carried out during the 1970s is compiled in Lucas (1981). A relatively easily accessible account of his views on business-cycle theory may be found in Lucas (1987).


Robert E. Lucas, Jr. was born in 1937 in Yakima, Washington, USA. He received his Ph.D. in economics from the University of Chicago in 1964. He began as Assistant Professor of Economics in 1963 at Carnegie-Mellon University, where he became Associate Professor in 1967 and Professor of Economics in 1970. Since 1975, he has held a professorship in Economics at the University of Chicago. He is Second Vice-President of the Econometric Society, a Fellow of the American Academy of Arts and Sciences and a member of the National Academy of Sciences.

Professor Robert E. Lucas, Jr.
Department of Economics
University of Chicago
1126 East 59th Street
Chicago, IL 60637
USA

The Scientific Contributions of Robert E. Lucas, Jr.

To cite this section
MLA style: Press release. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/economic-sciences/1995/press-release/>

Press release

English
Swedish

Logo

11 October 1995

The Royal Swedish Academy of Sciences has decided to award the 1995 Nobel Prize in Physics for pioneering experimental contributions to lepton physics with one half to Martin L. Perl, Stanford University, Stanford, California, USA for the discovery of the tau lepton
and with one half to Frederick Reines, University of California, Irvine, California, USA for the detection of the neutrino.

Discoveries of two of nature’s sub-atomic particles rewarded

Mankind seeks his place in nature. He endeavours to find answers to philosophical and physical questions alike. The home of mankind, the Universe, was created in a Big Bang. “What does this Universe consist of?” – “What are the smallest constituents of the Universe and what are their properties?” – “What can they tell us of the history of the Universe and of its future?” etc. This year’s laureates have in this search made lasting contributions: They have discovered two of nature’s most remarkable subatomic particles.

Martin L. Perl and his colleagues discovered, through a series of experiments between 1974 and 1977, at the Stanford Linear Accelerator Center (SLAC) in the USA, that the electron has a relative some 3 500 times heavier, which is called the tau.

Frederick Reines made pioneering contributions during the 1950s together with the late Clyde L. Cowan, Jr., which led to their being able to demonstrate experimentally the existence of the antineutrino of the electron.

Martin Perl‘s discovery of the tau was the first sign that a third “family” of fundamental building blocks existed. Some years later a further building block was discovered – one of the family’s two quarks, the bottom quark. Not until 18 years later was its other quark, the top quark, discovered. The existence of the third family is very important for physicists’ confidence in the present theoretical model for understanding the properties of nature’s smallest constituents. This is called the standard model. Without a third family, the model would have been incomplete and unable to admit what is termed the Charge and Parity (CP) violation, a violation of a fundamental principle of symmetry which, among other things, regulates particle decay (Nobel Prize to Cronin and Fitch 1980). If a fourth family of quarks and leptons is discovered, this may mean that the standard model must be revised and more extensive reconstruction within elementary-particle physics commenced.

Frederick Reines‘ and Clyde L. Cowan’s first observation of neutrinos was a pioneering contribution that opened the doors to the region of “impossible” neutrinoexperiments. Nowadays we are attempting to capture neutrinos in cosmic radiation that may originate in the sun or in supernovas (exploding stars). Because of the reluctance of neutrinos to react with atomic nuclei and thus allow themselves to be captured, very large detector volumes are required for these experiments. While Reines and Cowan in the 1950s managed with about half a cubic metre of water in their detector, large-scale experiments in the 1990s use many thousand cubic metres. Some experiments have even used surrounding sea or ice as their detector volume.

Nature’s building blocks and their family structure
The smallest of nature’s structures to have been studied so far are twelve types of matter particles – six quarks and six leptons. They each have their anti-particle, a sort of “mirror image” of the particle. (The name of a particle also includes its anti-particle.) As well as these quarks and leptons, there are other types of subatomic particles called force particles, since they are responsible for three of our known forces, strong force, electromagnetic force and weak force. Gravitational forces operate outside the scope of these. The most essential difference between quarks and leptons is that leptons are not affected by the strong force.

A remarkable property of matter particles is that they exhibit “family affiliation”. They come in three families, each consisting of two quarks and two leptons (Fig. 1). In many ways the three families behave as copies of one another. “Is there a fundamental principle to justify the existence of just three families?” is one of the unanswered questions of physics.

The quarks of the first family are “up quarks” and “‘down quarks”. Its lepton members are the electron and the electron-neutrino. The two quarks build protons and neutrons, which in turn form atomic nuclei and hence over 99% of all the earth’s matter. The small remainder is electrons. The electron-neutrino can be imagined very roughly as an electron deprived of charge and mass. Whether an insignificant amount of mass nevertheless remains, is another unanswered question. It was this electron-neutrino that Reines and his colleague Cowan, both then employed at the Los Alamos Scientific Laboratory, managed to capture.

The discovery of the tau During the 1960s many research groups were carrying out experiments one aim of which was to discover new charged particles, including new leptons. One approach was to search for the new particles in the products of decay of the particles that were available, e.g. kaons. Another way was to attempt to produce them in an accelerator, e.g. in collisions between high-energy electrons and a target. Martin Perl was a member of a team performing such an experiment at SLAC in 1966, but no new charged leptons were found. In 1973 a new machine started operation at SLAC – an electron-positron collider called SPEAR. A collider such as this is a lepton-hunter’s dream since the mechanism for possible production of new charged leptons (X+, X) is simple and easy to interpret:

electron + positron -> X+ + X

The SPEAR collider offered Perl an exceptional opportunity to continue his earlier hunt for new leptons, this time in a new and earlier inaccessible energy region of about 5 GeV (5 thousand million electron volts). After only a year came the first hint that something exciting was in the offing – something that could be signalling the production of a new type of lepton. The next year Perl and his co-workers published the first results. But a few more years were to pass before they could be certain that they had in fact discovered a lepton. The new lepton was designated with the Greek letter tau, standing for the first letter of the word triton, third.

Fig 1. The elementary particles of the standard model – a new periodic system. The figure represents a Triton.

Perl’s and co-workers’ experiment
The experiment recorded frontal collisions between electrons and their antiparticles, positrons. A large cylindrical detector placed in a magnetic field surrounded the collision area. The detector consisted of many components including a number of wire spark chambers together with shower counters constructed of lead scintillators and a few proportional chambers. The first indication of a possible new phenomenon was that the research team observed 24 events of the type

electron + positron -> electron + antimuon + i.p.

or

electron + positron -> positron + muon + i.p.

where i.p. stands for invisible particles; those that left no trace in the detector. Thus only one electron (or positron) and an antimuon (or muon) with the opposite sign on its charges were detected. Applying the law of conservation of energy, Perl and his co-workers found that they had produced at least two invisible particles.

One possible interpretation of these events was that a pair of heavy leptons, later termed tau particles, had been produced first:

electron + positron -> tau + antitau

But these were expected to decay very rapidly and the observed electrons and muons were therefore interpreted as products of decay from reactions:

tau -> electron (or muon) + neutrinos

antitau -> antimuon (or positron) + neutrinos

The invisible particles were neutrinos, which with their notorious lack of sensitivity to their surroundings disappeared without visible trace (Fig. 2). However they made themselves felt when the energy balance was to be accounted for. They had taken with them a respectable proportion of the energy (cf. below).

Perl’s and co-workers’ hypothesis was tested in a new series of observations over many years. It gradually became clear that the tau had passed the test and thereby met all the possible requirements of a heavier relative to the electron and the muon. Like these, the tau also has its very own neutrino – the tau neutrino.

Fig. 2. Interpretation of a typical electron-muon trace from the SPEAR detector. The two heavy leptons decay within millimetres of the point of collision and cannot be seen directly. The neutrinos are also invisible. Only the charged particles e and µ are detected.

Energy conservation law cue for neutrino’s entrance
The neutrino hypothesis is some 40 years older. The neutrino “was born” as a hypothetical particle in a letter written in 1930 by Wolfgang Pauli (Nobel Prize 1945). At that time it was known that many atomic nuclei ended their lives by emitting an electron. This process, termed beta decay, caused researchers many headaches, among others that one of the sacred laws of physics – the law of conservation of energy – appeared not to apply. To restore order in the statute book of physics Pauli offered what he called a “desperate solution” – the nucleus did not emit the electron alone. It was accompanied by another subatomic particle which lacked electrical charge and reacted very little with its environment. The small particle, which came to be called the neutrino, took part of the energy with it and disappeared without trace into nothingness. The energy balance proved to be as expected as long as account was taken of the proportion the neutrino had removed.

Pauli thought he had done “a frightful thing”, as he called it, by proposing a particle that could never be discovered. It took three decades and the ingenuity of Reines and Cowan to bring the neutrino to light.

The discovery of the neutrino
Pauli’s neutrino hypothesis may have been “frightful” but it was also extremely attractive. It saved the energy conservation law and simultaneously solved many other riddles. The neutrino hypothesis was used by Enrico Fermi (Nobel Prize 1938) in a masterly manner to formulate a theory for one of the natural forces, the weak force. This splendid theory lent great credibility to the hypothesis that the neutrino is created simultaneously with the electron every time a nucleus disintegrates through beta decay. But how to produce conclusive proof that the neutrino existed? Researchers Hans Bethe (Nobel Prize 1967) and Rudolf Peierls had evaluated the probability of stopping neutrinos produced in the beta decay of radioactive nuclei and found that it was so minimal that a target several light years thick would be needed to capture these neutrinos efficiently. When the first nuclear reactors were built during the 1940s, Fermi was one of those who realised that the reactors could serve as intensive neutrino sources. It was estimated that the reactors would be able to give a neutrino flow of about 1012-1013 per second and cm2. This was many orders of magnitude greater than what was obtained from radioactive sources.

In 1953 Reines and Cowan proposed a reactor experiment to capture neutrinos. The reaction to be studied was

antineutrino + proton -> neutron + positron.

Despite the great intensity of the neutrinos the reactor delivered, such a low counting speed was expected for this reaction that the attempt appeared to be bordering on the impossible. Reines and Cowan realised the importance of detecting both the neutron and the positron to reduce the risk of erroneous interpretation. After a first trial at the Hanford reactor, Reines and Cowan went to work at the Savannah River Plant.

The target in the Reines-Cowan experiment consisted of approximately 400 litres of water containing cadmium chloride placed between large liquid scintillation detectors. The course of events for the reaction sought is as follows (cf. formula above): The neutrino collides with a proton in the water and creates a positron and a neutron. The positron is slowed down by the water and destroyed together with an electron (matter meets antimatter), whereupon two photons (light particles) are created. These are recorded simultaneously in the two detectors (Fig. 3). The neutron also loses velocity in the water and is eventually captured by a cadmium nucleus, whereupon photons are emitted. These photons reach the detectors a microsecond or so later than those from the destruction of the positron and give proof of neutrino capture.

Fig 3. Schematic picture of the neutrino detector of Reines and Cowan (see explanation in text).

There were struggles with the low counting speed and high background. During the experiment a few events were recorded per hour. Nevertheless Reines and Cowan succeeded in a feat considered to border on the impossible: They had raised the neutrino from its status as a figure of the imagination to an existence as a free particle.


Further reading
Additional background material on the Nobel Prize for Physics 1995, The Royal Swedish Academy of Sciences
Heavy Leptons, Martin L. Perl and William T. Kirk, Scientific America, March 1978.
Leptons – what are they? Martin L. Perl, New Scientist, 22 February 1979.
The Neutrino, Frederick Reines and Clyde L. Cowan, Jr., Nature, 1 September 1956.
Neutrino Physics, Frederick Reines and Clyde L. Cowan, Jr., Physics Today, August 1957.
Spaceship neutrino, Christine Sutton, Cambridge University Press 1992, p. 37-44, 89-93.

Martin L. Perl
Born 1927, New York, NY, USA. American citizen. Doctor’s degree in physics 1955, Columbia University. Perl is a member of the National Academy of Sciences, USA.

Martin L. Perl, Professor
Stanford Linear Accelerator Center
Stanford University
Stanford, CA 94305
USA

Frederick Reines
Born 1918 Paterson, New Jersey, USA. American citizen. Doctor’s degree in physics 1944, New York University. Reines is a member of the National Academy of Sciences, USA, and a foreign member of the Russian Academy of Sciences.

Frederick Reines, Professor
Department of Physics
University of California at Irvine
Irvine, CA 92717
USA

To cite this section
MLA style: Press release. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/physics/1995/press-release/>

Pressmeddelande: Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne 1997

English

14 oktober 1997

Kungl. Vetenskapsakademien har beslutat utdela Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne år 1997 till

Professor Robert C. Merton, Harvard University, Cambridge, USA och
Professor Myron S. Scholes, Stanford University, Stanford, USA

för en ny metod att värdera derivatinstrument.

Robert C. Merton och Myron S. Scholes har, tillsammans med den avlidne Fischer Black, utarbetat en banbrytande formel för värdering av aktieoptioner. Deras metod har öppnat nya vägar för ekonomiska värderingar inom många områden. Metoden har också bidragit till framväxten av nya finansiella produkter och underlättat en effektivare riskhantering i samhället.

I en marknadsekonomi är det viktigt att företag och hushåll kan välja risknivå i sin verksamhet. Detta sker på finansiella marknader som kan omfördela risker till dem som är skickade och villiga att ta dem. Marknaderna för optioner och andra s.k. derivatinstrument spelar här en viktig roll. Där kan nämligen aktörer med framtida intäkter eller betalningar försäkra sig om en vinst över en viss nivå eller försäkra sig mot en förlust över en viss nivå. (En option kan skydda innehavaren mot ensidig risk genom sin konstruktion; den ger rätten, men ej skyldigheten, att köpa eller sälja ett visst värdepapper i framtiden, till ett specificerat pris.) God riskhantering förutsätter dock en rationell värdering av dylika instrument. En viktig insats inom de ekonomiska vetenskaperna under de senaste 25 åren är en ny metod att värdera derivatinstrument.

Metoden utarbetades av årets pristagare Robert Merton och Myron Scholes, tillsammans med Fischer Black, som tyvärr avled 1995. De tre arbetade på samma problem, att värdera optioner, och hade nära kontakt. År 1973 publicerade Black och Scholes den s.k. Black-Scholes-formeln som numera dagligen används av tusentals aktörer på finansmarknaderna för värdering av aktieoptioner. Robert Merton anvisade en metod för att härleda formeln, som visat sig vara utomordentligt generell; han har också generaliserat formeln i en rad olika riktningar.

Black, Merton och Scholes metod har lagt grunden för den snabba tillväxten av derivatmarknaderna under de senaste tio åren. Men den har också mer generella tillämpningar och har skapat nya ämnesområden inom och utanför finansiell ekonomi. Liknande metoder kan t. ex. användas för att värdera försäkringar eller garantier, men också för att värdera flexibilitet vid investeringsbeslut.

Problemet
Försöken att värdera derivatinstrument har en lång historia. Den franske matematikern Louis Bachelier gjorde i sin doktorsavhandling från år 1900 ett av de tidigaste försöken att värdera optioner, men den optionsformel han härledde led av allvarliga brister. Senare forskare beskrev aktieprisrörelser och räntor på ett bättre sätt. Men samtliga försök hamnade i stora svårigheter på en punkt; de behandlade riskpremier på ett felaktigt sätt.

Värdet av en option på en viss aktie beror på den osäkra utvecklingen av priset på aktien fram till lösendatum. Det ligger därför nära till hands att, som tidigare forskare, förutsätta att man måste bestämma den riskpremie man skall använda vid optionsvärdering, på samma sätt som man måste bestämma den riskpremie man skall använda vid nuvärdesberäkningar i en investeringskalkyl rörande ett framtida osäkert projekt. Att åsätta en riskpremie är dock svårt; den korrekta riskpremien beror på investerarens attityd till risk, vilken visserligen kan definieras strikt i teorin, men är svår eller omöjlig att direkt observera i verkligheten.

Metoden
Black, Merton och Scholes viktiga insats var att visa att man faktiskt inte behöver ta hänsyn till någon riskpremie när man värderar en option; det är tillräckligt att använda den riskfria räntan. Detta innebär inte att riskpremien försvinner; den är i stället redan inbakad i aktiepriset.

Idén bakom deras värderingsmetod kan illustreras enligt följande:

Betrakta en s. k. europeisk köpoption som ger rätten att köpa en aktie i ett visst företag till en lösenkurs av 350 kronor om tre månader. Uppenbarligen beror denna options värde idag inte bara på lösenkursen utan också på aktiens pris idag. Ju högre priset är idag desto större är ju sannolikheten att priset om tre månader överstiger 350 kronor och att det därmed lönar sig att utnyttja optionsrätten. Låt oss anta, som ett räkneexempel, att om aktien stiger med 2 kronor idag så stiger optionens värde med 1 krona, och om aktien sjunker med 2 kronor så sjunker optionens värde med 1 krona. Antag också att vi har ett antal aktier i företaget i fråga och vill minska risken av förändringar i aktiepriset. Vi kan då idag faktiskt skapa en riskfri portfölj genom att sälja två köpoptioner för varje aktie som vi innehar. Eftersom den sålunda skapade portföljen är riskfri måste det kapital vi investerat ge en avkastning som är precis densamma som den riskfria marknadsräntan; annars skulle en arbitragehandel börja som eliminerade möjligheten att göra riskfria vinster. När tiden till lösen närmar sig och aktiepriset ändras, ändras också relationen mellan optionspris och aktiepris. För att behålla vår riskfria aktie-optionsportfölj, måste vi då gradvis förändra dess sammansättning.

Ovanstående resonemang och vissa tekniska antaganden leder fram till en s. k. partiell differentialekvation. Lösningen av denna differentialekvation för en europeisk köpoption, som i exemplet ovan, ges just av Black-Scholes formel. Värderingen av andra derivatinstrument kan göras enligt samma princip.

Black-Scholes formel
Black och Scholes formel för en europeisk köpoption kan skrivas som

där hjälpvariablen d definieras av

Enligt denna formel ges köpoptionens värde C, av skillnaden mellan det förväntade aktievärdet – den första termen – och den förväntade kostnaden – den andra termen – om optionen utnyttjas. Den säger att optionsvärdet är högre ju högre dagens aktiepris S, ju större aktieprisets volatilitet (mätt som dess standardavvikelse) sigma, ju högre den riskfria räntan r, ju längre tiden till lösen t, ju lägre lösenkursen L och ju större sannolikheten för att optionen kommer att utnyttjas (sannolikheten utvärderas med hjälp av fördelningsfunktionen N för normalfördelningen).

Andra tillämpningar
Black, Merton och Scholes värderingsmetod har fått stor betydelse i analysen av många ekonomiska problem. Derivatinstrument utgör ett specialfall av s.k. betingade kontrakt. Värderingsmetoden kan ofta användas också för denna vidare klass av kontrakt. Ett företags aktier, preferensaktier, lån och andra skuldebrev har t. ex. värden som är betingade av hela företagets värde i princip på samma sätt som en aktieoptions värde är betingat av värdet på den underliggande aktien. Pristagarna observerade detta redan i sina artiklar 1973 och skapade därmed grunden till en enhetlig teori för värdering av skuldebrev i företag.

En garanti ger rätten, men inte skyldigheten, att utnyttja densamma i vissa specificerade situationer. Den som köpt eller fått en garanti har därför en slags option. På samma sätt är det med en försäkring. Man kan därför använda metoden som årets pristagare utarbetat för att värdera garantier och försäkringar. Optionsmarknaden och försäkringsbolagen har därmed numera blivit konkurrenter.

Ett annat användningsområde är investeringsbeslut. Många investeringsbeslut kan ges varierande grad av flexibilitet. Exempel är möjligheten att avbryta verksamheten en tid (i en gruva om metallpriserna är låga), eller möjligheten att byta från ett energislag till ett annat i driften (om relativpriserna mellan olja och elenergi varierar). Flexibiliteten kan ses som en option och kan givetvis variera mellan konkurrerande investeringsprojekt. För att välja rätt investering är det därför viktigt att kunna värdera flexibiliteten. Den metod Black, Merton och Scholes utvecklade gör detta möjligt.

Banker och andra finansiella företag använder sig av pristagarnas metoder för att värdera nya finansiella produkter och för att erbjuda sina kunder skräddarsydda produkter samtidigt som de reducerar sina risker på de finansiella marknaderna.

Andra forskningsinsatser
Merton och Scholes har gjort betydelsefulla insatser inom finansiell ekonomi vid sidan av teorin för prissättning av derivatinstrument. Merton har bl.a. utvecklat en ny kraftfull metod för att analysera en individs konsumtions- och investeringsbeslut över tiden samt generaliserat den s.k. CAPM (en aktievärderingsmodell för vilken Sharpe tilldelades 1990 års ekonomipris) från en statisk till en dynamisk modell. Scholes har gjort arbeten rörande utdelningarnas betydelse för aktievärdet tillsammans med bl.a. Black och Miller (vilken tilldelades 1990 års ekonomipris för sina insatser rörande företagsfinansiering) samt empiriska insatser, t. ex. rörande estimat av det s.k. beta-värdet (ett riskmått i CAPM).

***

Lästips

Kungl. Vetenskapsakademien: Additional background material on the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel 1997

Black, F. och M. Scholes, 1973, “The Pricing of Options and Corporate Liabilities”, Journal of Political Economy, Vol. 81, pp. 637-654.

Black, F., 1989, “How We came Up with the Option Formula”, The Journal of Portfolio Management, Vol. 15, pp. 4-8.

Hull, J.C., 1997, Options, Futures and Other Derivates, 3rd edition, Prentice Hall.

Merton, R.C., 1973, “Theory of Rational Option Pricing”, Bell Journal of Economics and Management Science, Vol. 4, pp. 141-183.

***

Robert C. Merton, född 1944 i New York, USA. Ph.D. 1970 vid MIT, Cambridge, USA. Merton har sedan 1988 varit verksam som George Fisher Baker Professor of Business Administration vid Harvard Business School, Boston, USA.

Professor Robert C. Merton
Graduate School of Business Administration
Morgan Hall, Soldiers Field
Boston, MA 02163, USA

Myron S. Scholes, född 1941. Ph.D. 1969 vid University of Chicago, USA. Sedan 1988 verksam som Frank E. Buck Professor of Finance vid Graduate School of Business samt Senior Research Fellow vid Hoover Institution, Stanford University, Stanford, USA.

Professor Myron S. Scholes
Graduate School of Business
Stanford University
Stanford, CA 94305, USA

To cite this section
MLA style: Pressmeddelande: Sveriges Riksbanks pris i ekonomisk vetenskap till Alfred Nobels minne 1997. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/economic-sciences/1997/9330-pressmeddelande-sveriges-riksbanks-pris-i-ekonomisk-vetenskap-till-alfred-nobels-minne-ar-1997/>

Press release

English
Swedish

Logo

14 October 1997

The Royal Swedish Academy of Sciences has decided to award the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel, 1997, to

Professor Robert C. Merton, Harvard University, Cambridge, USA and
Professor Myron S. Scholes, Stanford University, Stanford, USA

for a new method to determine the value of derivatives.

Robert C. Merton and Myron S. Scholes have, in collaboration with the late Fischer Black, developed a pioneering formula for the valuation of stock options. Their methodology has paved the way for economic valuations in many areas. It has also generated new types of financial instruments and facilitated more efficient risk management in society.

***

In a modern market economy it is essential that firms and households are able to select an appropriate level of risk in their transactions. This takes place on financial markets which redistribute risks towards those agents who are willing and able to assume them. Markets for options and other so-called derivatives are important in the sense that agents who anticipate future revenues or payments can ensure a profit above a certain level or insure themselves against a loss above a certain level. (Due to their design, options allow for hedging against one-sided risk – options give the right, but not the obligation, to buy or sell a certain security in the future at a prespecified price.) A prerequisite for efficient management of risk, however, is that such instruments are correctly valued, or priced. A new method to determine the value of derivatives stands out among the foremost contributions to economic sciences over the last 25 years.

This year’s laureates, Robert Merton and Myron Scholes, developed this method in close collaboration with Fischer Black, who died in his mid-fifties in 1995. These three scholars worked on the same problem: option valuation. In 1973, Black and Scholes published what has come to be known as the Black-Scholes formula. Thousands of traders and investors now use this formula every day to value stock options in markets throughout the world. Robert Merton devised another method to derive the formula that turned out to have very wide applicability; he also generalized the formula in many directions.

Black, Merton and Scholes thus laid the foundation for the rapid growth of markets for derivatives in the last ten years. Their method has more general applicability, however, and has created new areas of research – inside as well as outside of financial economics. A similar method may be used to value insurance contracts and guarantees, or the flexibility of physical investment projects.

The problem
Attempts to value derivatives have a long history. As far back as 1900, the French mathematician Louis Bachelier reported one of the earliest attempts in his doctoral dissertation, although the formula he derived was flawed in several ways. Subsequent researchers handled the movements of stock prices and interest rates more successfully. But all of these attempts suffered from the same fundamental shortcoming: risk premia were not dealt with in a correct way.

The value of an option to buy or sell a share depends on the uncertain development of the share price to the date of maturity. It is therefore natural to suppose – as did earlier researchers – that valuation of an option requires taking a stance on which risk premium to use, in the same way as one has to determine which risk premium to use when calculating present values in the evaluation of a future physical investment project with uncertain returns. Assigning a risk premium is difficult, however, in that the correct risk premium depends on the investor’s attitude towards risk. Whereas the attitude towards risk can be strictly defined in theory, it is hard or impossible to observe in reality.

The method
Black, Merton and Scholes made a vital contribution by showing that it is in fact not necessary to use any risk premium when valuing an option. This does not mean that the risk premium disappears; instead it is already included in the stock price.

The idea behind their valuation method can be illustrated as follows:

Consider a so-called European call option that gives the right to buy one share in a certain firm at a strike price of $ 50, three months from now. The value of this option obviously depends not only on the strike price, but also on today’s stock price: the higher the stock price today, the greater the probability that it will exceed $ 50 in three months, in which case it pays to exercise the option. As a simple example, let us assume that if the stock price goes up by $ 2 today, the option goes up by $ 1. Assume also that an investor owns a number of shares in the firm in question and wants to lower the risk of changes in the stock price. He can actually eliminate that risk completely, by selling (writing) two options for every share that he owns. Since the portfolio thus created is risk-free, the capital he has invested must pay exactly the same return as the risk-free market interest rate on a three-month treasury bill. If this were not the case, arbitrage trading would begin to eliminate the possibility of making a risk-free profit. As the time to maturity approaches, however, and the stock price changes, the relation between the option price and the share price also changes. Therefore, to maintain a risk-free option-stock portfolio, the investor has to make gradual changes in its composition.

One can use this argument, along with some technical assumptions, to write down a partial differential equation. The solution to this equation is precisely the Black-Scholes’ formula. Valuation of other derivative securities proceeds along similar lines.


The Black-Scholes formula
Black and Scholes’ formula for a European call option can be written as

where the variable d is defined by

According to this formula, the value of the call option C, is given by the difference between the expected share value – the first term on the right-hand side – and the expected cost – the second term – if the option right is exercised at maturity. The formula says that the option value is higher the higher the share price today S, the higher the volatility of the share price (measured by its standard deviation) sigma, the higher the risk-free interest rate r, the longer the time to maturity t, the lower the strike price L, and the higher the probability that the option will be exercised (the probability is evaluated by the normal distribution function N ).


Other applications
Black, Merton and Scholes’ method has become indispensable in the analysis of many economic problems. Derivative securities constitute a special case of so-called contingent claims and the valuation method can often be used for this wider class of contracts. The value of the stock, preferred shares, loans, and other debt instruments in a firm depends on the overall value of the firm in essentially the same way as the value of a stock option depends on the price of the underlying stock. The laureates had already observed this in their articles published in 1973, thereby laying the foundation for a unified theory of the valuation of corporate liabilities.

A guarantee gives the right, but not the obligation, to exploit it under certain circumstances. Anyone who buys or is given a guarantee thus holds a kind of option. The same is true of an insurance contract. The method developed by this year’s laureates can therefore be used to value guarantees and insurance contracts. One can thus view insurance companies and the option market as competitors.

Investment decisions constitute another application. Many investments in equipment can be designed to allow more or less flexibility in their utilization. Examples include the ease with which one can close down and reopen production (in a mine, for instance, if the metal price is low) or the ease with which one can switch between different sources of energy (if, for instance, the relative price of oil and electricity changes). Flexibility can be viewed as an option. To choose the best investment, it is therefore essential to value flexibility in a correct way. The Black-Merton-Scholes’ methodology has made this feasible in many cases.

Banks and investment banks regularly use the laureates’ methodology to value new financial instruments and to offer instruments tailored to their customers’ specific risks. At the same time such institutions can reduce their own risk exposure in financial markets.

Other research contributions
Besides their valuation method, Merton and Scholes have made several significant contributions to financial economics. Merton has developed a new powerful method for analyzing consumption and investment decisions over time, and generalized the so-called CAPM (the valuation model for which William Sharpe was awarded the Prize in 1990) from a static to a dynamic setting. Scholes has clarified the impact of dividends on stock market values, together with Black and Miller (Merton Miller was awarded the Prize in 1990 for his contributions to corporate finance), and made empirical contributions, for example concerning estimation of the so-called beta value (a risk measure in the CAPM).

***

Further reading
Additional background material on the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel 1997

Black, F. och M. Scholes, 1973, “The Pricing of Options and Corporate Liabilities”, Journal of Political Economy, Vol. 81, pp. 637-654.

Black, F., 1989, “How We came Up with the Option Formula”, The Journal of Portfolio Management, Vol. 15, pp. 4-8

Hull, J.C., 1997, Options, Futures and Other Derivates, 3rd edition, Prentice Hall

Merton, R.C., 1973, “Theory of Rational Option Pricing”, Bell Journal of Economics and Management Science, Vol. 4, pp. 141-183.

***

Robert C. Merton, was born in 1944 in New York, USA. He received his Ph.D. in Economics in 1970 at MIT, Cambridge, USA. He currently holds the George Fisher Baker Professorship in Business Administration at Harvard Business School, Boston, USA.

Professor Robert C. Merton
Graduate School of Business Administration
Morgan Hall, Soldiers Field
Boston, MA 02163, USA

Myron S. Scholes, was born in 1941. He received his Ph.D. in 1969 at University of Chicago, USA. He currently holds the Frank E. Buck Professorship of Finance at the Graduate School of Business and is Senior Research Fellow at the Hoover Institution at Stanford University, Stanford, USA

Professor Myron S. Scholes
Graduate School of Business
Stanford University
Stanford, CA 94305, USA

 

 

To cite this section
MLA style: Press release. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/economic-sciences/1997/press-release/>

Press release

English
Swedish

Logo

8 October 1996

The Royal Swedish Academy of Sciences has decided to award the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel, 1996, to

Professor James A. Mirrlees, University of Cambridge, U.K. and

Professor William Vickrey, Columbia University, New York, USA,
(deceased October 10, 1996)

for their fundamental contributions to the economic theory of incentives under asymmetric information.

Information and Incentives
One of the most important and liveliest areas of economic research in recent years addresses situations where decision-makers have different information. Such informational asymmetries occur in a great many contexts. For example, a bank does not have complete information about borrowers’ future income; the owners of a firm may not have the same detailed information about costs and competitive conditions as the managing director; an insurance company cannot fully observe policyholders’ responsibility for insured property and external events which affect the risk of damage; an auctioneer does not have complete information about the willingness to pay of potential buyers; the government has to devise an income tax system without much knowledge about the productivity of individual citizens; etc.

Incomplete and asymmetrically distributed information has fundamental consequences, particularly in the sense that an informational advantage can often be exploited strategically. Research on the economics of information has therefore focused on the question of how contracts and institutions can be designed to handle different incentive and control problems. This has generated a better understanding of insurance markets, credit markets, auctions, the internal organization of firms, wage forms, tax systems, social insurance, competitive conditions, political institutions, etc.

This year’s laureates have laid the foundation for examining these seemingly quite disparate areas through their analytical work on issues where informational asymmetries are a key component. An essential part of William Vickrey’s research has concerned the properties of different types of auctions, and how they can best be designed so as to generate economic efficiency. His endeavors have provided the basis for a lively field of research which, more recently, has also been extended to practical applications such as auctions of treasury bonds and band spectrum licenses. In the late 1940s, Vickrey also formulated a model indicating how income taxation can be designed to attain a balance between efficiency and equity. A quarter of a century later, interest in this model was renewed when James Mirrlees found a more thorough solution to the problems associated with optimal income taxes. Mirrlees soon realized that his method could also be applied to many other similar problems. It has become a principal constituent of the modern analysis of complex information and incentive problems. Mirrlees’s approach has become particularly valuable in situations where it is impossible to observe another agent’s actions, so-called moral hazard.

Income Taxation
Philosophers, economists and political scientists have studied the principles of income taxation for a long time. Different principles of justice have governed the structure of taxation. In a classical essay published in 1897, Oxford professor Francis Y. Edgeworth adopted a utilitarian welfare perspective; he concluded that all differences in income should be neutralized, which requires strongly progressive tax rates. Vickrey’s analysis, in the mid-1940s, emphasized that a progressive tax schedule would affect individuals’ incentives to exert themselves. He therefore reformulated the problem with respect to both incentive problems – that each individual takes the tax schedule into account when choosing his work effort – and asymmetric information – that, in practice, the productivity of individuals is not known to the government. He formulated a solution to the problem in principle, but did not succeed in mastering its mathematical complications.

It was not until 25 years later that the problem was reconsidered by James Mirrlees, who solved it in a way which has established a paradigm for analyzing a broad spectrum of economic issues where asymmetric information is a prime component. Mirrlees identified a critical condition (known as single crossing) which drastically simplifies the problem and enables a solution. His analysis also proved to contain the germ of a general principle: the revelation principle. According to this principle, the solution to incentive problems under incomplete information belongs to the relatively limited class of so-called allocation mechanisms which induce all individuals to reveal their privat information truthfully, in a way which does not conflict with their self-interest. By applying this principle, it becomes much easier to design optimal contracts and other solutions to incentive problems. It has therefore had a large bearing on the treatment of many issues of economic theory.

Moral Hazard
For a long time, a well-known problem in connection with insurance is that damage to insured objects depends not only on external factors such as weather and attempted theft, but also on the care taken by the policyholder, which is costly for an insurance company to monitor. Corresponding problems also arise regarding different kinds of social insurance, such as health and disability insurance. Generous insurance coverage can exaggerate risktaking and affect the way individuals care for themselves and their property. Many other two-party relations involve an outcome that is observable to both parties, where the outcome depends on one party’s (the agent’s) actions, which cannot be observed by the other party (the principal), as well as on a random variable. In the relation between the owner and the management of a firm, for instance, the action would be the executive’s work effort, the outcome would be the firm’s profit and the random variable could be the firm’s market or production conditions. The owners of both the insurance company and the firm want to choose terms of compensation, a “contract”, which gives the agent incentives to act in accordance with the principal’s interests, for example, by maximizing the owner’s expected profits.

The technical difficulties encountered in analyzing these so-called moral hazard problems are similar to the income tax problems emphasized by Vickrey and solved by Mirrlees. In the mid-1970s, by means of an apparently simple reformulation of the problem, Mirrlees paved the way for an increasingly powerful analysis. He noted that an agent’s actions indirectly imply a choice of the probabilities that different outcomes will occur. The conditions for the optimal terms of compensation thus provide “probability information” about the agent’s choice and the extent to which insurance protection has to be restricted in order to provide the agent with suitable incentives. In designing an incentive scheme, the principal has to take into account the costs of giving the agent incentives to act in accordance with the principal’s interests. The higher the agent’s sensitivity to punishment and the larger the amount of information about the agent’s choice contained in the outcome, the lower these costs. This is stipulated in a contract; the agent bears part of the cost of undesirable outcomes or receives part of the profits from favorable outcomes. The policyholder takes care of the insured object almost as if it were uninsured, and the executive manages the firm almost as if it were his own.

Auctions
Asymmetric information is also an essential component of auctions, where potential buyers have limited knowledge about the value of the asset or rights up for sale. Vickrey analyzed the properties of different kinds of auctions in two papers in 1961 and 1962. He attached particular importance to the second-price auction or, as it is now often called, the Vickrey auction. In such an auction, an object is auctioned off in sealed bidding, where the highest bidder gets to buy the item, but only pays the next highest price offered. This is an example of a mechanism which elicits an individual’s true willingness to pay. By bidding above his own willingness to pay, an individual runs the risk that someone else will bid likewise, and he is forced to buy the object at a loss. And vice versa, if an individual bids below his own willingness to pay, he runs the risk of someone else buying the item at a lower price than the amount he himself is willing to pay. Therefore, in this kind of auction, it is in the individual’s best interest to state a truthful bid. The auction is also socially efficient. The object goes to the person with the highest willingness to pay, and the person in question pays the social opportunity cost which is the second highest bid. Other researchers have later developed analogous principles, for example in order to elicit the true willingness to pay for public projects. Thus, Vickrey’s analysis has not only been momentous for the theory of auctions; it has also conveyed fundamental insights into the design of resource allocation mechanisms aimed at providing socially desirable incentives.

Other Contributions
In addition, both James Mirrlees and William Vickrey have made noteworthy contributions to other areas of economics. In collaboration with the U.S. economist Peter Diamond, Mirrlees analyzed the structure of consumption taxes in a world where tax wedges give rise to social inefficiency. They arrived at an unambiguous and highly universal result by showing that under relatively general conditions, it is worthwhile to maintain full production efficiency. In concrete terms, this means that small open economies should not impose tariffs on foreign trade and that taxes on factors of production such as labor and capital should not be levied on the production side, but at the consumption stage. The latter result has had important consequences for project appraisal and economic policy in developing countries. In work with the British economist Ian Little and based on his research with Diamond, Mirrlees himself has set up criteria for evaluating development projects.

Efficient pricing of public services permeates Vickrey’s scientific production. He has not only made significant theoretical contributions, but – unlike most excellent theorists – he has also followed up on his proposals all the way to their practical application. An example is Vickrey’s famous study of the New York subway fare system in the 1950s. His proposal was an early attempt at efficient pricing of public services, under the restriction that the authorities should receive full cost coverage. His study represents more than an improvement on the basic pricing principle (so-called Ramsey pricing); it is also fascinating in its wealth of detail.


James A. Mirrlees was born in 1936 in Minnigaff, Scotland. He received his M.S. in Mathematics in Edinburgh in 1957, and his Ph.D. from the University of Cambridge in 1963. He was Edgeworth Professor of Economics at Oxford University between 1969 and 1995, and currently holds a professorship in Economics at the University of Cambridge.

Professor James A. Mirrlees
Department of Economics and Politics
University of Cambridge
Sidgwick Avenue
Cambridge CB3 9DD
U.K.

William Vickrey was born in 1914 in Victoria, British Columbia, Canada. He received his B.S. from Yale University in 1935. He then began postgraduate studies at Columbia University, New York, where he received his Master’s degree in 1937 and his Ph.D. in 1947. He has been affiliated with the faculty of Columbia University since 1946, and also served as a tax advisor between 1937 and 1947. He was Professor Emeritus at Columbia University.


Additional background material on the Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel, 1996

To cite this section
MLA style: Press release. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/economic-sciences/1996/press-release/>

Further reading

 

 

Information on the Nobel Prize in Chemistry 2000 (press release, information for the public, advanced information, suggested web links to institutions and companies etc), The Royal Swedish Academy of Sciences

Conductive Polymers – Information (advanced) on the Nobel Prize 2000, The Royal Swedish Academy of Sciences

Conductive Polymers, M.G.Kanatzidis, Chem. Eng. News 3, p. 36, 1990.

Plastic Electronics, D. de Leeuw, Physics World, p. 31, March 1999.

How far will circuits shrink?, R.E. Gleason, Science Spectra 20, 2000, p. 32.

 

To cite this section
MLA style: Further reading. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/chemistry/2000/8957-further-reading-2000/>

Pressmeddelande: Nobelpriset i fysik 1996

English
Swedish

Logo
9 oktober 1996

Kungl. Vetenskapsakademien har beslutat att utdela 1996 års Nobelpris i fysik gemensamt till

Professor David M. Lee, Cornell University, Ithaca, New York, USA,

Professor Douglas D. Osheroff, Stanford University, Stanford, Kalifornien, USA och

Professor Robert C. Richardson, Cornell University, Ithaca, New York, USA,

för upptäckten av suprafluiditet i helium-3.

Ett genombrott inom lågtemperaturfysiken

Då temperaturen sjunker en kall vinterdag blir vattenånga vatten och vatten blir is. Dessa så kallade fasomvandlingar och de förändrade tillstånden hos materien kan grovt sett beskrivas och förstås med hjälp av klassisk fysik. Vad som sker när temperaturen faller är att den slumpmässiga värmerörelsen i gaser, vätskor och fasta kroppar avstannar. Men situationen blir en helt annan då temperaturen sänks ytterligare och närmar sig den absoluta nollpunkten -273,15°C. I prov av flytande helium uppträder t.ex. suprafluiditet, ett fenomen som inte kan förstås med hjälp av klassisk fysik. När en vätska blir supraflytande förlorar plötsligt vätskans atomer all sin slumpmässighet och samverkar istället vid varje rörelse. Detta gör att vätskan kommer att sakna inre friktion, kan flyta över kanten på en bägare, ut genom mycket små hål och att den uppvisar en hel rad andra icke-klassiska effekter. Den grundläggande förståelsen av en sådan vätskas egenskaper kräver en avancerad form av kvantfysik och dessa starkt nedkylda vätskor kallas därför kvantvätskor. Genom att i detalj studera kvantvätskors egenskaper och jämföra dessa med kvantfysikens förutsägelser, bidrar lågtemperaturforskarna till att vi får värdefull kunskap om grunderna för materiens beskrivning på mikroskopisk nivå.

David M. Lee, Douglas D. Osheroff och Robert C. Richardson upptäckte i början av 1970-talet, i lågtemperaturlaboratoriet vid Cornell University, att heliumisotopen helium-3 kan fås att bli supraflytande vid en temperatur som endast ligger omkring två tusendelar av en grad över den absoluta nollpunkten. Denna supraflytande kvantvätska skiljer sig starkt från den som redan på 1930-talet upptäcktes och studerades vid ungefär två grader (dvs. tusen gånger) högre temperatur i den normala heliumisotopen helium-4. Den nya kvantvätskan helium-3 har mycket speciella egenskaper. Dessa visar bl.a. att mikrofysikens kvantlagar ibland direkt styr beteendet också i makroskopiska kroppar.

Heliums isotoper
I naturen finns ädelgasen helium i två former, isotoper, med fundamentalt olika egenskaper. Helium-4 är den vanligast förekommande medan helium-3 endast förekommer som en mycket liten bråkdel. Helium-4 har en atomkärna med två protoner och två neutroner (siffran 4 står för det sammanlagda antalet nukleoner, dvs. protoner och neutroner). Kärnan omges av ett elektronskal med två elektroner. Att antalet partiklar som bygger upp atomen är ett jämnt tal gör helium-4 till vad man kallar en boson. Atomkärnan i helium-3 har visserligen två protoner, men den har bara en neutron. Eftersom elektronskalet också har två elektroner, innebär detta att helium-3 byggs upp av ett udda antal partiklar, vilket gör den till en så kallad fermion. På grund av att de två heliumisotoperna byggs upp av olika antal partiklar, uppstår dramatiska skillnader i deras beteende när de kyls ner till temperaturer nära den absoluta nollpunkten.

Isotopernas egenskaper
Bosoner som helium-4 följer Bose-Einsteinstatistik, vilket bl.a. leder till att de under vissa betingelser låter sig kondenseras i stort antal i det tillstånd som har lägst energi. Ett fasövergångsförlopp där detta inträffar kallas en Bose-Einsteinkondensation och atomerna i det lägsta energitillståndet sägs utgöra ett Bose-Einsteinkondensat. Den som först lyckades kyla helium-4-gas till så låga temperaturer att den förvätskades var Heike Kamerlingh-Onnes (Nobelpris i fysik 1913). Detta skedde i början av 1900-talet. Han noterade redan då, att när temperaturen kom närmare än ca 2 grader från absoluta nollpunkten så hände något speciellt i vätskan. Men det var först i slutet av 1930-talet som Pjotr Kapitza (Nobelpris i fysik 1978) experimentellt upptäckte fenomenet suprafluiditet i helium-4, ett fenomen som först förklarades schematiskt av Fritz London och senare i detalj av Lev Landau (Nobelpris i fysik 1962). Förklaringarna bygger på att den supraflytande vätskan, vilken uppträder vid en fasövergång då temperaturen endast är 2,17 grader från absoluta nollpunkten, utgör ett slags Bose-Einsteinkondensat av heliumatomer.

Fermioner som helium-3 följer Fermi-Diracstatistik och borde egentligen inte kunna kondenseras till det lägsta energitillståndet. Därmed skulle inte suprafluiditet kunna uppträda i helium-3, som liksom helium-4 kan förvätskas vid en temperatur på några grader över absoluta nollpunkten. Men fermioner kan ändå låta sig kondenseras, fast på ett mer komplicerat sätt. Detta föreslogs i den s.k. BCS-teorin för supraledning i metaller, vilken formulerades på 1950-talet av John Bardeen, Leon Cooper och Robert Schrieffer (Nobelpris i fysik 1972). Teorin utgår från det faktum att elektroner är fermioner (de består ju av bara en partikel, ett udda antal) och därför följer Fermi-Diracstatistik precis som helium-3-atomerna. Men elektroner i starkt nedkylda metaller kan slå sig samman två och två till s.k. Cooper-par, och uppträder då som bosoner. Dessa par kan genomgå Bose-Einsteinkondensation och bilda Bose-Einsteinkondensat. Med utgångspunkt från erfarenheterna av suprafluiditet i helium-4 och supraledning i metaller, var det väntat att även fermionerna i flytande helium-3 borde kunna bilda bosonpar och att alltså suprafluiditet borde kunna erhållas i mycket starkt nedkylda prov av isotopen helium-3. Trots att flera forskargrupper arbetat med problemet i åratal, särskilt under 1960-talet, hade ingen lyckats och många ansåg att det aldrig skulle gå att uppnå suprafluiditet i helium-3.

Upptäckten
Forskarna vid Cornelluniversitetet var lågtemperaturspecialister och hade själva byggt sin apparatur. Med den kunde de producera så låga temperaturer att provet bara befann sig någon tusendels grad från absoluta nollpunkten. David Lee och Robert Richardson var de seniora forskarna, medan Douglas Osheroff var doktorand i gruppen. Egentligen letade de efter ett annat fenomen: en fasövergång till en sorts magnetisk ordning i frusen helium-3-is. För att finna denna fasövergång, studerade man det uppmätta trycket inuti provet som funktion av tiden under det att man sakta ökade och minskade provets volym. Det var studenten Osheroffs skarpa argusögon som uppmärksammade små extra språng i den uppmätta kurvan (Fig. 1). Det är lätt gjort att betrakta sådana små avvikelser som mer eller mindre oförklarliga egenheter hos apparaturen, men denne student och hans äldre medarbetare blev övertygade om att det var en riktig effekt. I en första rapport, som man publicerade 1972, tolkades resultatet som en fasövergång i den fasta helium-3-is som också kan bildas vid dessa låga temperaturer. Men eftersom tolkningen inte stämde perfekt med mätresultaten, genomfördes snabbt en serie kompletterande mätningar. Man lyckades redan samma år, i en andra publikation, visa att det egentligen rörde sig om två fasövergångar i vätskan helium-3. Upptäckten blev inledningen till ett intensivt utforskande av den nya kvantvätskan. Särskilt viktiga insatser gjordes av teoretikern Anthony Leggett, som bidrog till tolkningen av upptäckten. Denna fick därmed mycket stor betydelse för vår kunskap om hur kvantfysikens lagar, formulerade för mikroskopiska system, ibland direkt styr även makroskopiska system.

Fig. 1. Figuren visar trycket inuti ett prov som innehåller en blandning av flytande helium-3 och fast helium-3-is. Provet utsätts först för ett stigande yttre tryck under cirka 40 minuter, därefter minskas det yttre trycket. Notera förändringarna i kurvans lutning vid A och B och de temperaturer vid vilka dessa uppträder. Kurvan liknar den som publicerades av D.D. Osheroff, R.C. Richardson och D.M. Lee i Physical Review Letters 28, 885 (1972), där de nya fasövergångarna i helium-3 först rapporterades. Den är tagen från en artikel av N.D. Mermin och D.M. Lee i Scientific American 1976 (se Lästips).

Suprafluiditet i helium-3
Att den nya vätskan verkligen var supraflytande bekräftades snart efter upptäckten, bl.a. av en forskargrupp under ledning av Olli Lounasmaa vid Tekniska Högskolan i Helsingfors. De mätte dämpningen hos en svängande sträng som placerats i provet och fann att dämpningen minskade med en faktor tusen då den omgivande vätskan genomgick fasövergången till det nya tillståndet. Detta visar att vätskan saknar inre friktion (viskositet).

Senare forskning har visat att helium-3 har åtminstone tre olika supraflytande faser, varav en endast uppträder om provet befinner sig i ett magnetfält. Som kvantvätska uppvisar därmed helium-3 en betydligt mer komplicerad struktur än helium-4. Den är t.ex. anisotrop, vilket betyder att den har olika egenskaper i olika riktningar i rummet, något som inte förekommer i klassiska vätskor, utan mer liknar egenskaperna hos flytande kristaller (jfr Nobelpriset i fysik 1991 till Pierre-Gilles de Gennes).

Sätts en supraflytande vätska i rotation med en rotationshastighet som överskrider ett kritiskt värde uppkommer mikroskopiska virvlar. Detta fenomen, vilket även är känt från supraflytande helium-4, har för helium-3 lett till en omfattande forskning eftersom virvlarna där kan anta mer komplicerade former. Finska forskare har utvecklat en teknik att med hjälp av optiska fibrer direkt observera hur virvlar påverkar ytan hos roterande helium-3 vid temperaturer som bara är en tusendels grad från absoluta nollpunkten.

En fascinerande tillämpning av suprafluiditet i helium-3
Fasövergångarna till suprafluiditet i helium-3 har nyligen använts av två experimentella forskargrupper för att testa en teori som rör hur s.k. kosmiska strängar kan bildas i universum. Dessa mycket stora hypotetiska objekt, vilka anses kunna ha varit viktiga för bildandet av galaxer, kan ha uppstått som en följd av de snabba fasövergångar som tros ha ägt rum en bråkdel av en sekund efter Den Stora Smällen, Big Bang. Forskargrupperna använde neutroninducerade kärnreaktioner för att lokalt och snabbt värma upp sina prov av supraflytande helium-3. När dessa kyldes ner igen bildades nystan av virvlar. Det är dessa virvlar som förmodas motsvara de kosmiska strängarna. Resultatet, som inte får tas som bevis för existensen av kosmiska strängar i universum, är att den teori som testades verkar vara tillämpbar på virvelbildningar i supraflytande helium-3.


Lästips
Additional background material on the Nobel Prize in Physics 1996, The Royal Swedish Academy of Sciences.
Superfluid Helium 3, by N.D. Mermin and D.M. Lee, Scientific American, December 1976, p. 56.
Low temperature science – what remains for the physicist?, by R.C. Richardson, Physics Today, August 1981, p. 46.
Special Issue: He3 and He4, Physics Today, February 1987, including among other articles Novel magnetic properties of solid helium-3, by M.C. Cross and D.D. Osheroff, p. 34.
The 3He Superfluids, by O.V. Lounasmaa and G.R. Pickett, Scientific American, June 1990.
Heliums egenskaper vid låga temperaturer, Peter Berglund, KOSMOS 1988, s. 63.
Uppslagsord i Nationalencyklopedin.

David M. Lee
född 1931 i Rye, NY, USA. Amerikansk medborgare. Doktorsgrad i fysik 1959 vid Yale University. Lee har bl.a. erhållit Institute of Physics Sir Francis Simon Memorial Prize 1976 och Oliver E. Buckley Solid State Physics Prize (American Physical Society) 1980 för upptäckten av suprafluiditet i helium-3.

Professor David M. Lee
Department of Physics
Cornell University
Ithaca, NY 14853
USA

Douglas D. Osheroff
född 1945 i Aberdeen, WA, USA. Amerikansk medborgare. Doktorsgrad i fysik 1973 vid Cornell University. Osheroff har bl.a. erhållit Institute of Physics Sir Francis Simon Memorial Prize 1976 och Oliver E. Buckley Solid State Physics Prize (American Physical Society) 1980 för upptäckten av suprafluiditet i helium-3.

Professor Douglas D. Osheroff
Department of Physics
Stanford University
Stanford, CA 94305
USA

Robert C. Richardson
född 1937 i Washington, DC, USA. Amerikansk medborgare. Doktorsgrad i fysik 1966 vid Duke University. Richardson har bl.a. erhållit Institute of Physics Sir Francis Simon Memorial Prize 1976 och Oliver E. Buckley Solid State Physics Prize (American Physical Society) 1980 för upptäckten av suprafluiditet i helium-3.

Professor Robert C. Richardson
Department of Physics
Cornell University
Ithaca, NY 14853
USA

To cite this section
MLA style: Pressmeddelande: Nobelpriset i fysik 1996. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/physics/1996/9763-pressmeddelande-nobelpriset-i-fysik-1996/>

Press release

English
Swedish

Logo

9 October 1996

The Royal Swedish Academy of Sciences has decided to award the 1996 Nobel Prize in Physics to

Professor David M. Lee, Cornell University, Ithaca, New York, USA,

Professor Douglas D. Osheroff, Stanford University, Stanford, California, USA and

Professor Robert C. Richardson, Cornell University, Ithaca, New York, USA

for their discovery of superfluidity in helium-3.

A breakthrough in low-temperature physics

When the temperature sinks on a cold winter’s day water vapour becomes water and water becomes ice. These so-called phase transitions and the changed states of matter can be roughly described and understood with classical physics. What happens when the temperature falls is that the random heat movement in gases, liquids and solid bodies ceases. But the situation becomes entirely different when the temperature sinks further and approaches absolute zero, -273.15°C. In samples of liquid helium what is termed superfluidity occurs, a phenomenon that cannot be understood in terms of classical physics. When a liquid becomes superfluid its atoms suddenly lose all their randomness and move in a coordinated manner in each movement. This causes the liquid to lack all inner friction: It can overflow a cup, flow out through very small holes, and exhibits a whole series of other non-classical effects. Fundamental understanding of the properties of such a liquid requires an advanced form of quantum physics, and these very cold liquids are therefore termed quantum liquids. By studying the properties of quantum liquids in detail and comparing these with the predictions of quantum physics low-temperature, researchers are contributing valuable knowledge of the bases for describing matter at the microscopic level.

David M. Lee, Douglas D. Osheroff and Robert C. Richardson discovered at the beginning of the 1970s, in the low-temperature laboratory at Cornell University, that the helium isotope helium-3 can be made superfluid at a temperature only about two thousandths of a degree above absolute zero. This superfluid quantum liquid differs greatly from the one already discovered in the 1930s and studied at about two degrees (i.e. a thousand times) higher temperature in the normal helium isotope helium-4. The new quantum liquid helium-3 has very special characteristics. One thing these show is that the quantum laws of microphysics sometimes directly govern the behaviour of macroscopic bodies also.

The isotopes of helium
In nature the inert gas helium exists in two forms, isotopes, with fundamentally different properties. Helium-4 is the commonest while helium-3 occurs only as a very small fraction. Helium-4 has a nucleus with two protons and two neutrons (the 4 stands for the total number of nucleons, i.e. protons and neutrons). The nucleus is surrounded by an electron shell with two electrons. The fact that the number of particles constituting the atom is even makes helium-4 what is termed a boson. The nucleus of helium-3 also has two protons, but only one neutron. Since its electron shell also has two electrons, helium-3 consists of an odd number of particles, which makes it what is termed a fermion. Since the two isotopes of helium are built up of different numbers of particles, dramatic differences in their behaviour arise when they are cooled to temperatures near absolute zero.

The properties of the isotopes
Bosons such as helium-4 follow Bose-Einstein statistics which, among other things, means that under certain circumstances they condense in the state that possesses the least energy. A phase transition process in which this occurs is termed Bose-Einstein condensation. The first person to manage to cool helium-4 gas to such low temperatures that it liquidised was Heike Kamerlingh-Onnes (Nobel Prize in Physics 1913). This happened at the beginning of the 1900s. He noted even then that when the temperature came closer to absolute zero than about 2 degrees something special happened in the liquid. But it was not until the end of the 1930s that Pjotr Kapitsa (Nobel Prize in Physics 1978) discovered experimentally the phenomenon of superfluidity in helium-4, a phenomenon first explained schematically by Fritz London and then in detail by Lev Landau (Nobel Prize in Physics 1962). The explanations are based on the fact that the superfluid liquid, which appears at a phase transition when the temperature is only 2.17° above absolute zero, is a kind of Bose-Einstein condensate of helium atoms.

Fermions such as helium-3 follow Fermi-Dirac statistics and should not actually be condensable in the lowest energy state. For this reason superfluidity should not be possible in helium-3 which, like helium-4, can be liquidised at a temperature of some degrees above absolute zero. But fermions can in fact be condensed, but in a more complicated manner. This was proposed in the BCS theory for superconductivity in metals, formulated by John Bardeen, Leon Cooper and Robert Schrieffer (Nobel Prize in Physics 1972). The theory is based on the fact that electrons are fermions (they consist of one particle only, an odd number) and therefore follow Fermi-Dirac statistics just as helium-3 atoms do. But electrons in greatly cooled metals can combine in twos to form what are termed Cooper pairs and then behave as bosons. These pairs can undergo Bose-Einstein condensation to form a Bose-Einstein condensate. Starting with the experience of superfluidity in helium-4 and superconductivity in metals, it was expected that the fermions in liquid helium-3 should be capable of forming boson pairs and that superfluidity should be obtainable in very cold samples of the isotope helium-3. Although many research groups had worked with the problem for years, particularly during the 1960s, none had succeeded and many considered that it would never be possible to achieve superfluidity in helium-3.

The discovery
The researchers at Cornell University were low-temperature specialists and had built their apparatus themselves. With it they could produce such low temperatures that the sample was within a few thousands of a degree of absolute zero. David Lee and Robert Richardson were the senior researchers while Douglas Osheroff was a graduate student in the team. Actually they were looking for a different phenomenon: A phase transition to a kind of magnetic order in frozen helium-3 ice. To find this phase transition, they were studying the pressure measured within the sample as a function of the time during which the volume was slowly increased and reduced. It was Osheroff’s vigilant eye that noted small extra jumps in the curve measured (Fig. 1). It is easy to consider such small deviations as more or less inexplicable characteristics of the apparatus, but this student and his older co-workers became convinced that it was a true effect. In a first report published in 1972 the result was interpreted as a phase transition in the solid helium-3 ice which can also form at these low temperatures. But since the interpretation did not correspond precisely with the results of measurement, a rapid series of supplementary measurements was undertaken and in the same year the researchers were able to show in a second publication that there were in fact two phase transitions in liquid helium-3. The discovery heralded the start of intensive research on the new quantum liquid. A particularly important contribution was made by the theoretician Anthony Leggett, who assisted in the interpretation of the discovery. This thus assumed great significance for our knowledge of how the laws of quantum physics, formulated for microscopic systems, sometimes directly govern macroscopic systems also.

Fig. 1. The figure shows the pressure inside a sample containing a mixture of liquid helium-3 and solid helium-3 ice. The sample is first subjected to increasing external pressure for about 40 minutes, whereafter the external pressure is reduced. Note the changes in the slope of the curve at A and B and the temperatures at which these occur. The graph resembles that published by D.D. Osheroff, R.C. Richardson and D.M. Lee in Physical Review Letters 28, 885 (1972) in which the new helium-3 phase transitions were first reported. It is taken from an article by N.D. Mermin and D.M. Lee in Scientific American 1976 (see Further Reading).

Superfluidity in helium-3
That the new liquid really was superfluid was confirmed soon after the discovery, among others by a research team under Olli Lounasmaa at the Helsinki University of Technology. They measured the damping of an oscillating string placed in the sample and found that the damping diminished by a factor of one thousand when the surrounding liquid underwent the phase transition to the new state. This shows that the liquid is without inner friction (viscosity).

Later research has shown that helium-3 has at least three different superfluid phases, of which one occurs only if the sample is placed in a magnetic field. As a quantum liquid helium-3 thus exhibits a considerably more complicated structure than helium-4. It is, for example, anisotropic, which means that it has different properties in different spatial directions, which does not occur in classical liquids but more resembles the properties of liquid crystals (cf. Nobel Prize in Physics 1991 to Pierre-Gilles de Gennes).

If a superfluid liquid is caused to rotate at a speed exceeding a critical value, microscopic vortices arise. This phenomenon, which is also known from superfluid helium-4, has in helium-3 led to extensive research since its vortices can assume more complicated forms. Finnish researchers have developed a technique using optical fibres to observe directly how vortices affect the surface of rotating helium-3 at temperatures only one thousandth of a degree from absolute zero.

A fascinating application of superfluidity in helium-3
The phase transitions to superfluidity in helium-3 have recently been used by two experimental research teams to test a theory regarding how what are termed cosmic strings can be formed in the universe. These immense hypothetical objects, which are thought possibly to have been important for the forming of galaxies, can have arisen as a consequence of the rapid phase transitions believed to have taken place a fraction of a second after the Big Bang. The research teams used neutrino-induced nuclear reactions to heat their superfluid helium-3 samples locally and rapidly. When these were cooled again, balls of vortices were formed. It is these vortices that are presumed to correspond to the cosmic strings. The result, which must not be taken as proof of the existence of cosmic strings in the universe, is that the theory tested appears to be applicable to vortex formation in superfluid helium-3.


Further Reading
Additional background material on the Nobel Prize in Physics 1996
Superfluid helium 3, by N.D. Mermin and D.M. Lee, Scientific American, December 1976, p. 56.
Low temperature science – what remains for the physicist?, by R.C. Richardson, Physics Today, August 1981, p. 46.
Special Issue: He3 and He4, Physics Today, February 1987, including among other articles Novel magnetic properties of solid helium-3, by M.C. Cross and D.D. Osheroff, p. 34. The 3He Superfluids, by O.V. Lounasmaa and G.R. Pickett, Scientific American, June 1990.

David M. Lee
born 1931 in Rye, NY, USA. American citizen. Doctoral degree in physics 1959, Yale University. Lee has received among other awards the Institute of Physics Sir Francis Simon Memorial Prize 1976 and the Oliver E. Buckley Solid State Physics Prize (American Physical Society) 1980 for the discovery of superfluidity in helium-3.

Professor David M. Lee
Department of Physics
Cornell University
Ithaca, NY 14853
USA

Douglas D. Osheroff
born 1945 in Aberdeen, WA, USA. American citizen. Doctoral degree in physics 1973 at Cornell University. Osheroff has received among other awards the Institute of Physics Sir Francis Simon Memorial Prize 1976 and the Oliver E. Buckley Solid State Physics Prize (American Physical Society) 1980 for the discovery of superfluidity in helium-3.

Professor Douglas D. Osheroff
Department of Physics
Stanford University
Stanford, CA 94305
USA

Robert C. Richardson
born 1937 in Washington, DC, USA. American citizen. Doctoral degree in physics 1966 at Duke University. Richardson has received among other awards the Institute of Physics Sir Francis Simon Memorial Prize 1976 and the Oliver E. Buckley Solid State Physics Prize (American Physical Society) 1980 for the discovery of superfluidity in helium-3.

Professor Robert C. Richardson
Department of Physics
Cornell University
Ithaca, NY 14853
USA

To cite this section
MLA style: Press release. NobelPrize.org. Nobel Prize Outreach AB 2024. Sat. 27 Jul 2024. <https://www.nobelprize.org/prizes/physics/1996/press-release/>

Pressmeddelande: Nobelpriset i fysik 1995

English
Swedish

Logo

Kungl. Vetenskapsakademien har beslutat att utdela 1995 års Nobelpris i fysik för banbrytande experimentella insatser inom leptonfysiken med ena hälften till

Martin L. Perl, Stanford University, Stanford, Kalifornien, USA för upptäckten av tauonen

och med andra hälften till

Frederick Reines, University of California, Irvine, Kalifornien, USA för påvisandet av neutrinon.

Upptäckterna av två av naturens småpartiklar belönas

Människan söker sin plats i naturen. Hon strävar efter att finna svar på såväl filosofiska som fysikaliska frågor. Människans hem, Universum, skapades i en stor smäll – Big Bang. “Vad består detta Universum av?” – “Vilka är dess minsta beståndsdelar och vad har de för egenskaper?” – “Vad kan de berätta om Universums historia och framtid?”. Årets pristagare har i detta sökande givit bestående bidrag. De har upptäckt två av naturens märkligaste småpartiklar.

Martin L. Perl och hans medarbetare upptäckte genom en serie experiment 1974-1977 att elektronen har en ca 3 500 gånger tyngre “släkting” kallad tauonen. Frederick Reines gjorde pionjärinsatser under 1950-talet tillsammans med framlidne Clyde L. Cowan, Jr., vilka ledde till att de experimentellt lyckades påvisa elektronens anti-neutrino.

Martin L. Perls upptäckt av tauonen innebar det första tecknet på att en tredje “familj” av fundamentala byggstenar existerade. Några år senare upptäcktes ytterligare en byggsten – den ena av familjens två kvarkar, bottenkvarken, och först 18 år senare upptäcktes dess andra kvark, toppkvarken. Existensen av den tredje familjen har stor betydelse för fysikernas tilltro till dagens teoretiska modell, den s.k. standardmodellen, som anger egenskaperna hos naturens minsta beståndsdelar. Utan den tredje familjen skulle modellen ha varit ofullständig och inte kunnat tillåta det s. k. CP-brottet (Charge and Parity), ett brott mot en fundamental symmetriprincip som bl.a. reglerar partiklars sönderfall (Nobelpris till Cronin och Fitch 1980). Om en fjärde familj av kvarkar och leptoner upptäcks kan detta innebära att standardmodellen måste revideras och ett större rekonstruktionsarbete påbörjas inom elementarpartikelfysiken.

När Frederick Reines och Clyde L. Cowan för första gången observerade neutriner var det en pionjärinsats som öppnade vägen in på de “omöjliga” neutrino-experimentens område. I våra dagar försöker man fånga in neutriner som finns i den kosmiska strålningen och som kan ha sitt ursprung i solen eller i uppflammande supernovor (exploderande stjärnor). Genom neutrinernas obenägenhet att reagera med atomkärnor, och därmed låta sig fångas in, måste man vid dessa experiment ha mycket stora detektorvolymer. Medan Reines och Cowan på 1950-talet klarade sig med ca en halv kubikmeter vatten i sin detektor använder stora experiment på 1990-talet flera tusen kubikmeter. Vissa experiment använder sig t.o.m. av omkringliggande hav eller is som detektorvolym!

Naturens byggstenar och deras familjestruktur
De minsta strukturer i naturen, som hittills kunnat studeras, är tolv materiepartiklar – även kallade byggstenar – sex kvarkar och sex leptoner. Dessa partiklar har var sin antipartikel, en sorts “spegelbild” av partikeln. (Namnet på en partikel omfattar också dess antipartikel.) Utöver dessa kvarkar och leptoner finns det andra småpartiklar som kallas kraftpartiklar, eftersom de ansvarar för tre av våra kända krafter, nämligen stark, elektromagnetisk och svag kraft. Tyngdkraften faller utanför deras verkningskrets. Den väsentligaste skillnaden mellan kvarkar och leptoner är att leptonerna inte känner av den starka kraften.

En märklig egenskap hos materiepartiklarna är att de uppvisar “familjetillhörighet”. De förekommer i tre familjer. Varje familj består av två kvarkar och två leptoner (Fig. 1). I mångt och mycket beter sig de tre familjerna som kopior av varandra. “Finns det någon fundamental princip som berättigar existensen av just tre familjer?” är en av fysikens olösta frågor.

Den första familjens kvarkmedlemmar har fått namnen uppkvark och nedkvark. Dess leptonmedlemmar är elektronen och elektron-neutrinon. De två kvarkarna bygger upp protoner och neutroner, som i sin tur bildar atomkärnor och därmed mer än 99% av all materia på jorden. Den lilla resten utgörs av elektroner. Elektron-neutrinon kan mycket grovt föreställas vara en elektron som har berövats sin laddning och massa. Huruvida en obetydlig mängd massa ändå återstår är även det en av fysikens obesvarade frågor. Det var denna elektron-neutrino, som Reines och hans kollega Cowan, då anställda vid Los Alamos Scientific Laboratory, lyckades fånga.

Upptäckten av tauonen
Under 1960-talet genomförde flera olika forskargrupper experiment, som alla bl.a. syftade till att finna nya laddade partiklar, däribland nya leptoner. Ett tillvägagångssätt var att söka de nya partiklarna i sönderfallsprodukter av de partiklar man då hade till hands, t.ex. kaoner. Ett annat sätt var att försöka producera dem vid en accelerator, t.ex. i kollisioner mellan högenergetiska elektroner och något strålmål. Martin Perl ingick i en grupp, som utförde ett sådant experiment vid Stanford Linear Accelerator Center (SLAC) 1966, men man fann inga nya laddade leptoner. 1973 togs en ny maskin i drift vid SLAC – en elektron-positron-kolliderare kallad SPEAR. En sådan kolliderare är en leptonletares drömmaskin, ty mekanismen för en eventuell produktion av nya laddade leptoner (X+, X) är enkel och lätt att tolka:

elektron + positron => X+ + X

Kollideraren SPEAR erbjöd Perl en utomordentlig möjlighet att fortsätta sin tidigare jakt på nya leptoner, denna gång i ett nytt och tidigare otillgängligt energiområde, ca 5 GeV (5 miljarder elektronvolt). Redan efter ett år kom en första vink om att något spännande var på gång – något som kunde vara tecken på produktion av en ny typ av lepton. Året därpå publicerade Perl och medarbetare de första resultaten. Men det tog ytterligare ett par år innan de kunde vara säkra på att de faktiskt hade upptäckt en ny lepton. Den nya leptonen betecknades med den grekiska bokstaven tau, som står för den första bokstaven i ordet triton (som betyder tredje). I Sverige döptes den till tauon.

 Triton
Fig. 1. Standardmodellens elementarpartiklar – ett nytt periodiskt system. Figuren är en klassisk bild av Triton, blåsande i en snäcka.

Perl och hans medarbetares experiment
Experimentet gick ut på att registrera frontalkollisioner mellan elektroner och deras antipartiklar positroner. En stor cylinderformad detektor placerad i ett magnetfält omgav kollisionsområdet. Detektorn bestod av flera komponenter, däribland ett antal trådgnistkammare samt skur-räknare tillverkade av blyscintillatorer och ett par proportionalkammare. Första tecknen på att man kunde ha med ett nytt fenomen att göra var att forskargruppen observerade 24 händelser av typen

elektron + positron => elektron + antimyon + o.p.

eller

elektron + positron => positron + myon + o.p.

där o.p. står för osynliga partiklar, sådana som ej lämnade spår i detektorn. Man detekterade alltså endast en elektron (eller positron) och en antimyon (eller myon) med motsatta tecken på sina laddningar. Genom att tillämpa energilagen fick Perl och hans medarbetare veta att det hade producerats minst två stycken osynliga partiklar.

En möjlig tolkning av dessa händelser var att det först hade producerats ett par av tunga leptoner, senare kallade tauoner,

elektron + positron => tauon + antitauon.

Men dessa förväntades sönderfalla mycket snabbt och de observerade elektronerna och myonerna tolkades således som sönderfallsprodukter från reaktioner

tauon => elektron (eller myon) + neutriner

antitauon => antimyon (eller positron) + neutriner.

De osynliga partiklarna var neutrinerna, som med sin notoriska okänslighet för omgivningen försvann utan att lämna något synligt spår efter sig (Fig. 2). Emellertid gjorde de sig påminda när energibalansen skulle redovisas. De hade tagit med sig en ansenlig andel av energin (jfr nedan).

Perls och hans medarbetares hypotes prövades genom en serie nya observationer som tog flera år. Så småningom visade det sig att tauonen bestått proven och därmed uppfyllde alla de krav som man kunde ställa på en tyngre släkting till elektronen och myonen. Liksom dessa har tauonen också en alldeles egen neutrino – tauon-neutrinon.

Illustration

Energilagen ledde till neutrinons entré på scenen
Hypotesen om neutrinons existens är ca 40 år äldre. Neutrinon “föddes” som en hypotetisk partikel i ett brev skrivet 1930 av Wolfang Pauli (Nobelpris 1945). På den tiden var det känt att många atomkärnor slutade sina liv genom att sända ut en elektron. Denna process, som kallas betasönderfall, gav forskarna mycket huvudbry, bl.a. tycktes en av fysikens heliga lagar – energilagen – inte gälla. För att återställa ordningen i fysikens lagbok kom Pauli med vad han kallade en “desperat lösning” – kärnan utsände inte elektronen ensam. Den ledsagades av en annan småpartikel, som saknade elektrisk laddning och reagerade mycket litet med sin omgivning. Den lilla partikeln, som så småningom fick heta neutrino, tog en del av energin med sig och försvann spårlöst i tomma intet. Energibalansen blev som förväntat, bara man tog hänsyn till den andel som neutrinon hade tagit med sig.

Pauli tyckte att han hade gjort något “förskräckligt” (som han kallade det) genom att föreslå en partikel som aldrig kunde bli upptäckt. Det tog tre decennier samt Reines och Cowans uppfinningsrikedom för att bringa neutrinon i dagen.

Upptäckten av neutrinon
Paulis neutrinohypotes var visserligen “förskräcklig”, men den var också ytterst tilltalande. Den räddade energilagen och samtidigt löstes flera andra gåtor. Neutrinohypotesen användes av Enrico Fermi (Nobelpris 1938) på ett mästerligt sätt för att formulera en teori för en av naturkrafterna, den svaga kraften. Denna ypperliga teori gav stor trovärdighet till hypotesen att neutrinon skapas tillsammans med elektronen var gång en kärna sönderfaller (genom betasönderfall). Men hur skulle man kunna ge ett slutgiltigt bevis på att neutrinon existerade? Forskarna Hans Bethe (Nobelpris 1967) och Rudolf Peierls hade uppskattat sannolikheten för att stoppa neutriner producerade i betasönderfall från radioaktiva preparat och funnit att den var så minimal, att det skulle behövas ett flera ljusår tjockt strålmål av bly för att effektivt fånga dessa neutriner. När de första kärnreaktorerna konstruerades under 1940-talet insåg bl.a. Fermi, att reaktorerna skulle kunna tjänstgöra som intensiva neutrinokällor. Man uppskattade att reaktorerna skulle kunna ge ett flöde av neutriner på ca 1012 – 1013 per sekund och cm2. Detta var många storleksordningar mer än vad man fick från radioaktiva källor.

År 1953 föreslog Reines och Cowan ett reaktorexperiment för att fånga neutriner. Reaktionen som skulle studeras var

antineutrino + proton => neutron + positron.

Trots den höga intensiteten av neutriner som reaktorn levererade, förväntades en så ringa räknehastighet för denna reaktion att försöket tycktes gränsa till det omöjliga. Reines och Cowan insåg vikten av att detektera såväl neutronen som positronen för att minska riskerna för feltolkning. Efter ett första försök vid reaktorn Hanford skred Reines och Cowan till verket vid Savannah River Plant.

Strålmålet i Reines-Cowan-experimentet bestod av ca 400 liter vatten innehållande kadmiumklorid placerat mellan stora vätskescintillationsdetektorer. Händelseförloppet för den sökta reaktionen är följande (jfr formeln ovan): Neutrinon krockar med en proton i vattnet och skapar en positron och en neutron. Positronen bromsas ner av vattnet och förintas tillsammans med någon elektron (materia och antimateria möts) varvid två fotoner (ljuspartiklar) uppstår. Dessa registreras samtidigt i de två detektorerna (Fig. 3). Även neutronen tappar fart i vattnet och fångas så småningom in av en kadmiumkärna, varvid ett antal fotoner utsänds. Dessa fotoner når detektorerna någon mikrosekund senare än fotonerna från positronens förintelse och ger besked om att neutrinoinfångningen har ägt rum.

Neutrinodetektor
Fig. 3. Schematisk bild av Reines och Cowans neutrinodetektor (se förklaringar i texten).

Man brottades med såväl låg räknehastighet som med hög bakgrund. I experimentet registrerades ungefär ett par händelser per timme. Inte desto mindre lyckades Reines och Cowan med denna bedrift som ansågs gränsa till det omöjliga. De lyckades lyfta neutrinon från dess status som fantasifigur till en tillvaro som existerande fri partikel.


Lästips
Additional background material on the Nobel Prize for Physics 1995, The Royal Swedish Academy of Sciences.
Heavy Leptons, Martin L. Perl and William T. Kirk, Scientific American, March 1978.
Leptons – what are they?, Martin L. Perl, New Scientist, 22 February 1979.
The Neutrino, Frederick Reines and Clyde L. Cowan, Jr., Nature, 1 September 1956.
Neutrino Physics, Frederick Reines and Clyde L. Cowan, Jr., Physics Today, August 1957.
Spaceship neutrino, Christine Sutton, Cambridge University Press 1992, pp. 37-44, 89-93.
Supernovor, Claes Fransson, KOSMOS 1991, s. 131.
Astropartikelfysik, Lars Bergström, KOSMOS 1993, s. 87.
Neutrino – en spöklik budbärare från rymden, Cecilia Jarlskog, Forskning och Framsteg 6/95, s.9.
Uppslagsord i Nationalencyklopedin

Martin L. Perl
född 1927 i New York, NY, USA. Amerikansk medborgare. Doktorsgrad i fysik 1955 vid Columbia University. Perl är bl.a. ledamot av National Academy of Sciences, USA.

Frederick Reines
född 1918 i Paterson, New Jersey, USA. Amerikansk medborgare. Doktorsgrad i fysik 1944 vid New York University. Reines är bl.a. ledamot av National Academy of Sciences, USA, och utländsk ledamot av Ryska Vetenskapsakademien.

Martin L. Perl, Professor
Stanford Linear Accelerator Center
Stanford University
Stanford, CA 94305
USA

Frederick Reines, Professor
Department of Physics
University of California at Irvine
Irvine, CA 92717
USA