Complex en nooit af: proof-of-stake

Complex en nooit af: proof-of-stake

Dit artikel verscheen in juli 2021 op Tweakers

Ethereum maakt zich op om over te gaan naar ethereum 2, een pittige transitie van proof-of-work naar proof-of-stake en daarmee een van de grootste experimenten in de cryptovalutawereld. Wat gaat er precies gebeuren en vooral: waarom?

Het doublespending-probleem

‘Klik’. Met een hoop geratel komt de Polaroid-foto uit het apparaat. Even wachten en het beeld verschijnt. Aardig als je bent, geef je de foto aan de geportretteerde. Je enige eigen herinnering aan dit moment staat in je geheugen gegrift. Misschien herinner je het moment weer als je de foto in iets verkleurde staat terugziet bij de ander thuis, gevangen onder een koelkastmagneet. Zulke analoge zaken zijn bij tijd en wijle populair en vaak kostbaar. Je betaalt vijf euro voor een foto op een uitgaansavond, misschien met een roos erbij; een uniek momentje dat niet is na te bootsen.

Uniciteit in het analoge leven is normaal, op internet is het lastig

Een foto wil je misschien juist wél graag delen en daarvoor is onze digitale wereld ideaal, maar met digitaal geld wil je dat het juist niet gebeurt. Analoog geld, althans de briefjes en muntjes, werkt heel goed tegen kopiëren. Je weet zeker dat je zelf het briefje van 50 euro niet meer hebt als de ander het in handen heeft.

We weten ook allemaal heel zeker dat als je een keten aan bits kopieert, hij precies gelijk is aan de originele keten. Dit is een prachtige en unieke eigenschap van onze digitale wereld, maar het zorgt al een halve eeuw voor kopzorgen als je iets niet een-op-een wil kopiëren, dus als je zeker wil weten dat iets niet ook nog aan een ander kan worden gegeven door het te kopiëren, zoals dat briefje van 50 euro.

Dat probleem waarbij de 50 euro gewoon vaker kan worden uitgegeven, heet in jargon het double-spending problem​.

Een eerlijk systeem

We kunnen dat tegengaan door arbiters in te zetten om databases bij te houden van wie wat heeft, zoals banken. Of je je daar nu wel of niet veilig bij voelt, is niet zo relevant voor dit verhaal. Wel relevant is de vraag of het mogelijk zou zijn om in het digitale domein een systeem te ontwikkelen waarmee je zonder derde partij onze analoge een-op-een-uitwisseling kunt uitvoeren in de digitale wereld. Kunnen we iets verzinnen waarmee we honderd procent zeker kunnen vaststellen dat Esma iets geeft aan Jeroen en ook zeker weten dat de transactie wordt uitgevoerd? Weten we dan ook zeker dat Esma het niet stiekem nog een keer kan uitgeven? En weten we zeker dat het systeem eerlijk is?

Het tweede probleem is op te lossen met asymmetrische cryptografie, zoals we dagelijks op internet toepassen met https-verbindingen. Het derde probleem – het oplossen zonder derde partij – is lastiger op te lossen. Hoe zorg je ervoor dat het systeem altijd je transactie doorvoert en je transactie niet terugdraait? En wat doe je om te voorkomen dat de transactie niet verandert? Iets zal moeten bepalen wanneer een transactie geldig is en daar moet iedereen het over eens zijn; er moet dus consensus over bestaan.

“Het eerste waar je misschien aan denkt is: één persoon, één stem. Je zou zeven miljard mensen op aarde allemaal één stem per persoon willen geven, maar dan moet je ze wel nauwkeurig identificeren, anders kan iemand miljoenen of miljarden pseudoniemen aanmaken”, aldus Bert Slagter, medeoprichter van kennisplatform LekkerCryptisch.nl. “In de digitale wereld kun je zeggen: één cpu, één stem. Maar zoals je pseudoniemen kunt aanmaken in de fysieke wereld, kun je onbeperkt virtuele machines aanmaken die je onevenredig veel stemrecht geven”, vervolgt hij. Hoe los je dat laatste dan op? Hoe zorg je ervoor dat je niet kunt samenspannen waardoor één entiteit disproportioneel veel invloed kan uitoefenen?

Sinds medio jaren tachtig van de twintigste eeuw passeerden heel wat systemen de revue die ervoor moesten zorgen dat bij gedistribueerde computersystemen de juiste informatie wordt opgeslagen, ook als niet alle onderdelen van het netwerk zijn te vertrouwen. Dit heet ook wel het Byzantijnse generalenprobleem en systemen die het probleem oplossen noemt men Byzantine fault tolerant of BFT. Toch faalden al die ideeën voor toepassing op open systemen. Altijd bleek wel ergens een fundamentele zwakheid te bestaan.

“Het Byzantijnse generalenprobleem is een kernprobleem in distributed computing”, zegt Davide Grossi, adjunct-hoogleraar bij het Bernoulli Institute aan de RuG. “Het probleem was wel opgelost voor gesloten systemen met centrale coördinatie, voor Satoshi Nakamoto langskwam. Die protocollen, zoals Practical BFT, zijn robuust tegen foute deelnemers, maar tot maximaal een derde van het totaal aantal deelnemers. Bij een gedistribueerde database wil je dat alle deelnemers een waarde in die database overeenkomen, je wil overeenstemming over de inhoud. Als je controle hebt over de deelnemers in een systeem, spelen de incentives niet echt een rol. Als je geen controle hebt over deelnemers moet je ze overtuigen om deel te nemen in het systeem en dat doen op een eerlijke manier: incentives worden centraal in het systeem.”

Nakamoto-consensus

Met de komst van de bitcoinblockchain kwam daar verandering in en ging speltheorie (game theory) een rol spelen. In de wetenschap kreeg deze ontwikkeling de naam ‘Nakamoto-consensus’. Daarmee wordt gedoeld op het gebruik van proof-of-work om de juiste incentives in te bakken in een consensusprotocol voor open peer-to-peer-netwerken.

Grossi: “Dit was heel innovatief en origineel, juist omdat het een oplossing is voor het Byzantijns generalenprobleem in een open systeem waarin niemand controle heeft over wie deelneemt, wie wanneer komt en wie wanneer gaat.”

De zwakheden rond BFT in open systemen bleken dus op te lossen met Nakamoto-consensus. In feite gebeurt dat door iets uit de analoge wereld op te offeren. Slagter: “Bij proof-of-work, het systeem achter bitcoin, wordt energie opgeofferd. Maar je kunt ook andere systemen verzinnen waarbij iets in de fysieke, natuurkundige wereld wordt verankerd. Dit doe je omdat je zaken uit de echte wereld niet eeuwig kunt kopiëren en plakken, wat je in de digitale wereld wel kunt. Dat is dus het idee van proof-of-work.”

Slagter legt uit dat proof-of-stake iets vergelijkbaars probeert te doen, door iets te verzinnen dat niet is te kopiëren. In het geval van proof-of-stake is dat dus vermogen of stake. “Het zorgt er wel voor dat proof-of-stake heel complex is. Daarom duurt de transitie van het ethereumnetwerk naar ethereum 2 ook zo lang. Er zijn overduidelijke aanvalsmogelijkheden die je op allerlei manieren moet zien tegen te gaan. In bitcoin is dat al sinds 2009 getest in echte-wereldomstandigheden waarbij je niet alleen kúnt aanvallen, maar zelfs verzocht wordt om aan te vallen.”

Grossi zegt daarover dat van alle decentrale consensussystemen, want daar gaat het immers om, proof-of-work van bitcoin op dit moment het enige is waarvan je proefondervindelijk vast kunt stellen dat het extreem veilig is: “We hebben in de praktijk gezien dat het proof-of-work-systeem werkt voor de grootschalige, gedecentraliseerde systemen van bitcoin en ethereum. Voor proof-of-stake is er nog niet zo’n praktisch bewijs en de variatie is enorm.”

Hij haalt de whitepaper van bitcoin aan. “Dit was gewoon een whitepaper op internet, waarvan er dagelijks talloze verschijnen. Academici houden dan in eerste instantie wat afstand, waardoor het pas later in de academische wereld wordt opgenomen. Er is zoveel dat niet peer reviewed is, je kunt niet alles constant bijhouden. Onderzoek doen kost tijd en je hebt er geld voor nodig. Dat duurt allemaal lang. Aan de andere kant is bitcoin nu al jaren in de echte wereld getest.”

De grote vraag is: zou je ook met een ander systeem tot een vergelijkbare veiligheid en onwrikbaarheid kunnen komen? Is er een systeem waar iedereen aan mee kan doen en waar je niemand voor hoeft te vertrouwen? Een systeem waar niemand op eigen houtje de regels van kan veranderen waardoor jouw geld of digitale eigendomscertificaat van een foto ineens weg is of onbereikbaar wordt? Is er iets anders dat we nu nog niet kunnen bedenken?

Misschien is dat laatste wel een proof-of-stake-variant. Dat betreft een groot experiment. “Proof-of-stake is in die zin een containerbegrip”, zegt Slagter. “Je kunt op heel veel manieren met proof-of-stake aan de slag. In de meeste gevallen betekent dit dat toch altijd ergens iets of iemand aan de touwtjes moet trekken. Iets zal ervoor moeten zorgen dat het systeem eerlijk blijft, want anders wint de groep met de grootste stake altijd. Of we zoiets kunnen bouwen? Dat moet nog blijken. Het grootste pos-experiment moet overigens nog beginnen en is al jaren in voorbereiding: de overstap van ethereum naar ethereum 2.”

Spooksteden met leegstaande huizen

Waarom is het dan nu nog niet duidelijk of proof-of-stake minstens net zo veilig kan zijn als proof-of-work? Dat komt doordat er nog geen enkel ander proof-of-stake-netwerk bestaat waar zoveel van afhangt als bij de proof-of-work-netwerken van bitcoin en ethereum.

Slagter: “Het is eigenlijk heel interessant dat ethereum is begonnen als proof-of-work-netwerk en als het goed is binnenkort overgaat naar proof-of-stake. Het had nooit zo’n mooie verdeling van de munten gehad als het als proof-of-stake was begonnen.”

Hij verwijst naar blockchains die andere consensusmechanismen dan proof-of-work gebruiken. “Al die grote blockchains, de cardano’s van deze wereld, zijn spooksteden met een half miljoen leegstaande huizen. Ze zijn helemaal nog niet blootgesteld aan de grote boze buitenwereld. Daarom denk ik dat ethereum 2 de eerste proof-of-stake-chain wordt die écht serieus op de proef gesteld gaat worden.”

En dat is volgens Slagter iets dat vaak vergeten wordt. “Je kunt van alles simuleren aan die netwerken, zoals hoe ze zouden werken, maar de proof-of-the-pudding is alleen mogelijk in een permissionless publieke situatie waarin iedereen jarenlang ongehinderd zijn gang kan gaan.”

Grossi onderschrijft dat met een verwijzing naar de bekende 51-procentsaanval die mogelijk zou zijn bij proof-of-work: “Het is wel gebeurd dat mining pools tijdelijk meer dan die 51 procent hadden, maar er gebeurde natuurlijk niets. Er zijn ook wel theoretische modellen die aangeven dat je het met minder zou kunnen bereiken, maar of die modellen echt werken weten we niet. Het is zo complex dat er meer onderzoek nodig is.”

Kort samengevat is het op dit moment als volgt: zowel bitcoin als ethereum gebruikt proof-of-work. Daardoor zijn beide heel veilig, met het verschil dat ethereum een virtuele machine in zich heeft, iets dat voor de werking van proof-of-work bij ethereum niet heel veel uitmaakt. Wel kijken de ontwikkelaars van beide netwerken heel verschillend naar de wereld, zeker als het om ideeën rond ‘bestuur’ of governance gaat.

Beide netwerken zijn decentraal en vertegenwoordigen een enorme waarde waar velen graag de hand op zouden willen leggen, dit in tegenstelling tot duizenden andere blockchain(achtige) projecten die eigenlijk niet veel anders zijn dan een soort spooksteden met heel veel huizen, maar zonder inwoners. Het grote proof-of-stake-experiment – althans, eentje waar een bepaalde visie achter schuilt – gaat hopelijk binnenkort beginnen met ethereum 2 of eth2 (zie uitleg proof-of-stake onderaan).

De overgang naar ethereum 2

De overgang van ethereum naar ethereum 2 of serenity staat al jaren in de steigers. Om een klein tipje van de sluier op te lichten, spreken we met Diederik Loerakker, onderzoeker bij de Ethereum Foundation, via Telegram-spraakchat. Het project is enorm complex en moet niet alleen voor de al vanaf het prille begin beloofde overstap naar proof-of-stake zorgen, maar ook voor een totaal nieuwe opzet van het hele ethereum-netwerk.

Vitalik Buterin, een van de oprichters van ethereum, schrijft al vroeg over proof-of-stake in Bitcoin Magazine waar hij sinds 2011 als redacteur en mede-oprichter aan verbonden is. Dan gaat het nog om de vraag wat er mogelijk is bovenop het bitcoinprotocol, zoals colored coins, en wat daar in zijn ogen aan schort.

In januari 2014, vlak na het uitkomen van de Ethereum Whitepaper en daags voor het aankondigen van een geldophaalronde voor het project, schrijft hij een groot artikel in Bitcoin Magazine, met de titel ‘Ethereum: a next-generation cryptocurrency and decentralized application platform’. Net als in de oudste versies van de Whitepaper drukt hij daar de wens uit om op zoek te gaan naar andere consensusprotocollen. Proof-of-stake ziet er in de ogen van de ontwikkelaars het meest veelbelovend uit, maar ethereum zal in eerste instantie een proof-of-work-systeem gebruiken waar minder makkelijk asics voor moeten zijn te bouwen dan voor bitcoin.

Redenen om over te gaan op proof-of-stake zijn in eerste instantie de verwachte betere veiligheid, het verlagen van de beloning van iemand die staked, en de mogelijkheden voor coördinatie of governance. In de oudste versies van de whitepaper staat al dat het gaat om een ‘mogelijke overgang naar een verbeterd ethereum-netwerk in een ethereum 2’.

De munteenheid ether van het netwerk kan tot nu toe oneindig worden bijgedrukt, waardoor de prijs in het begin stabieler zou moeten zijn dan die van munten met een eindige hoeveelheid, zoals bitcoin met 21 miljoen stuks. Door mensen hun ether te laten staken in plaats van miners te laten draaien waarbij energie moet worden betaald, gaat de beloning naar beneden. Daarom komt er minder ether in omloop en dit kan zelfs naar nul gaan. De verwachting van Slagter is dat het een factor 10 minder wordt. Dit betekent minder inflatie en een stabielere munt.

Ether zelf wordt dan een zogenaamde productive asset, ofwel iets met rendement, vergelijkbaar met aandelen, obligaties en vastgoed die respectievelijk dividend, rente en huurinkomsten opleveren. Dat maakt ethereum mogelijk interessanter voor traditionele beleggers.

Een ander belangrijk punt is dat er coördinatie nodig is voor sharding en dan is een proof-of-stake-systeem veel makkelijker voor je governance, iets dat heel lastig is bij een proof-of-work-systeem.

Je ziet: het is al lang de wens om over te gaan naar een ander consensusprotocol. Als dit allemaal lukt in een live-productieomgeving en jarenlang goed gaat, is dit zeer interessant.

Het is Diederiks eerste interview in lange tijd in het Nederlands. Hij formuleert behoedzaam en verontschuldigt zich af en toe voor het niet kunnen vinden van een Nederlands equivalent van een woord. Inmiddels woont hij al een kleine vier jaar niet meer in Nederland en voor de coronapandemie was hij een digital nomad.

De weg naar eth2 duurt al lang. Sommigen dachten dat van veel uitstel wel afstel zou komen, maar de overgang lijkt binnenkort echt plaats te vinden. De upgrade verloopt in drie fases. Inmiddels is fase 0 gepasseerd en zitten we in fase 1. “Fase 0 is inmiddels een oude term”, verbetert Diederik. “We gaan nu naar een execution en consensus layer. Dan praten we dus over eth1 en eth2. Dat laatste model staat los van eth1 en testen we nu al meer dan een jaar met proof-of-stake. Uiteindelijk moet eth1 worden samengevoegd met eth2 als eigen shard in het netwerk.”

Dat laatste, een shard, is van belang voor het oplossen van het zogenaamde data-availability-probleem waar elke blockchain mee kampt. “Data moet altijd beschikbaar zijn en nu moet je alles zelf downloaden om dat te verifiëren. Als je dat verticaal wil schalen, kom je op dingen als Binance Chain of Polygon. Ze vergroten de capaciteit, maar het wordt steeds moeilijker om alles in sync te houden.”

Sharding: synchroon en toegankelijk

Sharding, legt Diederik uit, is een manier om alle data gesynchroniseerd en altijd toegankelijk te houden zonder dat je het netwerk zelf hoeft te vertrouwen. “Met sharding kun je zo splitten dat je toch niet alles zelf hoeft te downloaden en te verifiëren, zolang de data parallel kan worden geverifieerd door een deel van het netwerk. Op die manier kun je horizontaal schalen.”

Data-toegankelijkheid in een blockchainnetwerk is van ultiem belang, omdat je niet kunt hebben dat de eindgebruiker ineens niet meer bij zijn eigen bezit kan komen. Om dit te kunnen voorzien, krijgt eth2 64 data-shards naast wat we kennen als de huidige eth1-blockchain.

Eth2 heeft een heel scala aan nieuwe onderdelen. Die onderdelen samen moeten zorgen voor een aantal zaken: data-availability, grotere snelheid van transacties en een proof-of-stake-model dat veilig én decentraal genoeg is.

Bron: website Vitalik Buterin

De grotere hoeveelheid data per seconde kunnen verwerken is van belang omdat ethereum zichzelf ziet als ‘wereldcomputer’ waar de smart contracts, of relatief simpele computerprogramma’s, rap uitgevoerd moeten kunnen worden in de Ethereum Virtual Machine of EVM. Die data, of eigenlijk de state van de data, moet snel kunnen worden verwerkt en weggeschreven. In het nieuwe proof-of-stake-model moet elke twaalf seconden een nieuw block kunnen worden gemaakt. Dat zou betekenen dat het netwerk van nu van gemiddeld 4KB per seconde naar 1,4MB per seconde gaat, met behulp van de in totaal 64 data-shards, iets dat in theorie kan worden uitgebreid.

Een onderdeel van de keten hebben we nog besproken, de beaconchain. “De beaconchain is een soort commandocentrum voor het nieuwe netwerk, waar als het ware de getuigschriften of attestaties van de shards op worden vastgelegd. Het is de systeem-chain die alle balansen, confirmaties van shard-data en finality bijhoudt. Finality is een extra ‘gadget’, een onderdeel van het protocol om iets permanent vast te leggen met voldoende attestaties. De transacties in het huidige eth1 krijgen eerst een plaats in deze beaconchain, totdat sharding volledig uitgerold is.”

Validators in commissies gehusseld

Nu hebben we het wel gehad over de dataverwerkingssnelheid, het wegschrijven van de data en hoe de systemen er min of meer uitzien, maar wie zorgt voor het maken van de blokken? Wat zorgt ervoor dat de eth2-blockchain wordt gevormd? Daar zorgen de zogenaamde validators voor. Die validators worden willekeurig of random gekozen, op dit moment met behulp van Randao. Elke validator moet 32 ether vastzetten in het systeem om mee te mogen doen. Dat is dus de stake die het je (tijdelijk) kost: deze 32 ether kun je niet gebruiken als ze vaststaan.

Je kunt inmiddels natuurlijk al heel veel ether hebben verzameld door te minen met het proof-of-worksysteem waar ethereum nu nog op draait. Zo zou je heel vaak 32 ether kunnen staken en zo alsnog een meerderheid in het netwerk kunnen krijgen? De rijksten in het netwerk krijgen immers het vaakst een blok toebedeeld.

“Nee, dat is niet zo”, zegt Diederik. “Er zijn nu al 200.000 validators en die worden verdeeld over de shards. Elke zes minuten worden ze door elkaar gehusseld en opnieuw verdeeld over 64 shards.”

Hij legt kort uit dat die validators in committees worden gesplitst. Die committees bestaan uit minstens 128 validators per stuk, met een theoretisch minimum van 111. Die validators dragen zowel bij aan de beaconchain als aan de shards.

Die 64 shards hebben allemaal een eigen consensus en er is geen ‘race tussen de security-modellen’ van die verschillende shards. De shards zijn gelijk, en security voor een shard hangt niet af van de ander. De validators worden elk zes minuten, een ‘epoch, in een committee gehouden. Daarna worden ze weer willekeurig door elkaar gehusseld. Op die manier moet het systeem zo decentraal mogelijk blijven.

“We zitten nu in fase 0 waarin we de committees al hebben, samen met een nieuwe networkstack om de informatie te verspreiden. Voor 64 shards zijn 64 committees nodig en 32 slots per epoch doen ieder een taak. Elke 12 seconden een slot, deel die 190.000 validators door 32. Dat is dus de hoeveelheid validators die elke 12 seconden een attestatie maken. Dat is veel, maar nog maar voldoende voor volledige capaciteit met 262.144 validators, ofwel 32 x 64 x 128.”

Er is één stap die we hebben overgeslagen: layer 2 die deze shard-data gebruikt. Een voorbeeld hiervan zijn optimistic rollups. “Met data-availability kun je een honest majority assumption omzetten in een honest minority assumption. Als je iets uitstelt of tijdelijk weglegt en zegt: goed, de data is te verkrijgen, dan kun je later met de data aantonen dat de verkeerde data zijn vastgelegd. Dit is het fundament voor optimistic rollups.”

Kort gezegd: een rollup neemt het executie-model weg en je hebt alleen die data-availability nodig. “Zolang iedereen toegang heeft tot die data, kun je layer 2-modellen maken die je vastlegt met de data die je veilig stelt met de layer 1-data.” Layer 1 is wat het protocol aanbiedt: data en executie, maar wel gelimiteerd en duur. Layer 2 maakt applicaties toegankelijk door dit te optimaliseren, maar toch voldoende te gebruiken om geen nieuwe security-aannames te maken. Een optimistic rollup optimaliseert via executie buiten het protocol, terwijl data met dezelfde security vaststaat voor het geval er twijfel bestaat over de resultaten.

Een veelzijdig blockchainsysteem

Het is niet mogelijk om alle onderdelen van het eth2-proces mee te nemen. Wel is duidelijk dat het om zeer complexe materie gaat en dat geeft meer risico op fouten. De fase-0-chain draait nu al een jaar en moet ‘super solid’ worden.

Daarna moet eth2 een blockchainsysteem zijn waar heel veel op kan en dat zeer veelzijdig is. Het is heel iets anders dan de bitcoinblockchain waarbij de relatief simpele opzet van het netwerk juist de grote kracht is. Dat daar bovenop heel wat te programmeren valt, doet hier niet aan af. De grote test voor ethereum komt dus als het goed is ergens in 2021 of 2022, en misschien nog wel later.

Op den duur zullen bepaalde protocollen van eth2 misschien weer moeten worden aangepast met behulp van soft forks om het geheel zo decentraal mogelijk te houden. De variatie voor proof-of-stake-gebaseerde systemen is dan ook heel veel groter dan voor proof-of-work. Dat is zowel een kracht als een gevaar.

Ondertussen hebben de meesten geen weet van de werking achter de schermen. Toch zou een beetje meer kennis bij beleids- en opiniemakers niet misstaan om zo door allerlei marketingtermen van blockchain(achtige) bedrijven heen te kunnen prikken. Gouden bergen worden beloofd en we weten allemaal hoe dat gaat; denk maar aan de eerste grote internetbubbel of de eerste grote ico-bubbel rond allerlei onzinmuntjes. Nu is iets vergelijkbaars aan de hand rond DeFi of decentralized finance.

Gelukkig bouwen velen voort op al die protocollen die onze decentrale digitale levensgemeenschap kunnen versterken en meer eigenheid kunnen geven. Minder kopiëren, meer zoals het echte leven. Creatieven binnen alle werkvelden, van IT-ers tot kunstschilders, werken vrolijk verder aan ons digitale ecosysteem. Steeds meer digitale kunst en andere vormen van unicititeit op internet vinden hun weg naar de ‘gewone’ mens. Het is bijna net zo uniek als een polaroidfoto.

Polaroid gemaakt met een Polaroid SX-70 Land Camera en het spel Mario Kart 8 en ge-nft’d

Wat is proof-of-stake eigenlijk?

Zonder centrale controle is het niet mogelijk nodes in een netwerk te controleren op hun kwaliteiten. Om toch zekerheid te krijgen over de juistheid van de opgeslagen informatie in zo’n systeem, is een ‘consensusmechanisme’ nodig. Dat mechanisme zorgt ervoor dat alle nodes in zo’n netwerk samen kunnen bepalen wat wel of niet waar is. Om te zorgen voor eerlijke nodes, moet het voor een node iets kosten als er wordt valsgespeeld.

Het consensusmodel van bitcoin gebruikt hiervoor energie. Om energie te verkrijgen, moet je moeite doen, vaak in de vorm van het betalen van geld. Betaal je niet, dan heb je geen energie en kun je niet meedoen in het netwerk om kans te maken op een klein beetje bitcoin. Dit systeem heet proof-of-work. Veel blockchainsystemen maken hiervan gebruik.

Proof-of-stake is een consensusmodel dat deelnemers vraagt om een deel van hun bezittingen te investeren in het netwerk. Dit betekent over het algemeen het vastzetten van een bepaald deel van het vermogen, zodat de node in kwestie kan worden gekozen om de volgende te zijn om een block in de blockchain te mogen maken. Met het maken van dat block wordt vervolgens een klein beetje verdiend.

In essentie betekent het: hoe groter je stake, hoe meer kans je hebt om een block te mogen toevoegen aan de blockchain in kwestie. Behalve het staken van het vermogen, hoef je niks te doen. Dit leidt in essentie tot het steeds rijker worden van de rijken. Ook zorgt het voor meer centralisatie van macht en de kans om als rijke node meer macht uit te oefenen op de regels in het netwerk.

Om dit tegen te gaan, zijn veel proof-of-stake-systemen voorzien van maatregelen om toch zo decentraal mogelijk te blijven opereren. Dit zorgt ervoor dat pos-systemen een stuk complexer zijn dan pow-systemen.

Eerder gepubliceerd op Tweakers.net