Annons

Datorhistorik är full av Flops.

De Apple III hade en otäck vana att laga sig själv i sitt deformerade skal. De Atari Jaguar, en "innovativ" spelkonsol som hade några falska påståenden om dess prestanda, bara inte kunde ta tag i marknaden. Intels flaggskepp Pentium-chip utformat för högpresterande redovisningsapplikationer hade svårighet med decimaltal.

Men den andra typen av flopp som råder i datorvärlden är FLOPS mätning, länge hyllas som en ganska rättvis jämförelse mellan olika maskiner, arkitekturer och system.

FLOPS är ett mått på flytande punktoperationer per sekund. Enkelt uttryckt är det hastighetsmätaren för ett datorsystem. Och det har varit växer exponentiellt i årtionden.

Så vad händer om jag sa till dig att om några år kommer du att ha ett system som sitter på ditt skrivbord, eller i din TV eller i din telefon, som skulle torka golvet i dagens superdatorer? Otrolig? Jag är en galning? Titta på historien innan du bedömer.

Asci_red _-_ tflop4m

Superdator till stormarknad

En ny Intel i7 Haswell Så vad är skillnaden mellan Intels Haswell- och Ivy Bridge-processorer?

instagram viewer
Letar du efter en ny dator? De som handlar efter en ny Intel-driven bärbar dator eller skrivbord behöver veta skillnaderna mellan den sista och den senaste generationen av Intel-processorer. Läs mer processor kan utföra ungefär 177 miljarder FLOPS (GFLOPS), som är snabbare än den snabbaste superdatorn i USA 1994, Sandia National Labs XP / s140 med 3 680 datorkärnor som arbetar tillsammans.

En PlayStation 4 kan fungera på cirka 1,8 biljoner FLOPS tack vare sin avancerade Cellmikroarkitektur, och skulle ha trumfat $ 55 miljoner ASCI Red superdatorn som toppade den världsomspännande superdatorligan 1998, nästan 15 år innan PS4 släpptes.

IBM: s Watson AI-system IBM avslöjar revolutionerande "Brain on a Chip"Tillkännagav förra veckan via en artikel i Science, "TrueNorth" är vad som kallas ett "neuromorfiskt chip" - en datorchip utformat för att imitera biologiska neuroner, för användning i intelligenta datorsystem som Watson. Läs mer har en (aktuell) toppdrift 80 TFLOPS, och det är ingenstans nära att låta den gå in i Topp 500-listan med dagens superdatorer, med Kinesiska Tianhe-2 rubrik topp 500 under de senaste tre tillfällena i rad, med en toppprestanda på 54,902 TFLOPS, eller nästan 55 Peta-FLOPS.

Den stora frågan är, var är nästa superdator för stationär storlek Den senaste datatekniken du måste se för att troKolla in några av de senaste datorteknologierna som är avsedda att omvandla världen inom elektronik och datorer under de närmaste åren. Läs mer kommer att komma från? Och ännu viktigare, när får vi det?

CPU_power_density

En annan tegel i kraftväggen

Under den senaste historien har drivkrafterna mellan dessa imponerande snabba vinster varit inom materialvetenskap och arkitekturdesign; Tillverkningsprocesser med mindre nanometerskala innebär att chips kan vara tunnare, snabbare och dumpa mindre energi ut i form av värme, vilket gör dem billigare att köra.

Med utvecklingen av multikärnarkitekturer under slutet av 2000-talet pressas nu många "processorer" på ett enda chip. Denna teknik, i kombination med den ökande mognaden för distribuerade beräkningssystem, där många "Datorer" kan fungera som en enda maskin, vilket innebär att Top 500 alltid har vuxit, bara om att behålla takt med Moores berömda lag.

Men fysiklagar börjar komma i vägen för all denna tillväxt, även Intel är orolig för det, och många över hela världen jakter på nästa sak.

... om ungefär tio år kommer vi att se Moore's Law kollaps. I själva verket ser vi redan en avmattning av Moore's Law. Datorkraft kan helt enkelt inte upprätthålla sin snabba exponentiella uppgång med standard kiselteknologi. - Dr. Michio Kaku – 2012

Det grundläggande problemet med aktuell processdesign är att transistorerna är antingen på (1) eller av (0). Varje gång a transistor grind "Vänder", det måste utvisa en viss mängd energi i materialet som grinden är gjord av för att få den "vändningen" att stanna. När dessa grindar blir mindre och mindre blir förhållandet mellan energin att använda transistorn och energi för att "vända" transistorn blir större och större, vilket skapar stor uppvärmning och tillförlitlighet problem. Nuvarande system närmar sig - och i vissa fall överskrider - kärnreaktorernas råa värmetäthet och material börjar misslyckas med sina designers. Detta kallas klassiskt "Power Wall".

Nyligen har vissa börjat tänka annorlunda om hur man gör användbara beräkningar. Särskilt två företag har fångat vår uppmärksamhet när det gäller avancerade former av kvant- och optisk datoranvändning. kanadensiska D-Wave-system och Storbritannien baserat Optalysys, som båda har extremt olika tillvägagångssätt för mycket olika problemuppsättningar.

9496546

Dags att byta musik

D-Wave fick mycket press på sistone, med sin superkylda, olycksbådande svarta låda med en extremt cyberpunk interiörspik, innehållande en gåtfull naken-chip med svårt att föreställa sig krafter.

I huvudsak tar D2-systemet ett helt annat tillvägagångssätt för problemlösning genom att effektivt slänga orsak-och-effekt-regelboken. Så vilken typ av problem syftar den här Google / NASA / Lockheed Martin-betemoten till?

travelling_salesman_problem

The Rambling Man

Historiskt, om du vill lösa en NP-hårt eller mellanliggande problem, där det finns ett extremt stort antal möjliga lösningar som har ett brett spektrum av potential, med "värden" fungerar den klassiska metoden helt enkelt inte. Ta till exempel Problemet med resande säljare; med tanke på N-städer, hitta den kortaste vägen att besöka alla städer en gång. Det är viktigt att notera att TSP är en viktig faktor på många områden som mikrochiptillverkning, logistik och till och med DNA-sekvensering,

Men alla dessa problem kokar ner till en till synes enkel process; Välj en punkt att börja med, generera en rutt runt N 'saker', mäta avståndet och om det finns en befintlig rutt som är kortare än den, kassera den försökte rutten och gå vidare till nästa tills det inte finns fler rutter till kontrollera.

Detta låter lätt, och för små värden är det; för 3 städer finns det 3 * 2 * 1 = 6 rutter att kontrollera, för 7 städer finns det 7 * 6 * 5 * 4 * 3 * 2 * 1 = 5040, vilket inte är så illa för en dator att hantera. Det här är en Fakultet sekvens, och kan uttryckas som "N!", så 5040 är 7 !.

När du går bara lite längre, till 10 städer att besöka, måste du dock testa över 3 miljoner rutter. När du kommer till 100 är antalet rutter du behöver kontrollera 9 följt av 157 siffror. Det enda sättet att titta på den här typen av funktioner är att använda en logaritmisk graf, där y-axeln börjar vid 1 (10 ^ 0), 10 (10 ^ 1), 100 (10 ^ 2), 1000 (10 ^ 3) ) och så vidare.

ladda ner

Siffrorna blir bara för stora för att kunna rimligt bearbeta alla maskiner som finns idag eller kan existera med klassiska datorarkitekturer. Men vad D-Wave gör är mycket annorlunda.

640 bildpunkter-DWave_128chip

Vesuv kommer fram

Vesuvius-chipet i D2 använder cirka 500 "kvantbitar‘Eller kvantbitar för att utföra dessa beräkningar med en metod som heter Kvantglödgning. I stället för att mäta varje rutt åt gången, ställs Vesuvius-kubitsna in i ett superpositionstillstånd (varken på eller av, fungerar tillsammans som ett slags potentiellt fält) och en serie alltmer komplexa algebraiska beskrivningar av lösningen (dvs en serie av Hamilton beskrivningar av lösningen, inte en lösning i sig) tillämpas på superpositionfältet.

I själva verket testar systemet lämpligheten för alla möjliga lösningar samtidigt, som en boll som "bestämmer" vilket sätt att gå nerför en kulle. När superpositionen är avslappnad i ett marktillstånd, bör detta tillstånd för qubits beskriva den optimala lösningen.

Många har ifrågasatt hur mycket av en fördel D-Wave-systemet ger över en konventionell dator. I ett senaste test av plattformen mot ett typiskt Travelling Saleman-problem, som tog 30 minuter för en klassisk dator, tog bara en halv sekund på Vesuv.

Men för att vara tydlig kommer detta aldrig att bli ett system du spelar Doom på. Vissa kommentatorer försöker jämföra detta mycket specialiserade system mot en generell processor. Du skulle vara bättre på att jämföra en Ohio-klass ubåt med F35 Lightning; alla mätvärden du väljer för den ena är så olämpliga för den andra att de är värdelösa.

D-Wave klockar in vid flera storleksordningar snabbare för sina specifika problem jämfört med en standardprocessor, och FLOPS uppskattningarna sträcker sig från en relativt imponerande 420 GFLOPS till en hisnande 1,5 Peta-FLOPS (Att sätta den i topp 10-datorlistan 2013 vid tidpunkten för den senaste offentliga prototypen). Om något, markerar denna skillnad början på slutet av FLOPS som en universell mätning när den tillämpas på specifika problemområden.

Detta datorområde syftar till en mycket specifik (och mycket intressant) uppsättning problem. Ett oroande är att ett av problemen inom denna sfär är kryptografi Så här krypterar du Gmail, Outlook och annan webbmailE-postkonton har nycklarna till din personliga information. Så här krypterar du Gmail, Outlook.com och andra e-postkonton. Läs mer - specifikt Public Key Cryptography.

Tack och lov verkar D-Waves implementering fokuserad på optimeringsalgoritmer och D-Wave fattade några designbeslut (som den hierarkiska peeringstrukturen på chipet) som ange att du inte kunde använda Vesuvius att lösa Shor's algoritm, vilket potentiellt skulle låsa upp Internet så dåligt det skulle göra Robert Redford stolt.

Lasermatematik

Det andra företaget på vår lista är Optalysys. Detta brittiska baserade företag tar datoranvändning och vänder på huvudet med hjälp av analog superposition av ljus för att utföra vissa beräkningsklasser med hjälp av ljusets natur. Nedanstående video visar en del av bakgrunden och grunden för Optalysys-systemet, presenterat av Prof. Heinz Wolff.

Det är lite vågigt, men i själva verket är det en låda som förhoppningsvis en dag kommer att sitta på ditt skrivbord och ge beräkningsstöd för simuleringar, CAD / CAM och medicinsk avbildning (och kanske, bara kanske, dator) spel). Liksom Vesuv är det inget sätt att Optalysys-lösningen kommer att utföra vanliga datoruppgifter, men det är inte det den är designad för.

Ett användbart sätt att tänka på denna typ av optisk bearbetning är att tänka på det som en fysisk grafikbearbetningsenhet (GPU). Modern GPU Lär känna din grafikaccelerator i otrolig detalj med GPU-Z [Windows]GPU, eller grafikbehandlingsenhet, är den del av din dator som ansvarar för hantering av grafik. Med andra ord, om spel är hackiga på din dator eller det inte klarar inställningar av mycket hög kvalitet, ... Läs mer Använder många strömningsprocessorer parallellt och utför samma beräkning på olika data som kommer in från olika minnesområden. Denna arkitektur kom som ett naturligt resultat av hur datorgrafiken genereras, men denna massivt parallella arkitektur har använts för allt från högfrekvent handel, till Artificiellt nervsystem.

Optalsys tar liknande principer och översätter dem till ett fysiskt medium; datapartitionering blir stråldelning, linjär algebra blir kvantinterferens, MapReduce-stilfunktioner blir optiska filtreringssystem. Och alla dessa funktioner fungerar i konstant, effektivt omedelbar tid.

Den initiala prototypenheten använder ett 20Hz 500 × 500 elementnät för att utföra snabba Fourier-transformationer (i princip "vilka frekvenser som visas i den här inmatningsströmmen?") och har levererat en underväxlande ekvivalent av 40 GFLOPS. Utvecklare riktar sig till ett 340 GFLOPS-system av nästa år, vilket med tanke på den uppskattade energiförbrukningen skulle vara en imponerande poäng.

Så var är min svarta låda?

De datorhistoria En kort historia av datorer som förändrade världenDu kan spendera år på att studera datorns historia. Det finns massor av uppfinningar, massor av böcker om dem - och det är innan du börjar komma in i fingerpekningen som oundvikligen inträffar när ... Läs mer visar oss att det som ursprungligen är reserven för forskningslabor och myndigheter snabbt tar sig in i konsumentvaror. Tyvärr har datorhistoriken inte behövt hantera begränsningarna i fysiklagarna än.

Personligen tror jag inte att D-Wave och Optalysys kommer att vara den exakta tekniken vi har på våra skrivbord om 5-10 år. Tänk på att det första igenkännliga "Smart klocka" avslöjades 2000 och misslyckades olyckligt; men kärnan i tekniken fortsätter idag. På samma sätt kommer dessa utforskningar till Quantum och Optical computing acceleratorer troligen att hamna som fotnoter i "nästa stora sak".

Materialvetenskap håller sig närmare biologiska datorer, med DNA-liknande strukturer för att utföra matematik. Nanoteknologi och "Programmerbart material" närmar sig punkten var snarare än att bearbeta "data", materialet i sig kommer både att innehålla, representera och bearbeta information.

Sammantaget är det en modig ny värld för en beräkningsforskare. Vart tror du att det här går? Låt oss chatta om det i kommentarerna!

Fotokrediter:KL Intel Pentium A80501 av Konstantin Lanzet, Asci red - tflop4m av USA: s regering - Sandia National Laboratories, DWave D2 av The Vancouver Sun, DWave 128chip av D-Wave Systems, Inc., Resande säljare Problem av Randall Munroe (XKCD)

På dagen är jag forskare vid University of Liverpool som undersöker förtroende och rykte inom marin kommunikation för autonoma system av system. På natten är jag grundande direktör för Farset Labs, Nordirlands första Hackerspace, samt konsulterar lokala regering, företag, akademi och den frivilliga sektorn för STEM Outreach, affärsinnovationsstrategi och kommunikation & Datasäkerhet.