De John P. Desmond, editor AI Trends
Legea lui Moore este departe de a fi moartă și, de fapt, intrăm într-o nouă eră a inovației, datorită unei combinații de cipuri specializate nou dezvoltate, combinate cu marșul AI și al învățării automate.
Aceste îmbunătățiri masive și fără precedent ale puterii de procesare, combinate cu datele și inteligența artificială, vor schimba complet modul în care gândim despre proiectarea hardware-ului, scrierea de software și aplicarea tehnologiei în afaceri”, sugerează un relat recent de la siliconAngle scris de Dave Vellante și David Floyer.
Vellante este co-CEO al SiliconAngle Media și un analist de lungă durată în industria tehnologiei. David Floyer a lucrat mai bine de 20 de ani la IBM și mai târziu la IDC, unde a lucrat la strategia IT.
Legea lui Moore, o predicție făcută de inginerul american Gordon Moore în 1965, a cerut un 40% îmbunătățirea performanței în procesarea centrală de la an la an, pe baza numărului de tranzistori per cip de siliciu care se dublează în fiecare an.
Cu toate acestea, explozia puterii alternative de procesare sub formă de noi sisteme pe cip (SoC) crește dramatic mai rapid, cu o rată de 100.% pe an, sugerează autorii. Folosind ca exemplu evoluțiile SoC de la Apple de la sistemul Bionic de cinci nanometri A9 la A14 pe un cip, autorii spun că îmbunătățirile din 2015 au fost într-un ritm mai mare de 118.% anual.
Acest lucru s-a tradus într-un nou AI puternic pe iPhone, care include recunoașterea facială, recunoașterea vorbirii, procesarea limbii, redarea videoclipurilor, și realitate augmentată.
Odată cu accelerarea puterii de procesare și scăderea costului cipurilor, blocajele care apar sunt în stocare și rețele ca procesare-autorii sugerează 99%—este împins la margine, de unde provin majoritatea datelor.
„Stocarea și rețelele vor deveni din ce în ce mai distribuite și descentralizate”, au declarat autorii, adăugând: „Cu siliciu personalizat și putere de procesare plasate în întregul sistem cu AI încorporat pentru a optimiza sarcinile de lucru pentru latență, performanță, lățime de bandă, securitate., și alte dimensiuni ale valorii.”
Aceste creșteri masive ale puterii de procesare și cipuri mai ieftine vor alimenta următorul val de inteligență artificială, inteligență automată, învățare automată, și învățare profundă. Și, în timp ce o mare parte din AI astăzi se concentrează pe construirea și antrenamentul modelelor, care se întâmplă mai ales în cloud, „Credem că inferența AI va aduce cele mai interesante inovații în următorii ani”.
Pentru a efectua inferențe, AI folosește un algoritm de învățare automată antrenat pentru a face predicții, iar prin procesare locală, antrenamentul său este aplicat pentru a face micro-ajustări în timp real. „Oportunitățile de inferență AI la margine și în „internetul lucrurilor” sunt enorme”, au declarat autorii.
Utilizarea inferenței AI va fi în creștere, deoarece este încorporată în mașinile autonome, care învață în timp ce conduc, fabrici inteligente, retail automatizat, roboți inteligenți, și producția de conținut. Între timp, aplicațiile AI bazate pe modelare, cum ar fi motoarele de detectare a fraudelor și de recomandare, vor rămâne importante, dar nu vor vedea aceleași rate de utilizare în creștere.
„Dacă ești o întreprindere, nu ar trebui să te stresezi cu privire la inventarea AI”, sugerează autorii. „Mai degrabă, concentrarea dvs. ar trebui să fie pe înțelegerea ce date vă oferă avantaj competitiv și cum să aplicați inteligența mașinilor și AI pentru a câștiga.”
Inovații hardware AI
Tendința procesoarelor AI mai puternice este bună pentru industria semiconductoarelor și a electronicii. Cinci inovații în hardware-ul AI indică tendința, potrivit unui raport recent în eletime.
AI în hardware cuantic. IBM are computerul cuantic Q conceput și construit pentru uz comercial, Google a urmărit cipuri cuantice cu Foxtail, Bristlecone, și proiecte Sycamore.
Circuite integrate specifice aplicației (ASIC) sunt concepute pentru o anumită utilizare, cum ar fi rularea analizei vocale sau mineritul bitcoin.
Matrice de porți programabile sunt circuite integrate pentru configurarea proiectării și nevoile clienților în procesul de fabricație. Funcționează ca un mecanism orientat pe câmp și se compară cu dispozitivele semiconductoare bazate pe o matrice configurabilă.
Chipsuri neuromorfe sunt concepute cu neuroni și sinapse artificiale care imită activitatea creierului uman și urmăresc să identifice cea mai scurtă cale de rezolvare a problemelor.
AI în cipurile Edge Computing sunt capabili să efectueze o analiză fără latență, o alegere preferată pentru aplicațiile în care lățimea de bandă a datelor este primordială, cum ar fi diagnosticarea scanării CT.
Compania de software AI a hotărât că AI își propune să deblocheze valoare
Companiile startup încorporează AI în software-ul lor pentru a-i ajuta pe clienți să deblocheze valoarea AI pentru propriile organizații.
Un exemplu este Determined AI, fondată în 2017 pentru a oferi o platformă de formare pentru învățare profundă, care să îi ajute pe oamenii de știință ai datelor să antreneze modele mai bune.
Înainte de a fonda Determined AI, CEO-ul și cofondatorul Evan Sparks a fost cercetător la AmpLab de la UC Berkeley, unde s-a concentrat pe sistemele distribuite pentru învățarea automată la scară largă, potrivit unui raport recent din ZDNet. A lucrat la Berkeley cu David Patterson, un informatician care susținea că siliciul personalizat este singura speranță pentru creșterea continuă a procesării computerizate, necesară pentru a ține pasul cu Legea lui Moore.
Determined AI a dezvoltat un strat de software, numit ONNX (Open Neural Network Exchange), care se află sub un instrument de dezvoltare AI, cum ar fi TensorFlow sau PyTorch, și deasupra unei game de cipuri AI pe care le acceptă. ONNX își are originea în Facebook, unde dezvoltatorii au căutat ca dezvoltatorii AI să facă cercetări în orice limbă au ales, dar să implementeze întotdeauna într-un cadru consistent.
„Există multe sisteme pentru a vă pregăti datele pentru antrenament, făcându-le structuri de date de înaltă performanță și compacte și așa mai departe”, a declarat Sparks. „Aceasta este o etapă diferită a procesului, un flux de lucru diferit față de experimentarea care duce la antrenamentul și dezvoltarea modelului.”
„Atâta timp cât obțineți datele în formatul potrivit în timp ce sunteți în dezvoltarea modelului, nu ar trebui să conteze ce sistem de date din amonte faceți”, a sugerat el. „În mod similar, atâta timp cât dezvoltați în aceste limbaje de nivel înalt, nu ar trebui să conteze pe ce hardware de antrenament rulați, fie că este vorba despre GPU-uri sau procesoare sau acceleratoare exotice.”
Acest lucru ar putea oferi, de asemenea, o cale către controlul costului dezvoltării AI. „Le-ai lăsat pe cei mari, pe Facebook și pe Google din lume să facă marele antrenament pe cantități uriașe de date cu miliarde de parametri, petrecând sute de ani GPU pentru o problemă”, a spus Sparks. „Atunci, în loc să începi de la zero, iei acele modele și poate le folosești pentru a forma înglobări pe care le veți folosi pentru sarcinile din aval. "
Acest lucru ar putea eficientiza unele aplicații de procesare a limbajului natural și recunoaștere a imaginilor, de exemplu.
Citiți articolele sursă din siliconAngle, În eletime și, în ZDNet.
- acceleratoare
- Cont
- Avantaj
- AI
- Algoritmul
- american
- analiză
- analist
- aplicatii
- în jurul
- bunuri
- inteligență artificială
- Augmented Reality
- Autorii
- Auto
- Automata
- autonom
- autoturisme autonome
- Berkeley
- Bitcoin
- Bitcoin miniere
- bord
- Clădire
- întreprinderi
- masini
- CEO
- Schimbare
- cip
- Chips
- Cloud
- co-fondator
- venire
- comercial
- Companii
- companie
- tehnica de calcul
- conţinut
- credit
- clienţii care
- de date
- mort
- descentralizată
- învățare profundă
- Amenajări
- Detectare
- AI determinată
- dezvolta
- Dezvoltatorii
- Dezvoltare
- Dispozitive
- Margine
- marginea de calcul
- Componente electronice
- inginer
- Afacere
- schimb
- se extinde
- recunoastere faciala
- Concentra
- formă
- format
- Cadru
- fraudă
- bine
- GPU
- unități de procesare grafică
- Creștere
- Piese metalice
- Înalt
- Cum
- Cum Pentru a
- HTTPS
- mare
- sute
- IBM
- IDC
- identifica
- imagine
- Recunoașterea imaginii
- industrie
- Inovaţie
- Inteligență
- IT
- limbă
- Limbă
- Drept
- conducere
- AFLAȚI
- învăţare
- local
- Lung
- masina de învățare
- Efectuarea
- de fabricaţie
- Martie
- Mass-media
- Minerit
- model
- modelare
- Limbajul natural
- Procesarea limbajului natural
- reţea
- rețele
- rețele
- neural
- rețele neuronale
- oferi
- deschide
- comandă
- Altele
- performanță
- platformă
- putere
- prezicere
- Predictii
- producere
- Proiecte
- pirtorh
- Cuantic
- gamă
- tarife
- Realitate
- Rapoarte
- cercetare
- cu amănuntul
- Traseul
- Alerga
- funcţionare
- scanare
- oamenii de stiinta
- semiconductor
- inteligent
- So
- Software
- Recunoaștere a vorbirii
- Cheltuire
- Sponsorizat
- Etapă
- depozitare
- Strategie
- stres
- Sprijină
- sistem
- sisteme
- tech
- industria tehnologiei
- Tehnologia
- tensorflow
- Sursa
- Gândire
- timp
- Pregătire
- Tendinţe
- valoare
- Voce
- Val
- Hartie alba
- OMS
- câştiga
- în
- flux de lucru
- fabrică
- lume
- scris
- an
- ani
- ZDNet