Ni donis terabajtojn da CI-protokoloj al LLM | Mewayz Blog Skip to main content
Hacker News

Ni donis terabajtojn da CI-protokoloj al LLM

Komentoj

12 min read Via www.mendral.com

Mewayz Team

Editorial Team

Hacker News

La Kaŝita Orminejo Sidanta en Via CI Dukto

Ĉiu inĝenieristikteamo generas ilin. Milionoj da linioj, ĉiutage - tempomarkoj, stakspuroj, dependecaj rezolucioj, testrezultoj, konstruaj artefaktoj kaj kriptaj erarmesaĝoj, kiuj preterpasas pli rapide ol iu ajn povas legi. CI-registroj estas la ellasaj vaporoj de moderna programaro, kaj por plej multaj organizoj, ili estas traktataj ekzakte kiel ellasilo: ellasitaj en stokadon kaj forgesitaj. Sed kio se tiuj protokoloj enhavus ŝablonojn, kiuj povus antaŭdiri fiaskojn antaŭ ol ili okazos, identigi proplempunktojn kostantajn vian teamon centojn da horoj po kvara, kaj malkaŝi sistemajn problemojn, kiujn neniu inĝeniero iam vidas? Ni decidis ekscii per nutrado de terabajtoj da CI-protokolo-datumoj en grandan lingvan modelon — kaj tio, kion ni malkovris, ŝanĝis kiel ni tute pensas pri DevOps.

Kial CI Registroj Estas la Plej Subuzitaj Datumoj en Programaro-Inĝenierado

Konsideru la grandan volumon. Mezgranda inĝenieristikteamo kuranta 200 konstruaĵojn tage tra pluraj deponejoj generas proksimume 2-4 GB da krudaj protokolaj datumoj ĉiutage. Pli ol unu jaro, tio estas pli ol terabajto da strukturita kaj duonstrukturita teksto, kiu kaptas ĉiun kompilon, ĉiun ekzekuton de testaro, ĉiun deplojan paŝon kaj ĉiun malsukcesan reĝimon, kiun via sistemo iam renkontis. Ĝi estas kompleta arkeologia registro de la produktiveco de via inĝenieristiko — kaj preskaŭ neniu legas ĝin.

La problemo ne estas, ke la datumoj mankas valoro. Estas ke la signalo-bruo-proporcio estas brutala. Tipa CI-kuro produktas milojn da linioj de eligo, kaj eble 3-5 el tiuj linioj enhavas ageblajn informojn. Inĝenieroj lernas skani por ruĝa teksto, grep por "FAILED", kaj pluiri. Sed la ŝablonoj, kiuj plej gravas - la malklara testo, kiu malsukcesas ĉiun mardon, la dependeco, kiu aldonas 40 sekundojn al ĉiu konstruo, la memorfluo, kiu nur aperas kiam tri specifaj servoj funkcias samtempe - tiuj ŝablonoj estas nevideblaj ĉe la individua protokolo. Ili aperas nur laŭskale.

Tradiciaj log-analizaj iloj kiel ELK-stakoj kaj Datadog povas kunigi metrikojn kaj surfacajn ŝlosilvortojn, sed ili luktas kun la semantika komplekseco de CI-eligo. Mesaĝo de malsukceso de konstruo, kiu legas "konekto rifuzita sur haveno 5432" kaj unu kiu legas "FATALA: pasvorta aŭtentigo malsukcesis por uzanto 'deploy'" estas ambaŭ datumbazaj fiaskoj, sed ili havas tute malsamajn radikkaŭzojn kaj solvojn. Kompreni tiun distingon postulas tian kontekstan rezonadon, kiun, ĝis antaŭ nelonge, nur homoj povis provizi.

La Eksperimento: Aligado de 3.2 Terabajtoj de Konstrua Historio al LLM

La aranĝo estis simpla en koncepto kaj koŝmaro en ekzekuto. Ni kolektis 14 monatojn da CI-programoj de platformo servanta pli ol 138,000 uzantojn — kovrante konstruaĵojn tra pluraj servoj, medioj kaj deplojceloj. La kruda datumaro atingis 3.2 terabajtojn: proksimume 847 milionoj da individuaj registrolinioj enhavantaj 1.6 milionojn da CI-duktokuroj. Ni distranĉis, enkonstruis kaj indeksis ĉi tiujn datumojn, poste konstruis rehavig-pliigitan generacion (RAG) dukto kiu povus respondi naturlingvajn demandojn pri nia konstruhistorio.

La unua defio estis antaŭprilaborado. CI-protokoloj ne estas pura teksto. Ili enhavas ANSI-kolorkodojn, progresbrikojn kiuj anstataŭigas sin, binarajn artefaktajn ĉeksumojn, kaj tempomarkojn en almenaŭ kvar malsamaj formatoj depende de kiu ilo generis ilin. Ni pasigis tri semajnojn nur por normaligo — nudigante bruon, normigante tempomarkojn kaj etikedante ĉiun protokolsegmenton kun metadatenoj pri kiu duktostadio, deponejo, branĉo, kaj medio ĝi apartenis.

La dua defio estis kosto. Ruli inferencon super terabajtoj da teksto ne estas malmultekosta, eĉ kun agresema rompado kaj retrova optimumigo. Ni bruligis signifajn komputajn kreditojn nur dum la unua monato, plejparte ĉar nia komenca aliro estis tro naiva — sendante tro da kunteksto per demando kaj ne sufiĉe elekteblaj pri kiuj protokolaj segmentoj estis signifaj. Antaŭ la fino de la dua monato, ni reduktis po-demandajn kostojn je 87% per pli bonaj enkonstruaj strategioj kaj duetapa rehaviga sistemo, kiu uzis pli malgrandan modelon por antaŭfiltri antaŭ sendi al la pli granda.

Kvin Ŝablonoj kiujn la LLM trovis, ke homoj neniam volus

En la unua semajno de pritraktadoj, la sistemo aperis komprenoj, kiujn homa analizisto bezonus monatojn por malkovri mane. Ĉi tiuj ne estis randaj kazoj aŭ kuriozaĵoj — ili estis ĉieaj problemoj sangantaj realajn inĝenierajn horojn.

  1. La fantoma dependeca kaskado. Unu ĝisdatigo de npm-pakaĵo 9 monatojn antaŭe enkondukis 22-sekundojn al ĉiu JavaScript-konstruaĵo. La prokrasto estis maskita ĉar ĝi koincidis kun CI-infrastrukturĝisdatigo kiu faris konstruojn pli rapidaj entute. Rete-retaj, konstruoj aperis pli rapide, sed ili povus esti 22 sekundoj pli rapidaj ankoraŭ. Tra pli ol 400 JS-konstruaĵoj ĉiutage, tio estis 2.4 horoj da malŝparita komputado ĉiutage.
  2. La horzona floko. Testa serio havis 4.7%-procenton de malsukceso — nur sufiĉe alta por esti ĝena, nur sufiĉe malalta ke neniu prioritatis ripari ĝin. La LLM identigis ke fiaskoj korelaciis preskaŭ perfekte kun konstruoj ekigitaj inter 23:00 kaj 01:00 UTC, kiam dat-kompara funkcio transiris tagan limon. Dulinia riparo tute forigis la flokon.
  3. La silenta malfunkciigo. Disvolviĝoj al surscenigo sukcesis 99.2% de la tempo, sed la LLM rimarkis, ke 31% de "sukcesaj" surscenigo deplojiĝas estis sekvitaj per alia deplojo de la sama servo ene de 45 minutoj - sugestante ke la unua deplojo estis funkcie rompita malgraŭ trapaso de ĉiuj kontroloj. Ĉi tio kondukis al malkovri ke integriga testo pasis pro kaŝmemoritaj respondoj de imita servo.
  4. La lundo matena proplemkolo. Konstruaj atendovictempoj pliiĝis 340% ĉiun lundon inter 9:00 kaj 10:30 a.m. laŭ loka tempo, ĉar programistoj kiuj laboris dum la semajnfino ĉiuj puŝis siajn ŝanĝojn antaŭ starigo. La riparo ne estis teknika — ĝi funkciis: ŝanceligi la skalo-horaron de CI-kuristo-naĝejo por antaŭvidi lundan pliiĝon.
  5. La kompililo kiun neniu starigis. 67% de C++-konstruaĵoj funkciis sen pliiga kompilo ebligita, aldonante averaĝe 3.8 minutojn per konstruo. La flago estis dokumentita en la enŝipiga gvidilo sed neniam estis aldonita al la komuna CI-agorda ŝablono.

"La plej multekostaj cimoj ne estas tiuj, kiuj frakasas vian aplikaĵon. Ili estas tiuj, kiuj trankvile ŝtelas 30 sekundojn de ĉiu konstruo, ĉiutage, dum jaroj — ĝis iu finfine demandas la ĝustan demandon pri la ĝusta datumaro."

Konstruado de Praktika CI-Inteligenta Tavolo

La eksperimento konvinkis nin, ke LLM-funkciigita protokolo-analizo ne estas novaĵo — ĝi estas vera funkcia kapablo. Sed fari ĝin praktika postulas pripenseman arkitekturon. Vi ne povas simple enmeti krudajn ŝtipojn en babilejan interfacon kaj atendi utilajn respondojn. La sistemo bezonas strukturon, kaj ĝi devas esti integrita en la laborfluojn, kiujn inĝenieroj jam uzas.

Ni decidis pri trinivela aliro. La unua nivelo estas aŭtomatigita triado: ĉiu malsukcesa konstruo aŭtomate estas klasifikita laŭ radika kaŭzo kategorio (infrastrukturo, dependeco, testa logiko, agordo aŭ floko) kun konfida poentaro. Ĉi tio sole reduktis la averaĝan tempon por ripari malsukcesojn je 34%, ĉar inĝenieroj ne plu devis pasigi 10 minutojn legante protokolojn nur por eltrovi kien komenci serĉi. La dua nivelo estas tendenco-detekto: semajna digesto, kiu montras emerĝajn ŝablonojn - pliiĝantajn malsukcesajn indicojn, kreskantajn konstrutempojn, novajn erarajn subskribojn - antaŭ ol ili fariĝos kritikaj. La tria nivelo estas interaga esploro: interfaco kie inĝenieroj povas demandi naturlingvajn demandojn pri konstruhistorio, kiel "Kial servo X malsukcesis pli ofte post la marta eldono?" aŭ "Kio estas la plej ofta kaŭzo de eraroj en la pagaĵo?"

Por teamoj plenumantaj kompleksajn operaciojn — precipe tiuj, kiuj administras multoblajn komercajn funkciojn kiel CRM, fakturadon, salajro-etaton kaj analizon per platformoj kiel Mewayz, kiu regas 207 integrajn modulojn - ĉi tiu speco de observebleco fariĝas eĉ pli kritika. Kiam unuopa disfaldiĝo samtempe tuŝas klientajn laborfluojn, fakturajn logikon kaj HR-sistemojn, kompreni la interdependecojn en via CI-dukto ne estas laŭvola. Ĝi estas esenca por konservi la fidindecon, de kiu dependas pli ol 138 000 uzantoj.

💡 DID YOU KNOW?

Mewayz replaces 8+ business tools in one platform

CRM · Invoicing · HR · Projects · Booking · eCommerce · POS · Analytics. Free forever plan available.

Start Free →

Kio Ne Funkcias (Ankoraŭ)

Honesteco gravas pli ol ekzaltiĝo. Estas klaraj limigoj al ĉi tiu aliro, kiujn ĉiu konsideranta ĝin devus kompreni. LLM-oj haluciniĝas, kaj kiam ili haluciniĝas pri CI-protokoloj, la rezultoj povas esti konvinke malĝustaj. Ni vidis la sistemon memfide atribui malsukceson de konstruo al dependeckonflikto kiu neniam ekzistis, kompleta kun fabrikitaj versinumeroj. La RAG-dukto reduktas ĉi tion signife, sed ĝi ne forigas ĝin. Ĉiu kompreno kiun la sistemo produktas ankoraŭ bezonas homan konfirmon antaŭ ago.

Skalo restas defio. Dum la rehavigsistemo povas trakti demandojn efike, la komenca indeksado kaj enkonstruado de novaj tagaloj estas komputile multekostaj. Ni traktas proksimume 800,000 novajn ŝtipliniojn ĉiutage, kaj konservi la indekson freŝa postulas dediĉitan infrastrukturon. Por pli malgrandaj teamoj, la kosto-profita kalkulo eble ne favoras ĉi tiun aliron - almenaŭ ankoraŭ ne. Ĉar modelkostoj daŭre malpliiĝas (ili malpliiĝis proksimume 90% en la pasintaj 18 monatoj por ekvivalenta kapableco), la ekonomio ŝanĝiĝos.

Estas ankaŭ la demando pri sekureco. CI-programoj povas enhavi sekretojn - API-ŝlosilojn, konektoŝnurojn, internajn URL-ojn - malgraŭ plej bonaj klopodoj froti ilin. Sendi ĉi tiujn datumojn al eksteraj LLM-APIoj enkondukas riskon. Ni mildigas ĉi tion per loka frota dukto kaj per konkludo sur memgastigitaj modeloj por sentemaj deponejoj, sed ĝi aldonas kompleksecon kaj koston. Teamoj zorge taksu sian minacmodelon antaŭ ol efektivigi ion similan.

Komenco Sen Terabajtoj

Vi ne bezonas amasan datumaron aŭ dediĉitan ML-inĝenieran teamon por komenci ĉerpi valoron el viaj CI-programoj. Jen pragmata deirpunkto, kiun ĉiu teamo kun kelkaj centoj da konstruoj semajne povas efektivigi:

  • Komencu per malsukcesa klasifiko. Eksportu viajn lastajn 90 tagojn da malsukcesaj konstruprotokoloj. Uzu ajnan LLM API por klasifiki ĉiun malsukceson en kategoriojn. Eĉ simpla taksonomio (infra vs. kodo vs. konfig vs. flake) provizas tujan valoron por prioritato.
  • Spuru konstrudaŭrotendencojn. Analizu tempomarkojn el viaj protokoloj por krei temposerion de konstrudaŭropo per duktofazo. Donu anomaliojn al LLM kun ĉirkaŭa protokolo-kunteksto kaj petu radikkaŭzajn hipotezojn.
  • Aŭtomatigu la "evidentajn" demandojn. Agordu post-malsukcesan hokon, kiu sendas la lastajn 500 liniojn de malsukcesa konstruo al LLM kun la prompto: "Resumu ĉi tiun CI-malsukceson en unu frazo kaj sugestu la plej verŝajnan solvon." Ĉi tio sole ŝparas 5-10 minutojn por fiasko por ĉiu inĝeniero en la teamo.
  • Konstruu serĉeblan arkivon. Uzu enkonstruaĵojn por fari vian protokolhistorion konsultebla per natura lingvo. Iloj kiel LangChain kaj LlamaIndex faras tion surprize alirebla, eĉ por teamoj sen ML-sperto.

La ŝlosilo estas komenci malgrande, validigi ke la komprenoj estas precizaj, kaj pligrandigi iom post iom. La ilara ekosistemo por ĉi tiu speco de analizo maturiĝas rapide, kaj kio bezonata laŭmenda infrastrukturo antaŭ unu jaro estas ĉiam pli havebla kiel nekomercaj komponantoj.

La Estonteco Estas Funkcia Inteligenteco

Kion ni vere parolas ne estas nur protokolo analizo — ĝi estas fundamenta ŝanĝo al operacia inteligenteco. La sama aliro, kiu funkcias por CI-registroj, validas por klientsubtenaj biletoj, vendaj dukto-datumoj, financaj transakcioj kaj funkciaj laborfluoj. La komuna fadeno estas, ke organizoj generas vastajn kvantojn da duonstrukturaj tekstaj datumoj, kiuj enhavas ageblajn ŝablonojn, kaj LLM-oj estas unike taŭgaj por trovi tiujn ŝablonojn.

Jen kial platformoj, kiuj centralizas komercajn operaciojn, havas strukturan avantaĝon. Kiam viaj CRM-datumoj, projekt-administrado, fakturado, HR-rekordoj kaj analizoj ĉiuj vivas en unu sistemo - kiel ili faras por teamoj uzantaj la integran modularkitekturon de Mewayz - la potencialo por transdomajna inteligenteco multiĝas. Ŝablono en viaj CI protokoloj povus korelacii kun kliento kliento. Piko en subtenaj biletoj povus antaŭdiri malsukceson de deplojo. Ĉi tiuj konektoj nur iĝas videblaj kiam la datumoj loĝas en konektitaj sistemoj prefere ol izolitaj siloj.

La teamoj kiuj prosperos en la venonta jardeko ne estas nepre tiuj kun la plej multaj inĝenieroj aŭ la plej grandaj buĝetoj. Ili estas tiuj, kiuj lernas aŭskulti siajn proprajn datumojn — inkluzive de la terabajtoj de ĝi, kiujn ili forĵetis. Viaj CI-protokoloj parolas. La demando estas ĉu vi estas preta aŭdi kion ili devas diri.

Oftaj Demandoj

Ĉu LLM-oj vere povas trovi utilajn ŝablonojn en CI-protokoloj?

Absolute. Grandaj lingvomodeloj elstaras je identigado de ripetiĝantaj ŝablonoj tra masiva nestrukturita teksto. Kiam ili estas direktitaj al terabajtoj de CI-programoj, ili povas surfaci malsukcesajn korelaciojn, malklarajn testsignatojn kaj dependeckonfliktojn, kiujn homaj inĝenieroj neniam kaptus permane. La ŝlosilo estas strukturi la konsuman dukton ĝuste tiel ke la modelo ricevas konvene disigitajn, kuntekste riĉajn logsegmentojn prefere ol kruda bruo.

Kiuj specoj de CI-malsukcesoj povas esti antaŭvideblaj per protokolo-analizo?

LLM-movita protokolo-analizo povas antaŭdiri infrastruktur-rilatajn tempodaŭrojn, ripetiĝantajn dependecajn rezoluciomalsukcesojn, memor-ligitajn konstrukraŝojn kaj malklarajn testojn ekigitajn de specifaj kodvojoj. Ĝi ankaŭ identigas malrapidajn rampajn regresojn kie konstrutempoj iom post iom pliiĝas dum semajnoj. Teamoj uzantaj ĉi tiun aliron kutime kaptas kaskadajn malsukcesajn ŝablonojn du ĝis tri spurtojn antaŭ ol ili fariĝas blokantaj okazaĵoj en produktaddeplojoj.

Kiom da CI-protokolo-datumoj vi bezonas antaŭ ol analizo fariĝas valora?

Sencaj ŝablonoj kutime aperas post analizo de 30 ĝis 90 tagoj da kontinua duktohistorio tra pluraj branĉoj. Pli malgrandaj datenoj donas surfacnivelajn komprenojn, sed la reala valoro venas de krucreferencado de miloj da konstrukuroj. Por teamoj administrantaj kompleksajn laborfluojn kune kun siaj CI-duktoj, platformoj kiel Mewayz ofertas 207 integrajn modulojn ekde $ 19/mo por centralizi operaciajn datumojn ĉe app.mewayz.com.

Ĉu nutri CI-programojn al LLM estas sekureca risko?

Ĝi povas esti se traktita senzorge. CI-registroj ofte enhavas mediovariablojn, API-ŝlosilojn, internajn URL-ojn kaj infrastrukturdetalojn. Antaŭ ol prilabori protokolojn per iu ajn LLM, vi devas efektivigi fortikajn redaktajn duktoj, kiuj forprenas sekretojn, akreditaĵojn kaj persone identigeblajn informojn. Memgastigitaj aŭ surlokaj modeldeplojoj signife reduktas malkovron kompare kun sendado de krudaj protokoloj al triaj nub-bazitaj inferencaj finpunktoj.

Try Mewayz Free

All-in-one platform for CRM, invoicing, projects, HR & more. No credit card required.

Start managing your business smarter today

Join 6,205+ businesses. Free forever plan · No credit card required.

Ready to put this into practice?

Join 6,205+ businesses using Mewayz. Free forever plan — no credit card required.

Start Free Trial →

Ready to take action?

Start your free Mewayz trial today

All-in-one business platform. No credit card required.

Start Free →

14-day free trial · No credit card · Cancel anytime