Hur hanterar den nuvarande öppna transformatorns obalans i träningen?

May 15, 2025Lämna ett meddelande

Dataobalans är en vanlig och utmanande fråga i utbildningen av nuvarande öppna transformatorer. Som leverantör av nuvarande öppna transformatorer har vi lång erfarenhet och i djup förståelse för hur man hanterar detta problem. I den här bloggen kommer vi att utforska de metoder och strategier som våra nuvarande öppna transformatorer använder för att hantera dataobalans under träning.

Förstå dataobalans i transformatorträning

Dataobalans hänvisar till en situation där distributionen av klasser i ett datasätt inte är enhetlig. I samband med nuvarande öppna transformatorer kan detta ske i olika applikationer, såsom feldetektering i elektriska system. Till exempel, i ett datasätt för att upptäcka elektriska fel, kan normala driftsförhållanden mycket överskrida onormala eller felaktiga förhållanden. Denna obalans kan leda till flera problem under träningen.

När en transformator tränas i ett obalanserat datasätt tenderar det att vara partisk mot majoritetsklassen. Modellen kan uppnå hög noggrannhet på majoritetsklassen men presterar dåligt på minoritetsklassen. I det elektriska feldetekteringsscenariot kan transformatorn vara mycket bra på att identifiera normala driftsförhållanden men misslyckas med att upptäcka sällsynta fel, som ofta är de mest kritiska att identifiera.

Provtagningstekniker

Ett av de vanligaste sätten att hantera dataobalans är genom provtagningstekniker. Det finns två huvudtyper av provtagning: översampling och undersampling.

Översampling

Översampling innebär att öka antalet prover i minoritetsklassen. Detta kan göras på flera sätt. En populär metod är syntetisk minoritet över - provtagningsteknik (SMOTE). Smote skapar syntetiska prover för minoritetsklassen genom att interpolera mellan befintliga minoritetsklassprover.

I våra nuvarande öppna transformatorer har vi implementerat en modifierad version av SMOTE. Vi analyserar egenskaperna hos minoritetsklass datapunkter och skapar syntetiska prover som är mer representativa för de verkliga världsscenarierna. Till exempel, när det gäller elektriska feldata, överväger vi de elektriska parametrarna och tidsseriens art av data när man genererar syntetiska prover. Detta hjälper transformatorn att bättre lära sig mönstren i minoritetsklassen och förbättra dess förmåga att upptäcka sällsynta fel.

CHK-F Rectangular Residual Current Transformer

[CTKD Current Open Transformer] (/Fire - Monitoring - Rest - Current - Transformer/CTKD - Current - Open - Transformer.html) gynnar avsevärt av denna översamplingsmetod. Genom att öka antalet minoritetsklassprover under träning kan transformatorn bättre fånga de unika funktionerna i minoritetsklassen, vilket kan leda till mer exakt feldetektering.

Undersampling

Undersampling minskar å andra sidan antalet prover i majoritetsklassen. Detta kan vara ett enkelt sätt att balansera datasättet, men det har också begränsningar eftersom det kan leda till förlust av värdefull information.

Vi använder en selektiv undersamplingsmetod i våra nuvarande öppna transformatorer. Istället för att slumpmässigt ta bort prover från majoritetsklassen identifierar och tar vi bort proverna som är mindre informativa eller överflödiga. Till exempel, i ett datasätt med ett stort antal normala driftstillståndsprover, kan vi ta bort proverna som har mycket liknande elektriska parametervärden. På detta sätt kan vi minska obalansen utan att offra för mycket information. [CHK - CTKD Open and Close Current Transformer] (/Fire - Monitoring - Rest - Current - Transformer/CHK - CTKD - Open - and - Close - Current - Transformer.HTML) använder denna undersamplingsstrategi under sin träningsprocess, vilket säkerställer att modellen kan fokusera på de mest relevanta uppgifterna och uppnå bättre prestanda.

Kostnad - Känsligt lärande

Ett annat tillvägagångssätt för att hantera obalans av data är kostnad - känslig inlärning. I traditionellt maskininlärning behandlas alla felklassificeringsfel lika. När det gäller datavalans är emellertid felklassificering av ett minoritetsklassprov ofta dyrare än felklassificering av ett majoritetsklassprov.

I våra nuvarande öppna transformatorer implementerar vi kostnader - känsligt lärande genom att tilldela olika kostnader till olika typer av felklassificering. I den elektriska feldetekteringsapplikationen kan till exempel felklassificering av ett felaktigt tillstånd som ett normalt tillstånd få allvarliga konsekvenser, såsom elektriska bränder eller skador på utrustning. Därför tilldelar vi en högre kostnad för denna typ av felklassificering.

Under träningsprocessen försöker transformatorn minimera den totala kostnaden för felklassificering. Detta uppmuntrar modellen att ägna mer uppmärksamhet åt minoritetsklassen och förbättra dess klassificeringsnoggrannhet för minoritetsklassen. [CHK - F rektangulär restströmtransformator] (/brand - övervakning - rest - ström - transformator/chk - f - rektangulär - rest - ström.html) är utformad med kostnad - känsliga inlärningsalgoritmer, vilket gör att den bättre kan hantera dataobalansen i feldetekteringsuppgifter.

11d93f141e51f400e6c95487fd1bb8b9

Ensemblemetoder

Ensemblemetoder kan också vara effektiva vid hantering av dataobalans. En ensemblemodell kombinerar flera basmodeller för att göra en slutlig förutsägelse. Genom att använda olika basmodeller tränade på olika delmängder av data kan ensemblemodellen fånga ett bredare utbud av mönster och förbättra den totala prestandan.

Vi använder bagging och ökningstekniker i våra nuvarande öppna transformatorer. Bagging innebär att träna flera basmodeller på olika delmängder av data, som slumpmässigt samplas med ersättning. Att öka å andra sidan utbildar basmodeller i följd, där varje ny modell fokuserar på proverna som var felklassificerade av de tidigare modellerna.

I samband med datavalans kan ensemblemetoder hjälpa transformatorn att bättre lära sig mönstren i minoritetsklassen. Till exempel, i en bagging -baserad ensemble, kan några av basmodellerna utbildas på delmängder av de data som har en relativt balanserad distribution av klasser, vilket gör att de kan lära sig funktionerna i minoritetsklassen mer effektivt.

Utvärderingsmetriker

När man hanterar dataobalans kan traditionella utvärderingsmetriker som noggrannhet inte vara lämplig. Noggrannhet mäter den totala andelen korrekt klassificerade prover, men det kan vara vilseledande i närvaro av datavalans. Till exempel, om ett datasätt har 95% majoritetsklassprover och 5% minoritetsklassprover, kommer en modell som alltid förutspår att majoritetsklassen kommer att uppnå 95% noggrannhet, även om den inte upptäcker minoritetsklassen alls.

Vi använder mer lämpliga utvärderingsmetriker som precision, återkallelse och F1 - poäng. Precision mäter andelen korrekt förutsagda positiva prover av alla förutsagda positiva prover. Återkallelse mäter andelen korrekt förutsagda positiva prover av alla faktiska positiva prover. F1 - poäng är det harmoniska medelvärdet av precision och återkallelse, vilket ger ett balanserat mått på modellens prestanda.

Genom att använda dessa utvärderingsmetriker under utbildningen och testningen av våra nuvarande öppna transformatorer kan vi bättre bedöma modellens förmåga att hantera dataobalans och göra nödvändiga justeringar för att förbättra dess prestanda.

Slutsats

Dataobalans är en betydande utmaning i utbildningen av nuvarande öppna transformatorer. Men genom användning av provtagningstekniker, kostnad - känslig inlärning, ensemblemetoder och lämpliga utvärderingsmetriker kan vi effektivt ta itu med denna fråga. Vår [CTKD Current Open Transformator] (/Fire - Monitoring - Rest - Current - Transformer/CTKD - Current - Open - Transformer.html), [CHK - CTKD Open and Stäng strömtransformator] (/Fire - Monitoring - Resterual - Curranter/CHK - CTKD - Open - och - Stäng - Transformator. - Övervakning - Återstående - Ström - Transformator/CHK - F - Rektangulär - Rest - Current.html) är utformade med dessa strategier i åtanke för att säkerställa hög prestanda i olika tillämpningar, särskilt vid upptäckt av sällsynta händelser såsom elektriska fel.

Om du är intresserad av våra nuvarande öppna transformatorer och vill diskutera upphandling, vänligen kontakta oss. Vi är redo att ge dig detaljerad produktinformation och lösningar anpassade efter dina specifika behov.

Referenser

  1. Chawla, NV, Bowyer, KW, Hall, Lo, & Kegelmeyer, WP (2002). Smote: Syntetisk minoritet över - provtagningsteknik. Journal of Artificial Intelligence Research, 16, 321 - 357.
  2. Elkan, C. (2001). Grunden för kostnad - känslig lärande. I IJCAI (vol. 1, s. 973 - 978).

Skicka förfrågan

whatsapp

Telefon

E-post

Förfrågning