Prima di capirlo, dovremmo conoscere alcune parole sugli algoritmi di apprendimento automatico. Gli algoritmi di apprendimento automatico possono essere utilizzati in vari algoritmi di apprendimento, come l'apprendimento supervisionato, l'apprendimento non supervisionato o entrambi. Gli algoritmi di apprendimento supervisionato utilizzano dati etichettati per apprendere modelli e fare previsioni, mentre gli algoritmi di apprendimento non supervisionato identificano anomalie o cluster con i dati senza etichette preesistenti. È possibile addestrare più modelli contemporaneamente per acquisire diversi aspetti di attività sospette.

Binance Machine learning Engineers usa solitamente due tipi di pipeline: Batch e Streaming.

Batch: viene utilizzato per grandi volumi di dati

Streaming: dati medi in tempo reale mentre vengono raccolti. Ciò rende le situazioni che richiedono una risposta quasi istantanea, come il rilevamento di un hacker prima di prelevare fondi da qualsiasi account.

In alto entrambe le pipeline sono molto importanti. Batch è migliore per gestire grandi quantità di dati, mentre Streaming è migliore per fornire una risposta in tempo reale.

Supponiamo che si tratti di prevenzione delle frodi: è necessario dare priorità ai dati in tempo reale per evitare una situazione chiamata "obsolescenza del modello".

Impatto della stasi

Se le persone non rimangono aggiornate con le ultime informazioni o tecniche, anche i modelli di apprendimento automatico possono diventare meno accurati. In base a questa situazione, preferirei che tutti si mantenessero sempre aggiornati con informazioni o tecniche.

Modello di acquisizione dell'account (ATO).

ATO Model train per identificare gli account che l'utente illegittimo ha dirottato con un obiettivo malevolo. Quindi questo modello misura il numero di transazioni effettuate nell'ultimo minuto.

Gli hacker seguono questi passaggi.

1.     Modello sequenziale

2.     Elevato numero di operazioni (prelievi in ​​un breve lasso di tempo)

In questa condizione, Binance System calcola questa funzionalità il prima possibile in caso di potenziali minacce. Ciò significa ridurre al minimo i ritardi tra l'azione dell'utente e l'attività dell'utente, i dati vengono elaborati tramite questo modello.

Per ulteriori informazioni visita

https://engineering.linkedin.com/blog/2022/near-real-time-features-for-near-real-time-personalization

Ruolo di elaborazione batch:

L'importanza della stantietà delle funzionalità può dipendere dal modello. Alcune funzionalità, ad esempio, sono relativamente stabili. Nel caso ATO menzionato sopra, dovrebbe anche recuperare i dati sui prelievi dell'utente negli ultimi 30 giorni per calcolare un rapporto basato sulle sue transazioni più recenti.

In questa situazione, l'elaborazione in batch su periodi di tempo più lunghi, ad esempio intervalli giornalieri o orari, è accettabile nonostante la maggiore latenza derivante dall'attesa dell'arrivo dei dati nei data warehouse e dell'esecuzione periodica dei processi batch.

In questo articolo alcuni dati sono stati recuperati dal Blog di Binance, pertanto se vuoi saperne di più visita il Blog di Binance. #azuki #pepe #crypto2023 #DYOR