
Product
Rust Support Now in Beta
Socket's Rust support is moving to Beta: all users can scan Cargo projects and generate SBOMs, including Cargo.toml-only crates, with Rust-aware supply chain checks.
intelligenzaartificiale
Advanced tools
Intelligenza-Artificiale è l'unica libreria python MADE in ITALY che permette a qualsiasi persona di :
La libreria intelligenzaartificiale richiede PYTHON v3.6+
Per installare la libreria puoi usare il comando pip3 .
pip3 install intelligenzaartificiale
se invece utilizzi google colab...
!pip install intelligenzaartificiale
Al momento abbiamo deciso di partizionare la libreria in moduli, per rendere il codice il più portabile e leggero possibile.
Modulo | Import | Utilizzo |
---|---|---|
Dataset | from intelligenzaartificiale import dataset as dt | lettura e manipolazine set di dati ( .csv , .xlsx , .xls , .html , .json , sql ) |
BigDataset | from intelligenzaartificiale import bigdataset as bdt | lettura e manipolazine set di dati molto grandi compresi bigdata |
Statistica | from intelligenzaartificiale import statistica as st | analisi dati |
Preprocessing | from intelligenzaartificiale import preprocessing as pp | pulizia, manipolazione e preprocessing dei dati |
TextPreprocessing | from intelligenzaartificiale import textpreprocessing as tpp | pulizia, manipolazione e preprocessing per dati testuali |
Visualizzazione | from intelligenzaartificiale import visualizzazione as vz | creazione grafici e visualizzazione dati |
Machine Learning | from intelligenzaartificiale import machinelearning as ml | creazione di modelli di apprendimento automatico |
Deep Learning | from intelligenzaartificiale import depplearning as dl | creazione di reti neurali |
NLP | from intelligenzaartificiale import nlp | trattamento delle informazioni testuali |
Qui sotto troverai elencati tutti i metodi della libreria con degli esempi
Con questo modulo potrai leggere qualsiasi tipo di dataset Leggere un file .csv
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
Leggere file .csv enormi
from intelligenzaartificiale import bigdataset as bdt
il_mio_dataset = bdt.leggi_csv("Bigfile.csv")
#per convertire il file molto grande in un file leggibile anche con il modulo DATASET
bdt.salva_feather(il_mio_dataset,"nuovoFile")
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_feather("nuovoFile.feather")
Leggere un file excel
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_xls("file_name.xls")
Leggere un foglio specifico di un file excel
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_sheet("file_name.xls","nome_foglio")
Leggere un file html
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_html("file_name.html")
Leggere un file json
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_json("file_name.json")
Carica e lavora su oltre 750+ dataset già caricati
from intelligenzaartificiale import dataset as dt
#ritorna la lista dei nomi degli oltre 750 dataset disponibili
print(dt.lista_datasets())
#ritorna la documentazione del dataset scelto
print(dt.documentazione_dataset("iris"))
#ritorna il dataframe del dataset richiesto
il_mio_dataset= dt.importa_dataset("iris")
Ottenere informazioni di base sulle colonne
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(dt.lista_colonne(il_mio_dataset))
print(dt.tipo_colonne(il_mio_dataset))
Rimuovere una o più colonne
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
nuovo_dataset = dt.rimuovi_colonna(il_mio_dataset, "colonna_da_eliminare")
colonne_inutili = ["colonna3", "colonna12" , "colonna33"]
nuovo_dataset = dt.rimuovi_colonne(il_mio_dataset, colonne_inutili)
Separare i vari tipi di dato
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
valori_numerici = dt.numerici(il_mio_dataset)
valori_categorici = dt.categorici(il_mio_dataset)
valori_booleani = dt.booleani(il_mio_dataset)
Scarica degli esempi pratici
Con questo modulo potrai fare statistiche, report e analisi sui tuoi dati Valori Nulli o Corrotti
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(st.valori_nan(il_mio_dataset))
print(st.percentuale_nan(il_mio_dataset))
#nel modulo preprocessing vedremmo come eliminare o sostituire i valori null o corrotti
Statistiche di base
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#statistiche su tutto il dataset
print(st.statistiche(il_mio_dataset))
#statistiche su specifica colonna del dataset
print(st.statistiche_colonna(il_mio_dataset,"nome_colonna"))
#contare valori unici di una specifica colonna
print(st.conta_valori_unici(il_mio_dataset,"nome_colonna"))
Statistiche di base su colonna
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#media
print(st.media(il_mio_dataset,"nome_colonna"))
#varianza
print(st.varianza_colonna(il_mio_dataset,"nome_colonna"))
#quantili
print(st.quantile_25(il_mio_dataset,"nome_colonna"))
print(st.quantile_50(il_mio_dataset,"nome_colonna"))
print(st.quantile_75(il_mio_dataset,"nome_colonna"))
#min e max
print(st.min(il_mio_dataset,"nome_colonna"))
print(st.max(il_mio_dataset,"nome_colonna"))
Analizzare le correlazioni
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Correlazione tra i campi del dataset
print(st.correlazione(il_mio_dataset))
#correlazione tra una colonna target e un altra colonna
print(st.correlazione_radio(il_mio_dataset, "colonna" ,"target_colonna"))
#correlazione di Spearman tra una colonna target e un altra colonna
print(st.correlazione_spearman(il_mio_dataset, "colonna" ,"target_colonna"))
#correlazione di Pearson tra una colonna target e un altra colonna
print(st.correlazione_pearson(il_mio_dataset, "colonna" ,"target_colonna"))
#classifica correlazione tra una colonna target e un altra colonna
print(st.classifica_correlazione_colonna(il_mio_dataset, "target_colonna"))
Report Automatizzati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Scarica report html
st.report_dataset(il_mio_dataset)
#Salverà nella corrente un report html
#apri il tuo dataset sul web
st.apri_dataframe_nel_browser(il_mio_dataset)
#Ti consigliamo viviamente di provare questa funzione sul tuo set di dati
Scarica degli esempi pratici
Con questo modulo potrai pulire, manipolare, standardizzare e scalare i tuoi dati Gestire Nulli o Corrotti
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#rimuovere righe con valori nulli o corrotti
il_mio_dataset = pp.rimuovi_nan(il_mio_dataset)
#sostituire valori nulli o corrotti con il valore medio
il_mio_dataset["colonna"] = pp.sostituisci_nan_media(il_mio_dataset,"colonna")
#sostituire valori nulli o corrotti con il valore più frequente
il_mio_dataset["colonna"] = pp.sostituisci_nan_frequenti(il_mio_dataset,"colonna")
Gestire gli outliers
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Rimuovere i valori outlier
il_mio_dataset["colonna"] = pp.rimuovi_outliers(il_mio_dataset,"colonna")
#Rimuovere i valori outlier e valori nulli
il_mio_dataset["colonna"] = pp.rimuovi_outliers_nan(il_mio_dataset,"colonna")
Gestire variabili testuali e categoriche
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#effettuare il labelencoding
il_mio_dataset["nuova_colonna"] = pp.label_encoding(il_mio_dataset,"colonna")
#effettuare il labelencoding su più colonne
il_mio_dataset["nuova_colonna"] = pp.label_encoding_multiplo(il_mio_dataset,["colonna1", "colonna2"])
#effettuare il one hot encoding
il_mio_dataset["nuova_colonna"] = pp.onehot_encoding(il_mio_dataset,"colonna")
#per rimuovere la vecchia colonna
il_mio_dataset = dt.rimuovi_colonna(il_mio_dataset, "colonna")
Normalizzare i dati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#normalizza intero datatset
dataset_normalizzato = pp.normalizza(il_mio_dataset)
#normalizza una specifica colonna
il_mio_dataset["colonna"] = pp.normalizza_colonne(il_mio_dataset,"colonna")
#standardizza intero datatset
dataset_standardizzato = pp.standardizza(il_mio_dataset)
#standardizza una specifica colonna
il_mio_dataset["colonna"] = pp.standardizza_colonne(il_mio_dataset,"colonna")
# dividi i dati in test e train
X_train, X_test, y_train, y_test = pp.dividi_train_test(il_mio_dataset, "target", 0.25 )
Scarica degli esempi pratici
Con questo modulo potrai pulire, manipolare, standardizzare e scalare i tuoi dati Testuali Pulizia di Base
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#pulire l'intera colonna con una riga
il_mio_dataset["testo_email"] = tpp.pulisci_testo(il_mio_dataset,"testo_email")
#trasforma in minuscolo il tetso
il_mio_dataset["testo_email"] = tpp.trasforma_in_minuscolo(il_mio_dataset, "testo_email")
#rimuovi caratteri speciali e cifre !"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~0123456789
il_mio_dataset["colonna"] = tpp.rimuovi_caratteri_speciali_e_cifre(il_mio_dataset,"colonna")
#rimuovi caratteri speciali !"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~
il_mio_dataset["colonna"] = tpp.rimuovi_caratteri_speciali(il_mio_dataset,"colonna")
#rimuovi stopwords
il_mio_dataset["colonna"] = tpp.rimuovi_stopwords(il_mio_dataset,"colonna", "english")
Tokenizzazione e vettorizzazione del testo
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#vettorizzare il testo (tfidf)
il_mio_dataset["testo_vet"] = tpp.vettorizza_testo(il_mio_dataset,"testo_email")
#analisi componenti principali
il_mio_dataset["pca"] = tpp.componenti_principali(il_mio_dataset,"testo_vet")
#tokenizzare il testo
il_mio_dataset["testo_tok"] = tpp.tokenizza_testo(il_mio_dataset,"testo_email")
Altre funzioni
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
#Bag of words
il_mio_dataset["wordbags"] = tpp.bag_of_words(il_mio_dataset,"testo_email")
#genera grafico words cloud
crea_wordcloud(il_mio_dataset,"testo_email")
Scarica degli esempi pratici
Con questo modulo potrai visualizzare e creare grafici sui tuoi dati molto velocemente
Creare Grafici
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
# grafico singola colonna
vz.grafico_colonna(il_mio_dataset,"prezzo")
# grafico a punti di due colonne
vz.grafico_scatter(il_mio_dataset,"spesa","reddito")
# grafico a linee di due colonne
vz.grafico_line(il_mio_dataset,"spesa","reddito")
# grafico boxplot di due colonne
vz.grafico_boxplot(il_mio_dataset,"età","reddito")
# histogramma di due colonne
vz.grafico_hist(il_mio_dataset,"acquisti_prodotto_A","acquisti_prodotto_B")
Grafici Automattizati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
# creare grafici in modo automatico
st.report_dataset(il_mio_dataset)
#apri il tuo dataset sul web
st.apri_dataframe_nel_browser(il_mio_dataset)
Grafici 3d
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
# creare grafici tridimensionali
vz.grafico_3d(il_mio_dataset, "spesa", "sesso", "reddito")
Scarica degli esempi pratici
Con questo modulo potrai :
Scoprire l'algoritmo più performante
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
target_cla = "ha_acquistato?"
# scoprire algoritmo di regressione più performante
modello = ml.performance_modelli_regressione(il_mio_dataset, colonne_x, target_reg)
# scoprire algoritmo di classificazione più performante
modello = ml.performance_modelli_classificazione(il_mio_dataset, colonne_x, target_cla)
Creare il modelli di regressione [SEMPLICE]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
# dopo aver scoperto l'algoritmo più performante lo potrai implementare
# in una sola riga
modello1 = ml.regressione_lineare(il_mio_dataset, colonne_x, target_reg)
modello2 = ml.regressione_logistica(il_mio_dataset, colonne_x, target_reg)
modello3 = ml.regressione_SVR(il_mio_dataset, colonne_x, target_reg)
modello4 = ml.regressione_SVC(il_mio_dataset, colonne_x, target_reg)
modello5 = ml.regressione_random_forest(il_mio_dataset, colonne_x, target_reg)
modello6 = ml.regressione_gradient_boosting(il_mio_dataset, colonne_x, target_reg)
modello7 = ml.regressione_decision_tree(il_mio_dataset, colonne_x, target_reg)
modello8 = ml.regressione_knn(il_mio_dataset, colonne_x, target_reg)
modello9 = ml.modello_elastic_net(il_mio_dataset, colonne_x, target_reg)
modello10 = ml.modello_lasso(il_mio_dataset, colonne_x, target_reg)
modello11 = ml.modello_ridge(il_mio_dataset, colonne_x, target_reg)
Creare il modelli di classificazione [SEMPLICE]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_cla = "ha_acquistato?"
# dopo aver scoperto l'algoritmo più performante lo potrai implementare
# in una sola riga
modello1 = ml.classificatore_random_forest(il_mio_dataset, colonne_x, target_cla)
modello2 = ml.classificatore_gradient_boosting(il_mio_dataset, colonne_x, target_cla)
modello3 = ml.classificatore_decision_tree(il_mio_dataset, colonne_x, target_cla)
modello4 = ml.classificatore_knn(il_mio_dataset, colonne_x, target_cla)
modello5 = ml.classificatore_logistico(il_mio_dataset, colonne_x, target_cla)
modello6 = ml.classificatore_naivebayes(il_mio_dataset, colonne_x, target_cla)
modello7 = ml.classificatore_svm(il_mio_dataset, colonne_x, target_cla)
Valutare, Prevedere, Salvare e Caricare un modello
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
modello1 = ml.regressione_lineare(il_mio_dataset, colonne_x, target_reg)
# Valutare un modello
print(ml.valutazione_modello(modello1,il_mio_dataset, colonne_x, target_reg))
# Spiegare un modello
ml.spiega_modello(modello1,il_mio_dataset, colonne_x, target_reg)
# Previsione con un modello
nuovo_dataset = dt.leggi_csv("nuovo.csv")
previsioni = ml.predizione_y(modello1,nuovo_dataset)
# Salvare e Caricare un modello
ml.salva_modello(modello1,"nome_modello")
ml.carica_modello("nome_modello")
Creare modelli avanzati [AVANZATO]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_cla = "ha_acquistato?"
target_reg = "spesa_effettata"
##Tutti i Modelli Avanzati
model1 = ml.regressione_lineare_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, positive=False, random_state=None)
modello2 = regressione_logistica_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, class_weight=None, max_iter=100, multi_class='ovr', penalty='l2', random_state=None, solver='lbfgs', tol=0.0001, verbose=0, warm_start=False)
modello = ml.regressione_SVR_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, epsilon=0.1, gamma='auto', kernel='rbf', max_iter=-1, shrinking=True, tol=0.001, verbose=False)
modello = ml.regressione_SVC_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, cache_size=200, class_weight=None, coef0=0.0, decision_function_shape='ovr', degree=3, gamma='auto', kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False)
modello = ml.regressione_random_forest_avanzata(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_logistico_avanzato(df, lista_colonne_x, colonna_y, penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=None)
modello = ml.classificatore_naivebayes_avanzato(df, lista_colonne_x, colonna_y, priors=None)
modello = ml.classificatore_svm_avanzato(df, lista_colonne_x, colonna_y, C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None)
modello = ml.classificatore_random_forest_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_gradient_boosting_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_gradient_boosting_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_decision_tree_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_decision_tree_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_knn_avanzato(df, lista_colonne_x, colonna_y, n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=1, **kwargs)
modello = ml.classificatore_knn_avanzato(df, lista_colonne_x, colonna_y, n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=1, **kwargs)
modello = ml.modello_elastic_net_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, l1_ratio=0.5, fit_intercept=True, normalize=False, precompute='auto', max_iter=1000, copy_X=True, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
modello = ml.modello_ridge_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, fit_intercept=True, normalize=False, precompute='auto', copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
modello = ml.modello_lasso_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, fit_intercept=True, normalize=False, precompute='auto', copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
Scarica degli esempi pratici
© Copyright 2020-2022 Intelligenza Artificiale Italia
FAQs
Intelligenza Artificiale la libreria python italiana dedicata all'I.A.
We found that intelligenzaartificiale demonstrated a healthy version release cadence and project activity because the last version was released less than a year ago. It has 1 open source maintainer collaborating on the project.
Did you know?
Socket for GitHub automatically highlights issues in each pull request and monitors the health of all your open source dependencies. Discover the contents of your packages and block harmful activity before you install or update your dependencies.
Product
Socket's Rust support is moving to Beta: all users can scan Cargo projects and generate SBOMs, including Cargo.toml-only crates, with Rust-aware supply chain checks.
Product
Socket Fix 2.0 brings targeted CVE remediation, smarter upgrade planning, and broader ecosystem support to help developers get to zero alerts.
Security News
Socket CEO Feross Aboukhadijeh joins Risky Business Weekly to unpack recent npm phishing attacks, their limited impact, and the risks if attackers get smarter.