🚧 La libreria è ancora in fase di SVILUPPO 🚧
Intelligenza Artificiale
La libreira python creata per neofiti e datascientist che semplifica l'analisi dati e lo sviluppo di modelli di apprendimento automatico e profondo.
Intelligenza-Artificiale è l'unica libreria python MADE in ITALY che permette a qualsiasi persona di :
- Leggere, Manipolare, Pulire dataset di ogni tipo
- Analizzare i dati per trasformarli in importanti informazioni
- Creare in meno di 5 righe di codice modelli di ML
- Sviluppare reti neurali
- & molto molto altro ancora
-
richiamando i metodi in italiano !
Installazione Libreria
La libreria intelligenzaartificiale richiede PYTHON v3.6+
Per installare la libreria puoi usare il comando pip3 .
pip3 install intelligenzaartificiale
se invece utilizzi google colab...
!pip install intelligenzaartificiale
Partizione Libreria
Al momento abbiamo deciso di partizionare la libreria in moduli, per rendere il codice il più portabile e leggero possibile.
Modulo | Import | Utilizzo |
---|
Dataset | from intelligenzaartificiale import dataset as dt | lettura e manipolazine set di dati ( .csv , .xlsx , .xls , .html , .json , sql ) |
BigDataset | from intelligenzaartificiale import bigdataset as bdt | lettura e manipolazine set di dati molto grandi compresi bigdata |
Statistica | from intelligenzaartificiale import statistica as st | analisi dati |
Preprocessing | from intelligenzaartificiale import preprocessing as pp | pulizia, manipolazione e preprocessing dei dati |
TextPreprocessing | from intelligenzaartificiale import textpreprocessing as tpp | pulizia, manipolazione e preprocessing per dati testuali |
Visualizzazione | from intelligenzaartificiale import visualizzazione as vz | creazione grafici e visualizzazione dati |
Machine Learning | from intelligenzaartificiale import machinelearning as ml | creazione di modelli di apprendimento automatico |
Deep Learning | from intelligenzaartificiale import depplearning as dl | creazione di reti neurali |
NLP | from intelligenzaartificiale import nlp | trattamento delle informazioni testuali |
| | |
Documentazione
Qui sotto troverai elencati tutti i metodi della libreria con degli esempi
Step 1 --- Modulo Dataset e BigDataset
Con questo modulo potrai leggere qualsiasi tipo di dataset
Leggere un file .csv
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
Leggere file .csv enormi
from intelligenzaartificiale import bigdataset as bdt
il_mio_dataset = bdt.leggi_csv("Bigfile.csv")
bdt.salva_feather(il_mio_dataset,"nuovoFile")
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_feather("nuovoFile.feather")
Leggere un file excel
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_xls("file_name.xls")
Leggere un foglio specifico di un file excel
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_sheet("file_name.xls","nome_foglio")
Leggere un file html
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_html("file_name.html")
Leggere un file json
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_json("file_name.json")
Carica e lavora su oltre 750+ dataset già caricati
from intelligenzaartificiale import dataset as dt
print(dt.lista_datasets())
print(dt.documentazione_dataset("iris"))
il_mio_dataset= dt.importa_dataset("iris")
Ottenere informazioni di base sulle colonne
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(dt.lista_colonne(il_mio_dataset))
print(dt.tipo_colonne(il_mio_dataset))
Rimuovere una o più colonne
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
nuovo_dataset = dt.rimuovi_colonna(il_mio_dataset, "colonna_da_eliminare")
colonne_inutili = ["colonna3", "colonna12" , "colonna33"]
nuovo_dataset = dt.rimuovi_colonne(il_mio_dataset, colonne_inutili)
Separare i vari tipi di dato
from intelligenzaartificiale import dataset as dt
il_mio_dataset = dt.leggi_csv("file_name.csv")
valori_numerici = dt.numerici(il_mio_dataset)
valori_categorici = dt.categorici(il_mio_dataset)
valori_booleani = dt.booleani(il_mio_dataset)
Scarica degli esempi pratici
Step 2 --- Modulo Statistica
Con questo modulo potrai fare statistiche, report e analisi sui tuoi dati
Valori Nulli o Corrotti
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(st.valori_nan(il_mio_dataset))
print(st.percentuale_nan(il_mio_dataset))
Statistiche di base
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(st.statistiche(il_mio_dataset))
print(st.statistiche_colonna(il_mio_dataset,"nome_colonna"))
print(st.conta_valori_unici(il_mio_dataset,"nome_colonna"))
Statistiche di base su colonna
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(st.media(il_mio_dataset,"nome_colonna"))
print(st.varianza_colonna(il_mio_dataset,"nome_colonna"))
print(st.quantile_25(il_mio_dataset,"nome_colonna"))
print(st.quantile_50(il_mio_dataset,"nome_colonna"))
print(st.quantile_75(il_mio_dataset,"nome_colonna"))
print(st.min(il_mio_dataset,"nome_colonna"))
print(st.max(il_mio_dataset,"nome_colonna"))
Analizzare le correlazioni
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
print(st.correlazione(il_mio_dataset))
print(st.correlazione_radio(il_mio_dataset, "colonna" ,"target_colonna"))
print(st.correlazione_spearman(il_mio_dataset, "colonna" ,"target_colonna"))
print(st.correlazione_pearson(il_mio_dataset, "colonna" ,"target_colonna"))
print(st.classifica_correlazione_colonna(il_mio_dataset, "target_colonna"))
Report Automatizzati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
il_mio_dataset = dt.leggi_csv("file_name.csv")
st.report_dataset(il_mio_dataset)
st.apri_dataframe_nel_browser(il_mio_dataset)
Scarica degli esempi pratici
Step 3 --- Modulo PreProcessing
Con questo modulo potrai pulire, manipolare, standardizzare e scalare i tuoi dati
Gestire Nulli o Corrotti
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
il_mio_dataset = pp.rimuovi_nan(il_mio_dataset)
il_mio_dataset["colonna"] = pp.sostituisci_nan_media(il_mio_dataset,"colonna")
il_mio_dataset["colonna"] = pp.sostituisci_nan_frequenti(il_mio_dataset,"colonna")
Gestire gli outliers
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
il_mio_dataset["colonna"] = pp.rimuovi_outliers(il_mio_dataset,"colonna")
il_mio_dataset["colonna"] = pp.rimuovi_outliers_nan(il_mio_dataset,"colonna")
Gestire variabili testuali e categoriche
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
il_mio_dataset["nuova_colonna"] = pp.label_encoding(il_mio_dataset,"colonna")
il_mio_dataset["nuova_colonna"] = pp.label_encoding_multiplo(il_mio_dataset,["colonna1", "colonna2"])
il_mio_dataset["nuova_colonna"] = pp.onehot_encoding(il_mio_dataset,"colonna")
il_mio_dataset = dt.rimuovi_colonna(il_mio_dataset, "colonna")
Normalizzare i dati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import preprocessing as pp
il_mio_dataset = dt.leggi_csv("file_name.csv")
dataset_normalizzato = pp.normalizza(il_mio_dataset)
il_mio_dataset["colonna"] = pp.normalizza_colonne(il_mio_dataset,"colonna")
dataset_standardizzato = pp.standardizza(il_mio_dataset)
il_mio_dataset["colonna"] = pp.standardizza_colonne(il_mio_dataset,"colonna")
X_train, X_test, y_train, y_test = pp.dividi_train_test(il_mio_dataset, "target", 0.25 )
Scarica degli esempi pratici
Step 3.1 --- Modulo Text-PreProcessing
Con questo modulo potrai pulire, manipolare, standardizzare e scalare i tuoi dati Testuali
Pulizia di Base
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
il_mio_dataset["testo_email"] = tpp.pulisci_testo(il_mio_dataset,"testo_email")
il_mio_dataset["testo_email"] = tpp.trasforma_in_minuscolo(il_mio_dataset, "testo_email")
il_mio_dataset["colonna"] = tpp.rimuovi_caratteri_speciali_e_cifre(il_mio_dataset,"colonna")
il_mio_dataset["colonna"] = tpp.rimuovi_caratteri_speciali(il_mio_dataset,"colonna")
il_mio_dataset["colonna"] = tpp.rimuovi_stopwords(il_mio_dataset,"colonna", "english")
Tokenizzazione e vettorizzazione del testo
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
il_mio_dataset["testo_vet"] = tpp.vettorizza_testo(il_mio_dataset,"testo_email")
il_mio_dataset["pca"] = tpp.componenti_principali(il_mio_dataset,"testo_vet")
il_mio_dataset["testo_tok"] = tpp.tokenizza_testo(il_mio_dataset,"testo_email")
Altre funzioni
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import textpreprocessing as tpp
il_mio_dataset = dt.leggi_csv("file_name.csv")
il_mio_dataset["wordbags"] = tpp.bag_of_words(il_mio_dataset,"testo_email")
crea_wordcloud(il_mio_dataset,"testo_email")
Scarica degli esempi pratici
Step 4 --- Modulo Visualizzazione
Con questo modulo potrai visualizzare e creare grafici sui tuoi dati molto velocemente
Creare Grafici
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
vz.grafico_colonna(il_mio_dataset,"prezzo")
vz.grafico_scatter(il_mio_dataset,"spesa","reddito")
vz.grafico_line(il_mio_dataset,"spesa","reddito")
vz.grafico_boxplot(il_mio_dataset,"età","reddito")
vz.grafico_hist(il_mio_dataset,"acquisti_prodotto_A","acquisti_prodotto_B")
Grafici Automattizati
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import statistica as st
st.report_dataset(il_mio_dataset)
st.apri_dataframe_nel_browser(il_mio_dataset)
Grafici 3d
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import visualizzazione as vz
il_mio_dataset = dt.leggi_csv("file_name.csv")
vz.grafico_3d(il_mio_dataset, "spesa", "sesso", "reddito")
Scarica degli esempi pratici
Step 5 --- Modulo Apprendimento Automatico
Con questo modulo potrai :
- Scoprire l'algoritmo più performante sui tuoi dati
- Implementare e allenare con una riga oltre 20 algoritmi
- Valutare, spiegare, salvare e caricare il tuo modello
- Fare previsioni su nuovi dati con il tuo modello
- & molto molto altro ancora
Scoprire l'algoritmo più performante
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
target_cla = "ha_acquistato?"
modello = ml.performance_modelli_regressione(il_mio_dataset, colonne_x, target_reg)
modello = ml.performance_modelli_classificazione(il_mio_dataset, colonne_x, target_cla)
Creare il modelli di regressione [SEMPLICE]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
modello1 = ml.regressione_lineare(il_mio_dataset, colonne_x, target_reg)
modello2 = ml.regressione_logistica(il_mio_dataset, colonne_x, target_reg)
modello3 = ml.regressione_SVR(il_mio_dataset, colonne_x, target_reg)
modello4 = ml.regressione_SVC(il_mio_dataset, colonne_x, target_reg)
modello5 = ml.regressione_random_forest(il_mio_dataset, colonne_x, target_reg)
modello6 = ml.regressione_gradient_boosting(il_mio_dataset, colonne_x, target_reg)
modello7 = ml.regressione_decision_tree(il_mio_dataset, colonne_x, target_reg)
modello8 = ml.regressione_knn(il_mio_dataset, colonne_x, target_reg)
modello9 = ml.modello_elastic_net(il_mio_dataset, colonne_x, target_reg)
modello10 = ml.modello_lasso(il_mio_dataset, colonne_x, target_reg)
modello11 = ml.modello_ridge(il_mio_dataset, colonne_x, target_reg)
Creare il modelli di classificazione [SEMPLICE]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_cla = "ha_acquistato?"
modello1 = ml.classificatore_random_forest(il_mio_dataset, colonne_x, target_cla)
modello2 = ml.classificatore_gradient_boosting(il_mio_dataset, colonne_x, target_cla)
modello3 = ml.classificatore_decision_tree(il_mio_dataset, colonne_x, target_cla)
modello4 = ml.classificatore_knn(il_mio_dataset, colonne_x, target_cla)
modello5 = ml.classificatore_logistico(il_mio_dataset, colonne_x, target_cla)
modello6 = ml.classificatore_naivebayes(il_mio_dataset, colonne_x, target_cla)
modello7 = ml.classificatore_svm(il_mio_dataset, colonne_x, target_cla)
Valutare, Prevedere, Salvare e Caricare un modello
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_reg = "spesa_effettata"
modello1 = ml.regressione_lineare(il_mio_dataset, colonne_x, target_reg)
print(ml.valutazione_modello(modello1,il_mio_dataset, colonne_x, target_reg))
ml.spiega_modello(modello1,il_mio_dataset, colonne_x, target_reg)
nuovo_dataset = dt.leggi_csv("nuovo.csv")
previsioni = ml.predizione_y(modello1,nuovo_dataset)
ml.salva_modello(modello1,"nome_modello")
ml.carica_modello("nome_modello")
Creare modelli avanzati [AVANZATO]
from intelligenzaartificiale import dataset as dt
from intelligenzaartificiale import machinelearning as ml
il_mio_dataset = dt.leggi_csv("file_name.csv")
colonne_x = ["età","sesso","reddito","sconto","data"]
target_cla = "ha_acquistato?"
target_reg = "spesa_effettata"
model1 = ml.regressione_lineare_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, positive=False, random_state=None)
modello2 = regressione_logistica_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, class_weight=None, max_iter=100, multi_class='ovr', penalty='l2', random_state=None, solver='lbfgs', tol=0.0001, verbose=0, warm_start=False)
modello = ml.regressione_SVR_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, epsilon=0.1, gamma='auto', kernel='rbf', max_iter=-1, shrinking=True, tol=0.001, verbose=False)
modello = ml.regressione_SVC_avanzata(df, lista_colonne_x, colonna_y, fit_intercept=True, normalize='deprecated', copy_X=True, n_jobs=None, C=1.0, cache_size=200, class_weight=None, coef0=0.0, decision_function_shape='ovr', degree=3, gamma='auto', kernel='rbf', max_iter=-1, probability=False, random_state=None, shrinking=True, tol=0.001, verbose=False)
modello = ml.regressione_random_forest_avanzata(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_logistico_avanzato(df, lista_colonne_x, colonna_y, penalty='l2', dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver='liblinear', max_iter=100, multi_class='ovr', verbose=0, warm_start=False, n_jobs=None)
modello = ml.classificatore_naivebayes_avanzato(df, lista_colonne_x, colonna_y, priors=None)
modello = ml.classificatore_svm_avanzato(df, lista_colonne_x, colonna_y, C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, tol=0.001, cache_size=200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape='ovr', random_state=None)
modello = ml.classificatore_random_forest_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_gradient_boosting_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_gradient_boosting_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_decision_tree_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.classificatore_decision_tree_avanzato(df, lista_colonne_x, colonna_y, n_estimators=10, criterion='mse', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False)
modello = ml.regressione_knn_avanzato(df, lista_colonne_x, colonna_y, n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=1, **kwargs)
modello = ml.classificatore_knn_avanzato(df, lista_colonne_x, colonna_y, n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=1, **kwargs)
modello = ml.modello_elastic_net_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, l1_ratio=0.5, fit_intercept=True, normalize=False, precompute='auto', max_iter=1000, copy_X=True, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
modello = ml.modello_ridge_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, fit_intercept=True, normalize=False, precompute='auto', copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
modello = ml.modello_lasso_avanzato(df, lista_colonne_x, colonna_y, alpha=1.0, fit_intercept=True, normalize=False, precompute='auto', copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection='cyclic')
Scarica degli esempi pratici
Step 6 --- Modulo Apprendimento Profondo
🚧 Questa parte della libreria è ancora in fase di SVILUPPO 🚧
Step7 --- Modulo NLP
🚧 Questa parte della libreria è ancora in fase di SVILUPPO 🚧
Licenza MIT
© Copyright 2020-2022 Intelligenza Artificiale Italia