mattia2022 ha scritto:
Sicuramente è un sistema rudimentale da utilizzare, perchè non ti permette di lavorare per cose più serie che un copia e incolla.
Vero. Il massimo a cui posso pensare è un tool di scraping magari realizzato con Python o con qualche linguaggio di scripting che, oltre al recupero dei dati, possa fare anche una operazione di pulizia dei valori, ma di certo non è una passeggiata e richiede un approfondimento tecnico non indifferente.
mattia2022 ha scritto:
L'azienda proprietaria del sito da su richiesta, la possibilità di collegarsi tramite API al loro sito, ma ho timore che questo sistema venga a costare troppo se incarico qualcuno a collegare quel sito ad un'altro sito.
Per questo che cerco soluzioni meno impegnative, che mi permettono di velocizzare qualche processo.
Generalmente infatti, quando si raccolgono dati che possono avere una utilità per terzi, è prassi comune fornire una API per l'accesso a queste informazioni, ed è anche lecito che (dato il costo di architetture, risorse, supporto tecnico, ecc.) questi servizi vengano offerti dietro pagamento.
La questione è se quel pagamento supera il valore dell'eventuale automazione o tempo risparmiato nella copia e nella pulizia dei dati.
Non avendo una soluzione pronta, a meno che non si abbia l'esperienza per mettere in piedi una procedura "custom", da qualche parte un investimento economico e/o tecnico e/o di tempo andrà necessariamente fatto.
Ciao!