AI: Server
Informazioni
Agent DVR si integra completamente con server AI come DeepStack AI, CodeProject AI, PlateRecognizer.com, Claude, Gemini, OpenAI (ChatGPT) e LLM locali come Ollama, vLLM e LM Studio per aggiungere filtraggio intelligente degli avvisi, riconoscimento degli oggetti, riconoscimento delle scene e controllo intelligente degli eventi.
Oltre a DeepStack e CodeProject AI, puoi utilizzare anche altri server AI che supportano la stessa API:
Riconoscimento degli Oggetti & Visione Artificiale
- https://codeproject.github.io/ - Server di elaborazione AI basato su GPU/CPU multipiattaforma
- https://docs.platerecognizer.com/ - Server di riconoscimento delle targhe (API basata sul web)
- https://github.com/runningman84/docker-coral-rest-server - Modelli Tensorflow-lite su un RPi (o Linux/Mac) con accelerazione da stick USB Coral
- https://github.com/robmarkcole/coral-pi-rest-server/ - Modelli Tensorflow-lite su un acceleratore USB Coral tramite un'app Flask
- https://github.com/xnorpx/blue-candle - Server di riconoscimento degli oggetti super piccolo
Servizi AI Cloud
- https://platform.openai.com/ - API OpenAI (ChatGPT, GPT-4 Vision) per analisi delle immagini e chat
- https://console.anthropic.com/ - API Anthropic Claude per ragionamento avanzato e comprensione delle immagini
- https://ai.google.dev/ - API Google Gemini per capacità AI multimodali
- https://docs.anthropic.com/ - Documentazione API Claude
- https://platform.openai.com/docs/ - Documentazione API OpenAI
- https://ai.google.dev/gemini-api/docs - Documentazione API Gemini
Server AI Locali (LLMs)
- https://ollama.com/ - Ollama: Esegui modelli di linguaggio di grandi dimensioni localmente
- https://docs.vllm.ai/ - vLLM: Inferenza e servizio LLM ad alta capacità
- https://lmstudio.ai/ - LM Studio: App desktop facile da usare per LLM locali
- https://github.com/ollama/ollama - Repository GitHub di Ollama
- https://github.com/vllm-project/vllm - Repository GitHub di vLLM
Configurazione dell'IA

Per configurare i server AI, fare clic sull'icona in alto a sinistra dell'interfaccia principale di Agent DVR. Quindi fare clic su Impostazioni sotto Configurazione, selezionare Server AI dal menu a discesa e fare clic su Configura.
Agent DVR si integra con CodeProject.AI per varie funzionalità di intelligenza artificiale, tra cui riconoscimento oggetti, riconoscimento facciale, ALPR (riconoscimento automatico delle targhe), e super risoluzione (miglioramento). PlateRecognizer.com è supportato anche come fornitore ALPR. CodeProject.AI è open source, gratuito e compatibile con la maggior parte delle piattaforme.
Per iniziare, installare un server AI per la propria piattaforma e collegare Agent DVR ad esso facendo clic sul pulsante Configura e poi su Aggiungi.
È possibile aggiungere quanti server AI si desidera ad Agent. Le telecamere in Agent possono essere configurate per utilizzare diversi server AI per ciascuna funzione, oppure è possibile utilizzare un unico server AI per tutte le attività.
Configurazione del Server
- Nome: Dare un nome al proprio server, ad esempio, Cattura Gatti.
- URL Server AI: Inserire l'URL del proprio server AI, ad esempio, http://localhost:32168/
- Chiave API: Inserire la propria chiave se configurata (opzionale).
- Timeout: Il timeout in secondi per le richieste al server.
- Ritardo di riprova: Il tempo in secondi prima di riprovare una richiesta fallita a questo server.
Fare clic su OK per salvare le impostazioni.
Utilizzando OpenAI
Per configurare OpenAI ("Chat GPT") per rispondere alle domande su ciò che sta accadendo nel tuo feed video, vai su Impostazioni Server - Server AI e seleziona "Open AI" sotto Chiedi ad AI.
- URL: Inserisci l'URL del servizio. Il valore predefinito è "https://api.openai.com/v1/chat/completions".
- Chiave API OpenAI: Dopo esserti registrato su OpenAI, vai alla Pagina Chiavi API e genera una nuova chiave segreta. Copia e incolla questa chiave nel campo specificato.
- Modello: Specifica il modello da utilizzare. Il valore predefinito è gpt-4o. OpenAI potrebbe rimuovere o modificare questo in un secondo momento.
- Token Massimi: Imposta l'uso massimo di token per richiesta. Se riscontri problemi, controlla i log su /logs.html poiché potrebbero essere legati all'uso dei token.
Una volta configurato OpenAI, consulta Chiedi ad AI per istruzioni su come utilizzarlo per rispondere a domande generali su ciò che sta accadendo nel feed della tua telecamera.
Utilizzando Claude
Per configurare Claude AI per rispondere alle domande su ciò che sta accadendo nel tuo feed video, vai su Impostazioni Server - Server AI e seleziona "Claude" sotto Chiedi ad AI.
- URL: Inserisci l'URL del servizio. Il valore predefinito è "https://api.anthropic.com/v1/messages".
- Chiave API di Claude: Dopo esserti registrato su Claude, visita la Pagina delle Chiavi API e crea una nuova chiave segreta. Copia e incolla questa chiave nel campo.
- Versione: Specifica la versione da utilizzare. Il valore predefinito è 2023-06-01. Questo potrebbe essere rimosso o modificato in futuro da Anthropic.
- Modello: Specifica il modello da utilizzare. Il valore predefinito al momento della scrittura è claude-3-sonnet-20240229.
- Token Massimi: Questo controlla la spesa massima di token per richiesta. Controlla i log su /logs.html se riscontri problemi poiché potrebbero essere legati alla spesa di token.
Una volta configurato Claude, consulta Chiedi ad AI per sapere come utilizzarlo per riconoscere scenari generali nel feed della tua telecamera.
Utilizzando Gemini
Per configurare Gemini per rispondere alle domande su cosa sta succedendo nel tuo feed video, vai su Impostazioni Server - Server AI e seleziona "Gemini" sotto Chiedi all'AI.
- URL: Inserisci l'URL del servizio. Il valore predefinito è "https://generativelanguage.googleapis.com".
- Chiave API Gemini: Dopo esserti registrato su Gemini, visita la Pagina delle Chiavi API e crea una nuova chiave segreta. Copia e incolla questa chiave nel campo.
- Versione: Specifica la versione da utilizzare. Il valore predefinito è v1beta. Questo potrebbe essere rimosso o modificato in futuro da Google.
- Modello: Specifica il modello da utilizzare. Il valore predefinito al momento della scrittura è gemini-1.5-flash.
- Token Massimi: Questo controlla la spesa massima di token per richiesta. Controlla i log su /logs.html se riscontri problemi poiché potrebbero essere legati alla spesa di token.
Una volta configurato Gemini, consulta Chiedi all'AI per sapere come utilizzarlo per riconoscere scenari generali nel feed della tua telecamera.
Utilizzare altri server LLM
Da v6.5.3.0+ puoi utilizzare i tuoi server LLM locali (come vLLM, Ollama e LM Studio) per descrivere le immagini catturate da Agent DVR dalle tue telecamere negli eventi di allerta e rispondere a domande su ciò che sta accadendo nei tuoi flussi video. Vedi AI Describe e Ask AI.
Per configurare un server AI locale, vai su Impostazioni del Server - Server AI e fai clic sul pulsante Configura accanto al LLM che desideri utilizzare (Ollama, vLLM o LM Studio).
- URL: Specifica l'endpoint in cui il tuo server LLM è in esecuzione. Gli URL predefiniti sono:
- Ollama:
http://localhost:11434/api/chat
- vLLM:
http://localhost:8000/v1/chat/completions
- LM Studio:
http://localhost:1234/v1/chat/completions
- Ollama:
- API Key: Se il tuo server LLM richiede autenticazione, inserisci qui la chiave API. La maggior parte dei server locali non richiede questo a meno che non sia specificamente configurato.
- Modello: Seleziona il modello capace di visione da utilizzare per l'analisi delle immagini. Devi aver già scaricato e caricato questo modello nel tuo server LLM. Le scelte popolari includono:
- Modelli LLaVA (visione a scopo generale)
- Qwen2-VL (alta prestazione)
- Llama 3.2 Vision (l'ultimo di Meta)
- Temperatura: Controlla la creatività rispetto all'accuratezza nelle risposte (0.0-1.0). Valori più bassi (0.3-0.4) producono descrizioni più fattuali e coerenti. Valori più alti (0.6-0.8) generano risposte più varie e creative. Raccomandato: 0.4 per l'analisi delle telecamere di sicurezza.
- Max Tokens: Numero massimo di parole/token nella risposta dell'AI. Valori più alti consentono descrizioni più dettagliate ma richiedono più tempo per essere generate. Raccomandato: 300-500 per analisi dettagliate delle immagini, 150-250 per descrizioni brevi.
- top_p: Controlla la diversità delle risposte limitando la selezione del vocabolario (0.0-1.0). Valori più bassi utilizzano parole più comuni, valori più alti consentono un vocabolario più vario. Raccomandato: 0.9 per un buon equilibrio tra accuratezza e linguaggio naturale.
- top_k: Limita il modello a scegliere tra le K parole più probabili successive. Valori più bassi (20-40) producono risposte più focalizzate, valori più alti (80-100) consentono maggiore varietà. Raccomandato: 50 per descrizioni affidabili delle immagini.
Utilizzando PlateRecognizer.com
Per configurare il riconoscimento della targa (ANPR o License Plate Recognition) in Agent DVR, vai su Impostazioni Server - Impostazioni AI e inserisci i dettagli sotto Plate Recognizer. Registrati per una prova gratuita su Plate Recognizer. Non è richiesta alcuna carta di credito.
- URL: Inserisci l'URL del servizio. Il valore predefinito è "https://api.platerecognizer.com/v1/plate-reader/", oppure utilizza il tuo server se stai ospitando la tua istanza.
- Token: Dopo esserti registrato su Plate Recognizer, visita la Pagina dell'Account e copia il Token API.
- Regioni: Lascia vuoto per il valore predefinito o inserisci un elenco CSV di regioni.
- Configurazione: Inserisci valori di configurazione aggiuntivi dalla documentazione se necessario.
Gestione dei Moduli AI

Nell'elenco dei server AI (sopra indicato), hai opzioni per configurare, testare, modificare e rimuovere i server AI. Clicca sul pulsante di configurazione per visualizzare i moduli disponibili o installati sul server selezionato.
Agent DVR recupera l'elenco dei moduli attuali dal tuo server e offre un'interfaccia utente per installare, disinstallare, configurare e testare ciascun modulo. Il supporto è fornito per tutti i moduli predefiniti di CodeProject.UI, anche se Agent DVR utilizza solo un sottoinsieme di questi.
Per utilizzare ALPR (Riconoscimento Automatico delle Targhe), Super Risoluzione o Riconoscimento Facciale in Agent DVR, dovrai installare il rispettivo modulo da questa pagina. Di solito, le impostazioni predefinite sono sufficienti per questi moduli, ma puoi configurarli cliccando sull'icona sotto ciascun modulo.