Voit poimia kaikki objektimerkinnät API:n vastauksesta tekoälyn alalla – Google Vision API – Kehittynyt kuvien ymmärtäminen – Objektien havaitseminen, voit käyttää API:n tarjoamaa vastausmuotoa, joka sisältää luettelon havaituista objekteista ja niitä vastaavista. rajat ja luottamuspisteet. Jäsentämällä tätä vastausta voit poimia haluamasi objektimerkinnät.
API-vastaus koostuu tyypillisesti JSON-objektista, joka sisältää useita kenttiä, mukaan lukien "localizedObjectAnnotations"-kentän, joka sisältää havaitut objektit. Jokainen objektimerkintä sisältää tietoja, kuten kohteen nimen, sen rajoituslaatikon koordinaatit ja luotettavuuspisteet, jotka osoittavat API:n luotettavuuden havaitsemisessa.
Voit purkaa objektimerkinnät seuraavasti:
1. Jäsennä API-vastaus: Aloita jäsentämällä API:lta saatu JSON-vastaus. Tämä voidaan tehdä käyttämällä JSON-jäsennyskirjastoa tai ohjelmointikielesi tarjoamia sisäänrakennettuja toimintoja.
2. Siirry "localizedObjectAnnotations"-kenttään: Kun vastaus on jäsennetty, siirry "localizedObjectAnnotations"-kenttään, joka sisältää havaitut objektit. Tämä kenttä on tyypillisesti joukko objektimerkintöjä.
3. Iteroi objektimerkintöjen kautta: Toista jokaisen taulukon objektimerkinnän läpi. Jokainen huomautus edustaa kuvassa havaittua kohdetta.
4. Pura asiaankuuluvat tiedot: Pura kunkin objektin huomautuksesta olennaiset tiedot, kuten objektin nimi, rajauslaatikon koordinaatit ja luottamuspisteet. Nämä tiedot ovat käytettävissä erillisinä kenttinä kussakin objektimerkinnässä.
5. Tallenna tai käsittele poimittuja tietoja: Voit tarpeidesi mukaan tallentaa poimitut tiedot tietorakenteeseen tai käsitellä niitä edelleen analysointia tai muita tarkoituksia varten. Voit esimerkiksi haluta tallentaa objektien nimet ja niitä vastaavat rajoituslaatikon koordinaatit tietokantaan tai käyttää niitä lisäkuvan ymmärtämiseen.
Tässä on yksinkertaistettu esimerkki havainnollistamaan uuttamisprosessia:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"mid": "/m/01g317",
"nimi": "kissa",
"pisteet": 0.89271355,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.1234, "y": 0.5678},
{"x": 0.5678, "y": 0.1234}
] }
},
{
"mid": "/m/04rky",
"nimi": "koira",
"pisteet": 0.8132468,
"boundingPoly": {
"normalizedVertices": [
{"x": 0.4321, "y": 0.8765},
{"x": 0.8765, "y": 0.4321}
] }
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
Tässä esimerkissä oletamme JSON-vastauksen, joka sisältää kaksi havaittua kohdetta: kissan ja koiran. Koodi jäsentää vastauksen, käyttää "localizedObjectAnnotations" -kenttää, iteroi jokaisen objektimerkinnän läpi ja poimii objektin nimen, rajauslaatikon koordinaatit ja luottamuspisteet. Lopuksi poimitut tiedot tulostetaan, mutta voit muokata koodia tarpeidesi mukaan.
Seuraamalla näitä vaiheita voit tehokkaasti poimia kaikki objektimerkinnät API:n vastauksesta tekoälyn alalla – Google Vision API – Kehittynyt kuvien ymmärtäminen – Objektien havaitseminen.
Muita viimeaikaisia kysymyksiä ja vastauksia liittyen Edistynyt kuvien ymmärtäminen:
- Mitä ennalta määritettyjä luokkia on Google Vision API:n objektien tunnistukseen?
- Mikä on suositeltava tapa käyttää turvallisen haun tunnistusominaisuutta yhdessä muiden valvontatekniikoiden kanssa?
- Kuinka voimme käyttää ja näyttää kunkin luokan todennäköisyysarvot turvallisen haun merkinnässä?
- Kuinka saamme turvallisen haun merkinnän käyttämällä Pythonin Google Vision -sovellusliittymää?
- Mitkä viisi luokkaa sisältävät turvallisen haun tunnistusominaisuuden?
- Miten Google Vision -sovellusliittymän turvallinen hakuominaisuus havaitsee kuvista avoimen sisällön?
- Kuinka voimme visuaalisesti tunnistaa ja korostaa havaitut kohteet kuvassa käyttämällä tyynykirjastoa?
- Kuinka voimme järjestää poimitut objektitiedot taulukkomuotoon panda-tietokehyksen avulla?
- Mitä kirjastoja ja ohjelmointikieltä käytetään Google Vision API:n toimivuuden osoittamiseen?
- Miten Google Vision -sovellusliittymä suorittaa kohteiden havaitsemisen ja lokalisoinnin kuvissa?
Katso lisää kysymyksiä ja vastauksia osiossa Kehittynyt kuvien ymmärtäminen