Op dit moment is Inaturalist al weer bezig met de zesde versie van het Computer Kijk (Computer Vision) Automatische beeldherkenning model
waarbij in September 2020 18 miljoen fotos apart gezet zijn waarme zo'n 35.000 soorten wereld wijd herkend kunnen worden.
De aanpak is het zelfde als voor model 5 alleen met veel meer fotos omdat er nu veel meer soorten in iNaturalist
2000 fotos heeft. In het verleden werden wel meer dan 2000 fotos per soort gebruikt maar de extra rekenkracht weegt niet op tegen het succes.
In totaal zal het doorrekenen van het model 210 dagen kosten en in het voorjaar van 2021 klaar zijn.
Naast het doorrekenen van hetzelfde model met meer fotos en meer soorten wordt tgelijkertijd het huidige systeem vergeleken
met "TensorFlow 2, Xception vs Inception" wat waarschijnlijk ditzelfde model niet in 210 dagen maar in 60 dagen doorrekend.
Als dit nieuwe TensorFlow 2, Xception vs Inception goed werkt dan wordt het zelfs nog winter 2021 een nieuwe model opgeleverd.
Om dit door rekenen was een nieuwe hardware besteld maar door COVID is dit nog niet geinstalleerd.
In het huidige model zijn 25.000 van de 300.000 soorten die waargenomen zijn in iNaturalist.
https://www.inaturalist.org/blog/42626-we-passed-300-000-species-observed-on-inaturalist#comments
Hoe wordt nu bepaald of een soort opgenomen wordt in het model ?
Als van een soort 100 waarnemingen met foto waarvan er minsten 50 een Research Grade community ID heeft wordt opgenomen in de training. (actually, that’s really verifiable + would-be-verifiable-if-not-captive, In het model worden ook ontsnapte en gekweekte soorten opgenomen). Voor de training wordt dus niet alleen en uitsluitend Research Grade fotos gebruikt.
Globaal waren de oude versies:
Waarneming.nl: Max 3 keer per jaar herziening van het model.
Globaal waren de oude versies:
Mar-Jul2020 Model 6, Tensor Flow2 25,000 taxa
Mar 2020 Model 6 March 2020 model did and it had ~21000 species and ~2500 genera.
https://www.inaturalist.org/blog/31806-a-new-vision-model
Mar-Jul 2021 Model 7, Tensor Flow2, 25,000 taxa +25.000 leaves , 21milj training photos , 1 NVIDIA RTX 8000 GPU, with hybrids (up from 38,000)
https://www.inaturalist.org/posts/54236-new-computer-vision-model
April 2022 Model 10.0
https://www.inaturalist.org/blog/63931-the-latest-computer-vision-model-updates
Aug 2022 Model 10.1 includes 60,000)
https://www.inaturalist.org/blog/69193-new-computer-vision-model
Sept 2022 Model 10.2 (+5000 species, includes 65,000 taxa (up from 60,000)
https://groups.google.com/forum/#!topic/inaturalist/K9nJOC0Cjss
The previous model (v1.2) was replacing a model (v1.1) trained on data exported in April so there was a 4 month interval between these data exports (interval between A and B .
https://static.inaturalist.org/wiki_page_attachments/2849-original.png
https://static.inaturalist.org/wiki_page_attachments/2847-original.png
Leaf model If it is difficult to understand the childs, leaves the AI/CV suggests the parent ??
Observation gebruikt maximaal 5000 photos per taxon.
BIj iNaturalist wordt een taxon gebruikt als er 100fotos van zijn
In deze groep zitten geidentificeerde met
Met deze groep fotos wordt tijdens de training de voortgang van de training bekeken, een Toets of Examen dat het trainingmodel moet afleggen. De eisen aan deze validatieset zijn hetzelfde als van de Training Set 1 maar het is maar 5% van het aantal fotos.
Met deze groep fotos wordt als de training is afgelopen gekeken of het model goed werkt. Het betreft uitsluitend
fotos met een Community taxon, dus fotos die waarschijnlijk wel goed moeten zijn omdat meerdere personen een determinatie toegeveogd hebben aan de waarneming.
Het bijzondere is dus dat aan de training ook minder zekere fotos mee mogen doen terwijl het testen tegen absoluut zekere waarnemingen gedaan wordt.
Zie ook https://forum.inaturalist.org/t/identification-quality-on-inaturalist/7507
Om te voorkomen dat er te veel soorten zijn waarvan er te weinig fotos zijn worden er niet te veel beperkingen aan de fotos gesteld. In de toekomst worden de eisen misschien strenger
Het computer is niet te downloaden maar misschien dat er later nog een API komt. Training your own with https://www.kaggle.com/c/inaturalist-challenge-at-fgvc-2017
Al hoewel het op iNaturalist neit vaak gezegd wordt is het Croppen van een foto een goede methode om betere resultaten te krijgen.
Het model neemt ook geografische data nog niet echt mee. In het verleden werden enorme aantallen Californische soorten voorgesteld maar in de loop van de modellen is dat wel afgenomen.
Best Photo First
Het is naast croppen erg verstandig om je beste foto het eerste neer te zetten omdat het model alleen de eerste foto van de waarneming gebruikt om een voorstel voor de soort te doen.
De locatie, nauwkeurigheid van een foto die je neemt buiten de iNat app om is meestasl minder nauwkeurig dan wanner je de interne app gebruikt van iNat. Ook kun je dan inzoomen met je vingers spread out, zodat je de crop functionaliteit niet hoeft te gebruiken. Het model gebruikt niet het tijd van het seizoen (eikels en kastanjes in de herfst, Trekvogels in voorjaar en herfst. Geen zomervogels als gierzwaluw in de winter en verspreidinggegevens van soorten.. ALpenroosjes worden niet tot de ALpen beperkt.
In 2017 the amount of recognised species was 20.000 and now it is still.....20.000?
https://www.inaturalist.org/pages/help#cv-taxa
FWIW, there's also discussion and some additional charts at https://forum.inaturalist.org/t/psst-new-vision-model-released/10854/11
https://forum.inaturalist.org/t/identification-quality-on-inaturalist/7507
https://www.pyimagesearch.com/2017/03/20/imagenet-vggnet-resnet-inception-xception-keras/
https://www.inaturalist.org/posts/31806-a-new-vision-model#activity_comment_5763380
Neural Networks (specifically, VGG16) pre-trained on the ImageNet dataset with Python and the Keras deep learning library.
The pre-trained networks inside of Keras are capable of recognizing 1,000 different object categories, similar to objects we encounter in our day-to-day lives with high accuracy.
Back then, the pre-trained ImageNet models were separate from the core Keras library, requiring us to clone a free-standing GitHub repo and then manually copy the code into our projects.
This solution worked well enough; however, since my original blog post was published, the pre-trained networks (VGG16, VGG19, ResNet50, Inception V3, and Xception) have been fully integrated into the Keras core (no need to clone down a separate repo anymore) — these implementations can be found inside the applications sub-module.
Because of this, I’ve decided to create a new, updated tutorial that demonstrates how to utilize these state-of-the-art networks in your own classification projects.
Specifically, we’ll create a special Python script that can load any of these networks using either a TensorFlow or Theano backend, and then classify your own custom input images.
To learn more about classifying images with VGGNet, ResNet, Inception, and Xception, just keep reading.
= = = = = = = = = = = = = = = = =
: https://www.youtube.com/watch?v=xfbabznYFV0
https://towardsdatascience.com/xception-from-scratch-using-tensorflow-even-better-than-inception-940fb231ced9
Xception: Implementing from scratch using Tensorflow
Even better than Inception
Convolutional Neural Networks (CNN) have come a long way, from the LeNet-style, AlexNet, VGG models, which used simple stacks of convolutional layers for feature extraction and max-pooling layers for spatial sub-sampling, stacked one after the other, to Inception and ResNet networks which use skip connections and multiple convolutional and max-pooling blocks in each layer. Since its introduction, one of the best networks in computer vision has been the Inception network. The Inception model uses a stack of modules, each module containing a bunch of feature extractors, which allow them to learn richer representations with fewer parameters.
Xception paper — https://arxiv.org/abs/1610.02357
= = = = = = = = = = = = = = = = = = = = =
https://towardsdatascience.com/review-xception-with-depthwise-separable-convolution-better-than-inception-v3-image-dc967dd42568
Inthis story, Xception [1] by Google, stands for Extreme version of Inception, is reviewed. With a modified depthwise separable convolution, it is even better than Inception-v3 2 for both ImageNet ILSVRC and JFT datasets. Though it is a 2017 CVPR paper which was just published last year, it’s already had more than 300 citations when I was writing this story. (Sik-Ho Tsang @ Medium)
= = = = = = = = = = = = = = = = = = = = = = = = = = = =
https://laptrinhx.com/xception-from-scratch-using-tensorflow-even-better-than-inception-212761016/
Convolutional Neural Networks (CNN) have come a long way, from the LeNet-style, AlexNet, VGG models, which used simple stacks of convolutional layers for feature extraction and max-pooling layers for spatial sub-sampling, stacked one after the other, to Inception and ResNet networks which use skip connections and multiple convolutional and max-pooling blocks in each layer. Since its introduction, one of the best networks in computer vision has been the Inception network. The Inception model uses a stack of modules, each module containing a bunch of feature extractors, which allow them to learn richer representations with fewer parameters.
Xception paper — https://arxiv.org/abs/1610.02357
Herkenning van Soorten met Model 5 (Voorjaar 2020) in iNaturalist (TensorFlow 2, (24))
: https://www.youtube.com/watch?v=xfbabznYFV0
In that context, how to interpret a badge on a family? Would it mean that the family itself is in the model as a leaf node (ie none of its children are in the model)? Or perhaps would it mean that the family has children that are represented in the model? What if some but not all children are in the model? What if not all children are known for a family, would it fair to say that it is represented in the model, even if all known children are in the model?
Definitely open to suggestions, but gist is that we wanted a label for species that are in/out of the model that's easy for all users to interpret in the context of "why am I getting suggestions for this species?" or more commonly "why is this stupid vision system not suggesting the obviously correct choice of X.
As for the cutoff date, I have a lot of updates to IDs planned on a genus where I am seeing 10-20% error rate in RG observations. I was hoping to get the identification updates in before the next model starts, but don't know if I will get to it. Probably depends on when in August you get started.
Off the top of my head, some things we’ve taken from previous iNaturalist and other vision challenges include label smoothing, the Xception architecture, changes to how we generate our data exports & minimum number of images for each class, etc. Sometimes however contest winners have done things that we probably won’t do, like training on validation/test data (seems risky for a production model but perhaps worth it to win a contest) or training on larger image sizes (our models already take a long time to train).
The GPU does the lion’s share of the work in computer vision training, and the GPU we used (an NVIDIA RTX 8000) cost more than the rest of the PC put together.
The cut-off for inclusion in the model hasn’t changed in the past few years: 100 observations, at least 50 research grade. See https://www.inaturalist.org/pages/help#cv-taxa 1
If enough photos are present at the genus level, but not enough photos for any of the descendent species, then the genus will be placed in the training set. We call this approach a “leaf model.” :fallen_leaf::robot:
More details are available in Ken-ichi’s TDWG keynote from last year:
https://www.youtube.com/watch?v=xfbabznYFV0 10
Yep, a single model. We’ve considered stacked and split models, but we haven’t seen evidence that they are any better than a single monolithic model, so we’ve stuck with the simple approach. Happy to be corrected if anyone’s seen or done research that points in another directio
18.24. Herkenning van Soorten met Model 7 (Juli 2021 ) in iNaturalist (TensorFlow 2)
https://forum.inaturalist.org/t/3rd-party-inaturalist-tools/25971/14
6 september Online-lezing door Inge Somhorst – Hoe en waarom
paddenstoelen karteren? (Paddenstoelen op de kaart)
https://us06web.zoom.us/j/83221802430
13 september Online-lezing door Gerard Koopmanschap – Heksenboleten en
andere roodporieboleten https://us06web.zoom.us/j/82967246808
https://www.njn.nl/symposium/
https://forum.inaturalist.org/t/3rd-party-inaturalist-tools/25971/14
https://www.fryslan.frl/_flysystem/assets/Soorten%20van%20Fries%20belang.pdf
6 september Online-lezing door Inge Somhorst – Hoe en waarom
paddenstoelen karteren? (Paddenstoelen op de kaart)
https://us06web.zoom.us/j/83221802430
13 september Online-lezing door Gerard Koopmanschap – Heksenboleten en
andere roodporieboleten https://us06web.zoom.us/j/82967246808
Overzicht van al gepresenteerde en toekomstige webinars. Opnames van gepresenteerde webinars zijn terug te kijken (onder voorbehoud) via een link naar het YouTube-kanaal van Stichting Menno van Coehoorn.
https://www.youtube.com/channel/UC9vnBwf0mLUpIbUdxp59pag
Datum | Tijdstip | Onderwerp | Spreker(s) | Link naar YouTube video |
---|---|---|---|---|
24-02-2021 | 19.30-21.00u | Koude oorlog, een beeld van de Civiele verdediging in Nederland | Raphaël Smid | Webinar terugkijken |
08-04-2021 | 19.30-21.00u | De opheffing en ontmanteling van de vestingstad Maastricht | Jos Notermans | Webinar terugkijken |
11-05-2021 | 19.30-21.00u | Vestingbouwkundige werken in Noorwegen | Martin Hendriks | Webinar terugkijken |
09-06-2021 | 19.30-21.00u | Conflictarcheologie van de Tweede Wereldoorlog | Nick Warmerdam, Martijn Reinders en Dwayne Beckers | Webinar terugkijken |
06-07-2021 | 19.30-21.00u | De Vesting Naarden | Jeroen van der Werff | Webinar terugkijken |
07-09-2021 | 19.30-21.00u | Nederlands vestingwerken in de 17e eeuw in Portugal | Edwin Paar | Nog niet gepubliceerd |
07-10-2021 | 19.30-21.00u | Het politieke en maatschappelijke verloop van de Koude Oorlog 1947-1991 | Cor Wagemakers | Nog niet gepubliceerd |
10-11-2021 | 19.30-21.00u | Verhaal over tactische inzet op verschillende linies kort voor WO2 | Joost Michels | Nog niet gepubliceerd |
08-12-2021 | 19.30-21.00u | Verhalen uit Maastricht in WO1 en het verloop van de Duitse doortocht bij gat van Visé | Jos Notermans | Nog niet gepubliceerd |
https://www.youtube.com/channel/UC9vnBwf0mLUpIbUdxp59pag
221-Nederlandse Vestingwerken in de 17 e eeuw in Portugal”, door Edwin Paar.
219-Wageningen Cast Soil or seed: which came first? | WURcast
https://www.vogelwarte.ch/assets/files/projekte/entwicklung/zustandsbericht%202021/Zustandsbericht%202021_en_low.pdf
https://forum.inaturalist.org/t/computer-vision-update-july-2021/24728
https://www.inaturalist.org/posts/59122-new-vision-model-training-started
Best een aardig verhaal
https://zenodo.org/record/7050651/files/Naturalis%20Biodiversity%20Center%20%282022%29.%20Eindrapportage%20project%20Automatische%20beeldherkenning%20voor%20museumcollecties.pdf?download=1
et model verboden toegang is, maar de fotos wer wel toegangkelijk. Scheelt in elk geval wel weer 2800 eiren rapen mocht je zelf een vogeleieren model willen maken :-)
Waaarom is er niet gewoon een BEWERK button ?
Mocht je te lui zijn om te lezen..bij dit verhaal hoef je alleen maar je oortjes open te doen en het is een nog veel innovatiever onderwerp
https://www.youtube.com/watch?v=FUfrRcTNOh0
Ik snap niet dat dit onderwerp nog maar 59 keer bekeken is..
TAISIG Talks: Dan Stowell on Birdsong representations with AI
https://www.youtube.com/watch?v=FUfrRcTNOh0
To facilitate collaboration among researchers from different AI related fields, in the TAISIG Talks series, Tilburg University brings together AI experts from various domains to discuss their most recent findings. Each TAISIG talk features three scientists with different backgrounds and at different stages in their careers.
https://zenodo.org/record/7050651#.Y2ZqenbMK72 Naturalis Biodiversity Center (2022). Eindrapportage project Automatische beeldherkenning voor museumcollecties
Omdat de beschikbare hoeveelheid trainingsdata
per klasse niet altijd vooraf bekend was, bleken
er na training van een model vaak scheve
verhoudingen in de hoeveelheden trainingsdata per
klasse te zijn. Sommige klassen hadden maar één
of twee afbeeldingen, anderen veel meer. Dit heeft
invloed op de werking van het model. Minimaal
twee afbeeldingen per klasse is een vereiste, maar
minimaal tien of vijftig (of zelfs meer) is meestal
beter voor de werking van het model. Om die reden
konden achteraf klassen uit het model vallen als er
onvoldoende afbeeldingen van die specifieke soort
of dat type object beschikbaar waren. Bij een model
dat werkt op minimaal tien afbeeldingen (examples)
per klasse gebeurt dat - logischerwijs - eerder dan
bij een minimum van twee afbeeldingen per klasse.
Extra trainingsdata genereren
In dit project hebben we gebruik gemaakt van al
beschikbare afbeeldingen van objecten uit de
collecties van de betrokken partners om modellen
te trainen. Ter aanvulling zijn ook specifiek voor
het project gedetermineerde specimens uit
verschillende collecties gedigitaliseerd. Daartoe
werden speciale instructies opgesteld voor
het digitaliseringsteam van Naturalis, om te
beantwoorden aan de specifieke toepassing in het
trainen van de herkenningsmodellen. Het voor het
project gegenereerde beeldmateriaal komt aan
de orde bij de ontwikkeling van de betreffende
modellen.
Comentarios
https://forum.inaturalist.org/t/computer-vision-update-july-2021/24728
https://forum.inaturalist.org/t/better-use-of-location-in-computer-vision-suggestions/915
https://forum.inaturalist.org/t/better-use-of-location-in-computer-vision-suggestions/915/47
Exploring the Limits of Large Scale Pre-training
https://arxiv.org/abs/2110.02095
Er is december 2021 een publicatie over het herkennen van kevers met foto's uitgekomen:
https://brill.com/view/journals/tve/aop/article-10.1163-22119434-bja10018/article-10.1163-22119434-bja10018.xml?rskey=hKOc5C&result=2&ebody=pdf-49903
Zie: https://forum.waarneming.nl/index.php?topic=489151 (vanwege de focus op kevers heb ik in het deelforum ook een topic gemaakt
Een generalisatie van mij:
Chrysomelidae, Bladhaantjes, worden matig herkend, maar wel snel bekeken en naar een beter taxon geleid.
Curculionidae, Snuitkevers, worden matig herkend, en het aantal goedkeuringen ligt een stuk lager. Frambozensnuittor is een voorbeeld van een soort die vaak wordt gesuggereerd.
Coccinellidae, Lieveheersbeestjes, worden goed herkend, en snel bekeken.
Carabidae, Loopkevers, worden redelijk herkend; de waarnemingen hebben baat bij meerdere foto's. Veel expertise over deze familie aanwezig.
Staphylinidae, Kortschildkevers, worden erg slecht herkend; Veel geslachten zijn echter goed herkenbaar, ook voor de leek. Die kan de soortherkenner in principe dus snel leren.
Elateridae, Kniptorren; determinatiekenmerken lijken voor een groot deel moeilijk te fotograferen.
Cerambycidae; Boktorren; zijn meestal redelijk te doen voor de soortherkenner.
Cantharidae, Weekschildkevers, gaan denk ik ook redelijk.
"Given that about half of the records in this data set were not validated even after several months, the need for more active validators is evident, especially for megadiverse and common taxa like Coleoptera."
Voor keverfamilies apart lij
==
Verspreidingsatlas van de Pissebedden ?
https://www.eis-nederland.nl/Portals/4/pdfs/Hemiptera/Bodemfauna.pdf
https://www.gelderland.nl/bestanden/Gelderland/Nieuws-en-evenementen/DOC_Blokkenschema_online_Gelderse_biodiversiteitsdag_2021.pdf
Obsidentify is mooi maar ik was nog meer onder de indruk van Google Lens voor herkennen van flora en fauna buiten Nederland. Vorig jaar in de Alpen werden vrijwel alle soorten feilloos herkent.
eel keversoorten hebben een veel kleinere kans te worden waargenomen dan andere.
Zeldzame soorten, maar ook kleine en onopvallende soorten worden door maar weinig waarnemers ingevoerd.
De steekproefgrootte (N<100) is wel klein, maar dat ze allemaal van een verschillende soort moesten zijn was wel een stevige beperking.
Het onderzoek heeft met de procentueel hoge vertegenwoordiging van boktorren en bladsprietkevers een best aardig deel van de (op het oog) gemakkelijkst herkenbare soorten.
Dat er juist een stinkende kortschild is opgenomen en dat de soortherkenner daarmee goed scoorde op kortschildkevers vind ik totaal niet representatief.
Maar goed, ieder mens en ieder onderzoek heeft een eigen karakter (net als iedere kever, al maak ik het zelden mee dat ze stinkende goedjes merkbaar inzetten).
https://forum.waarneming.nl/index.php/topic,489172.msg2498211.html#msg2498211
Er zijn wel tendensen en mogelijkheden om te komen tot meer validabiliteit; en er zijn natuurlijk keverkenners die daarin verder kunnen en willen gaan.
Veel algemeenheden over fotograferen doen er toe (resolutie, gebied waarop het scherpgesteld is, ...)
Maar ook de manier waarop de waarnemer kijkt, en zijn achtergrondkennis.
New computer vision model
In deze blogpost wordt gesproken over 25.000 van de 300.000 soorten die waargenomen zijn in iNaturalist. Het nu gereleasde model is minimaal twee modellen later: 25.000->55.000->60.000
We’ve released a new computer vision model for iNaturalist. This is our first model update since April 2022. The iNaturalist website, mobile apps, and API are all now using this new model. Here’s what’s new and different with this change:
It includes 60,000 taxa (up from 55,000)
It was trained using a different approach than our previous models, which made it much faster to train
To see if a particular species is included in this model, you can look at the “About” section of its taxon page.
It’s bigger
Our previous model included 55,000 taxa and 27 million training photos. The new model was trained on over 60,000 taxa and almost 30 million training photos.
https://www.inaturalist.org/blog/69193-new-computer-vision-model
Omdat de beschikbare hoeveelheid trainingsdata
per klasse niet altijd vooraf bekend was, bleken
er na training van een model vaak scheve
verhoudingen in de hoeveelheden trainingsdata per
klasse te zijn. Sommige klassen hadden maar één
of twee afbeeldingen, anderen veel meer. Dit heeft
invloed op de werking van het model. Minimaal
twee afbeeldingen per klasse is een vereiste, maar
minimaal tien of vijftig (of zelfs meer) is meestal
beter voor de werking van het model. Om die reden
konden achteraf klassen uit het model vallen als er
onvoldoende afbeeldingen van die specifieke soort
of dat type object beschikbaar waren. Bij een model
dat werkt op minimaal tien afbeeldingen (examples)
per klasse gebeurt dat - logischerwijs - eerder dan
bij een minimum van twee afbeeldingen per klasse.
Extra trainingsdata genereren
In dit project hebben we gebruik gemaakt van al
beschikbare afbeeldingen van objecten uit de
collecties van de betrokken partners om modellen
te trainen. Ter aanvulling zijn ook specifiek voor
het project gedetermineerde specimens uit
verschillende collecties gedigitaliseerd. Daartoe
werden speciale instructies opgesteld voor
het digitaliseringsteam van Naturalis, om te
beantwoorden aan de specifieke toepassing in het
trainen van de herkenningsmodellen. Het voor het
project gegenereerde beeldmateriaal komt aan
de orde bij de ontwikkeling van de betreffende
modellen.
Data opschonen en uniformeren
Doggerland, verdwenen wereld in de Noordzee
Lezing door Luc Amkreutz, conservator prehistorie van het Rijksmuseum van Oudheden en bijzonder hoogleraar Public Archaeology Universiteit Leiden
De lezing is op 8 november in de Open Hof, Sleutelbloemstraat 1, Assen en is vrij toegankelijk voor leden en niet-leden. Opgave vooraf is niet nodig. Koffie vanaf 19.00 uur, lezing om 19:30.
Dit is de link naar de livestream:
https://www.youtube.com/watch?v=SOpXeyX5xRc
Info over de lezing
Waar nu de Noordzee ligt, was er ooit land. Onze stranden liggen aan de rand van een enorm landschap dat de afgelopen miljoen jaar meestal droog lag en waar grote rivieren door stroomden: de Maas, de Rijn, de Thames. Doggerland, zo heet het gebied dat genoemd werd naar de Doggerbank, is een van Europa’s belangrijkste prehistorische vindplaatsen. Op sommige momenten was het meer dan 200.000 vierkante kilometer en er zijn sporen van een miljoen jaar menselijke bewoning te vinden. Op het strand en in vissersnetten vinden we de bewijzen daarvan terug.
Die menselijke aanwezigheid betreft allereerst vroege mensachtigen en Neanderthalers in een ijstijdlandschap. In het rijke dal van de Noordzee joegen ze op mammoeten, rendieren en paarden en vonden ze millennia lang een thuis in koude en warme perioden. Vuursteen, botmateriaal en het fossiel van de eerste Neanderthaler van Nederland vormen de bouwstenen voor hun verhaal. Een ander hoofdstuk wordt gevormd door het de moderne mens die na de laatste ijstijd en met name in het Holoceen dit gebied bewoont. Doggerland is dan een waterrijk en voedselrijk gebied, maar ook een landschap dat constant verandert en uiteindelijk verdrinkt.
In deze lezing neemt Luc Amkreutz u mee op een bijzondere tijdreis door een van de archeologisch meest interessante gebieden van Europa. Vele vondsten komen aan bod maar ook verschillende menssoorten, klimaatverandering en de rol van verzamelaars en burgerwetenschappers voor een onderwerp waar citizen science een belangrijke rol speelt.
Google provides three models that have been trained with iNaturalist data - classification models for plants, birds, and insects. These Google models can be downloaded and used with Google's TensorFlow and TensorFlow Lite tools.
https://techbrij.com/setup-tensorflow-jupyter-notebook-vscode-deep-learning
https://techbrij.com/setup-tensorflow-jupyter-notebook-vscode-deep-learninghttps://techbrij.com/setup-tensorflow-jupyter-notebook-vscode-deep-learning
Google provides three models that have been trained with iNaturalist data - classification models for plants, birds, and insects. These Google models can be downloaded and used with Google's TensorFlow and TensorFlow Lite tools.
https://techbrij.com/setup-tensorflow-jupyter-notebook-vscode-deep-learning
Publicado por optilete hace 9 meses
https://techbrij.com/setup-tensorflow-jupyter-notebook-vscode-deep-learninghttps://techbrij.com/setup-tensorflow-jupyter-notebook-vscode-deep-learning
Further Reading
The Recipe from PyTorch
A nice paper on tuning hyper-parameters. The same author also came up with cyclical learning rates.
Trivial Auto Augment
How label smoothing helps
CutMix, another clever augmentation strategy , which I did not try out.
Geo Prior Model that encodes location and time
How biologists think about classification ! This is a very good read.
It seems like someone has worked on that topic. Here is a paper from 2021 I found: https://arxiv.org/pdf/2103.08894.pdf Ik kan de 2 pdfs die Sluis noemde niet vinden..zoui het gedelete zijn door HIsko?
Bij 2 is er vanzelf invloed op door de locaties van de gevalideerde waarnemingen,
die worden dan in feite gebruikt als een extra stukje data. Is ook veel gedetailleerder, bij
voorbeeld planten die alleen langs de kust voorkomen, waarbij een vergelijkbare soort alleen in
het binnenland te vinden is. Dat red je niet met nafilteren, dan moeten veel te kleine gebieden
worden ingesteld. En bij 2 zou ook fenologie automatisch meegenomen kunnen worden, analoog aan hoe d
e locatie mee wordt genomen. Ik kan de tweede link die ik eerder stuurde van harte aanraden, daar wo
rdt het beter toegelicht dan ik hier in een kort bericht kan: https://arxiv.org/pdf/2203.03253v1.pdf.
Agregar un comentario