User Tools

Site Tools


projects:farmrobot:start

This is an old revision of the document!


Farmrobot

Meetings

Donnerstags, 16:00: IP_Farmrobot

DevOps

Protokolle

www.hochschule-rhein-waal.de_sites_default_files_images_2020_10_09_bild_cross_innovation_lab_niederrhein_erste-aktive_phase.jpg

1. Produktbeschreibung

Video of Ahmed's first robot test. For now I (RB) uploaded the video to my
personal channel but later it should be moved to another channel dedicted
to the Fablab or the student project.
  • video
  • Foto1
  • Foto1
  • Foto3

2. Technische Spezifikationen

Version Prototyp 2, Spitzname - v0.2.20201125
Fortschritt Prototyp
Version Date November 2020
Terms of Use GPL / CC-BY-SA
Zusammenfassung Ein Open-Source-Roboters zur Unkrautbekämpfung im Acker- und Gemüsebau, ebenso, wie für den Einsatz auf Wiesen im Naturschutzgebiet
Schlüsselwörter
Beschreibung Der Farmroboter ist ein Mini-Traktor der gezielt Unkraut vernichten kann. Er verfügt er über einen Roboterarm mit dem er Pestizide direkt auf die unerwünschten Pflanzen aufbringen kann. Er kann sowohl manuell gesteuert werden als auch autonom einer pgrammierten GPS-Route folgen. Über eine Kamera und ein Bilderkennungssystem kann er Pflanzen erkennen die unter Ihm liegen und automatisch die Sprühvorrichtung steuern.
Vorgänger Versions 0.1
Leistung 700W
Gewicht
Dateien Realtime gcode https://gitlab.com/Romanizer/gcode-py

3. Systemdiagram

(Bild Systemdiagram)

4. Bill of Materials

5. Funktionen

5.1 Motorisierung

Der Farmrobt verfügt über zwei 350W Gleichstrom-Motoren.
Kettenantrieb
Bereifung
Drehmoment
Geländetauglichkeit
Motortreiber
Einstellungen in Pixhawk

5.2 Batteriemanagement

5.3 Manuelle Steuerung mit Fernbedienung

5.4 Steuerungs-Kamera

5.5 Objektverfolgung

5.6 Unkrauterkennung

NVIDIA Jetson TX1

YOLO (“you only look once”) - Object detection framework

YOLO can be set up as a pre-trained algorithm or be trained with custom data. Since the pre-trained neural net does not differentiate plants and has problems recognizing them in general, our net must be trained with custom image data.

One of the first steps in working with YOLO is choosing the version. Since custom training seems relatively simple, the main issue will be coordinate extraction, so the version will be chosen based on which one offers the best functionality with this.

V3 coordinate extraction:\ Edit darknet/src/image.c file:\

if(bot > im.h-1) bot = im.h-1;
 
printf("Bounding Box: Left=%d, Top=%d, Right=%d, Bottom=%d\n", left, top, right, bot); 
 
draw_box_width(im, left, top, right, bot, width, red, green, blue);
  1. After editing you must “make” your darknet again
  2. Running the algorithm now will output the coordinates of the bounding box in console

5.7 Missions-Planer

5.8 Autonomes Fahren mit GPS

5.9 Unkraut behandeln

Delta Arm
Sprüh Mechanismus
Realcode G-code
Unkraut behandeln

5.10 Protokollierung

projects/farmrobot/start.1613908908.txt.gz · Last modified: 2021/02/21 12:01 by leon-david