fablab ruc bloghoved

Studerende med 3 arme

I sidste blogindlæg, om vores Open Source Fab-robot-arme, lovede jeg at vi ville slippe nogle studerende løs på de ultrabillige industrirobotarme og fortælle hvordan det gik. Som sagt så gjort - 17 studerende fra Humtek - RUCs teknisk-videnskabelig bachelor - fik udleveret 4 stk. robotarme og 8 dage til at gøre noget valgfrit.

Illustration: Privatfoto

Det resulterede i tre spændende projekter. Tit prøver vores unge, entusiastiske studerende at redde verden, denne gang var der både køkkenhjælp, underholdning, menneske-maskine interkationsforsøg og et højteknologisk dyreskræmsel.

  • En robot som laver vafler
  • En robot som skyder pingpongbolde med trykluft efter et bevægelig mål (computer vision, Kinect 3D kamera)
  • En gesture controlled robot - robotarmen gør ligesom man gør med sit eget arm (computer vision, Kinect 3D kamera)

De to projekter som bruger computer vision er lavet ved hjælp af Microsofts Kinect - en 3D webcam beregnet til spil på Xbox - og programmeringsmiljøet Processing.

Waffelbot

Den laver meget fine vafler, og kan både dosere mix og hælde waflen ned på en tallerken selv. MkII forventes naturligvis at også kunne blande ingredienserne selv... :)

Gesture based

Her efteraber robotarmen bevægelserne på den menneskelig operatør.

Ping-pong-ball-skydende robot

Robotten kunne tænkes f.eks. som automatisk vagt, som holder uønsket dyreliv væk fra en have eller landbrug.

Her kan man sige robotarmen "misbruges", idet ikke alle 3 akser udnyttes, kun pitch og yaw bruges.

Alt i alt synes vi det var imponerende at de studerende, hvoraf flertallet ikke har programmeret mere end en totimers introduktion, når at lave helt hæderlig computer vision på kun 8 dage, hvoraf noget at tiden jo også går med undervisning, at interface til robotten, finde hardware frem m.v.

Nicolas Padfield er laboratorieleder på FabLab RUC, teknologiguru på Humtek, datalog, kunstprogrammør og en af skribenterne her på bloggen.
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først

Som bemærkning: Kinect er blevet erstattet af Kinect 2, der som kamera er bedre, men USB kommunikationen er endnu ikke er hacket/reverse engineered, så man kan kun bruge den på Windows, med Microsofts eget udviklingsmiljø :(

Det er lidt ligesom dengang Sony holdt op med at lave Aibo robothunden, som ellers var blevet mange forskeres yndlingsrobotplatform - øv, hvad skal vi gøre nu?

Måske bliver vi nødt til at at udvikle vores eget open source open hardware Kinect-agtig 3D kamera. Nogen der er ferm til FPGA?

  • 3
  • 0

Interessant at Waffelbot er vendt om i forhold til "normal" vaffel-produktion hvor vaffeljernet står stille og resten bevæger sig i forhold til jernet.

Umiddelbart ville jeg implementere vaffelbagning med en stribe vaffeljern med hver sin anordning til at åbne låget og stående på hver sin vippeplade og så en bevægelig dej-dispenser på en skinne der kunne servicere flere jern. Det lader til at skalere bedre, men kan vel næppe kaldes en robot.

For mig virker det som om jeres løsning at bygge på et ufravigelig krav om at problemet skal løses med en robot-arm.

Indgår den slags evaluering i jeres projekter?

Jeg kan forestille mig at der er problemstillinger hvor man opnår store fordele ved at lave tilsvarende tricks, så det skal ikke forståes nedladende. Hvor let var det at komme på ideen med at vende virkeligheden om?

  • 0
  • 0

Måske bliver vi nødt til at at udvikle vores eget open source open hardware Kinect-agtig 3D kamera. Nogen der er ferm til FPGA?

Hej Padfield

Kig på:

Elphel reconfigurable cameras: http://sourceforge.net/projects/elphel/

http://www3.elphel.com/

Elphel NC353L. highly customizable and high performance network cameras: http://www3.elphel.com/sites/default/files... Citat: "... Elphel Inc. has been creating the worlds first open camera systems based on free (GNU/GPL) software and open hardware. ... Elphel cameras are being used by Google for both the Google StreetView panoramic camera system as well as the Google Book- Scan Project. NASA is operating Elphel cameras on their near-space exploration missions on the Global Hawk UAV and the Moss Landing Marine Laboratories us them with their exploration robot under the ice of Antarctica to name just a few applications. ... The Elphel NC353L (or just “Elphel 353”) is a multi purpose camera with a camera-internal FPGA that takes care of pipelined high performance image processing and an embedded system running Linux that deals with peripherals, communication, etc. ... Free Software and Open Hardware - specially designed to allow creation of new products ... Software Development Kit (SDK) and full hardware documentation freely available ... Precise capture synchronization for multiple cameras * 1-2 ms jitter over the network * 1 us - using external synchronization cable (GPIO) ... Applications ... [Bl.a.] * Machine Vision ... * Robotics ... * 3D Reconstruction * Stereo/3D Imagery & Video ... * Computer Vision * Education (Verilog, Image Processing, * Networking, Circuit Design, Mechanical DesigVideo Conferencing ... NC353L-359-STEREO utilises 2 sensors front ends and the 10359 multiplexer board to record synced stereoscopic video. With optional IO-board you can connect internal/external mass storage, CF cards, peripherals or trigger external sync. ... By default, we install an IR-Cut filter in front of the sensor. On request, we remove this filter for particular applications. ..."

http://wiki.elphel.com/index.php?title=10353 http://wiki.elphel.com/index.php?title=Cam... Main page: http://wiki.elphel.com/index.php?title=Mai...

Imaging solutions with Free software and open hardware: http://www.elphel.com/articles/index.html

-

MIT's OpenCourseWare on FPGA: http://ocw.mit.edu/ans7870/6/6.111/s04/NEW...

http://www.xilinx.com/support/training/fre...

https://en.wikibooks.org/wiki/Category:VHD... https://en.wikiversity.org/wiki/VHDL_for_F...

-

"Bonus" projekter/links:

Pluto FPGA Digital Oscilloscope: http://hackedgadgets.com/2007/09/20/pluto-...

.6. mar 2009, Galleri: Mere FPGA-power for færre penge. FPGA-chips bliver stadig stærkere. En 100 kroners FPGA kan i dag indeholde en minicomputer. De store udbydere har for nylig bragt nye FPGA'er på markedet. http://ing.dk/artikel/mere-fpga-power-faer...

http://c64upgra.de/c-one/

http://www.dsp-fpga.com/

October 17, 2007 UC Riverside Research Leads to Self-Improving Chips with Speed ‘Warping’. Computer science research results in new technology that can outperform standard microprocessors up to 1,000 times: http://newsroom.ucr.edu/1689

http://www.ida.liu.se/conferences/codes/pr...

Compiled Acceleration of C Codes for FPGAs: http://www.arsc.edu/files/arsc/news/archiv... Citat: "... Riverside Optimizing Compiler for Configurable Computing. A C/C++ to VHDL compiler ... Same speed as hand-written VHDL codes ... ROCCC is not intended to compile the whole code to FPGA. Only compute intensive code segments, typically parallel loops ..."

ROCCC: http://roccc.cs.ucr.edu/ https://github.com/nxt4hll/roccc-2.0

20 March 2007, Green supercomputer is 'go' in Scotland: http://www.zdnet.com/article/green-superco... Citat: "...iFPGA chips differ from standard microprocessors as the silicon can be rewired for specific uses. This means the computer can work more quickly and efficiently..."

I am using the Xilinx ML403 board. It is not cheap but it has everything on board. I am writing a tutorial on how to use this board to implement my own design. Read more here: http://www.fpgafromscratch.com

  • 2
  • 0

Et stykke nede:

March 2, 2015, Vision-guided robot explores Antarctica ice: http://www.vision-systems.com/articles/pri... Citat: "... The cameras used on the robot are NC353L-369 open source hardware and software IP cameras from Elphel (West Valley City, UT, USA; www.elphel.com). Featuring a 5 MPixel CMOS image sensor, the cameras achieve a maximum frame rate of 5 fps and are housed inside of a custom 3000psi tested 2.5in diameter x 7in long pressure housing. ..."

15 August 14, Microsoft turns single-camera smartphone into 3D depth sensor: http://www.wired.co.uk/news/archive/2014-0... This Microsoft tech turns any phone camera into a 3D scanner: http://www.techradar.com/news/phone-and-co...

  • 2
  • 0

Hej Peter,

Du har nogle interessante pointer, jeg tror jeg vil dele mit svar i to:

For mig virker det som om jeres løsning at bygge på et ufravigelig krav om at problemet skal løses med en robot-arm. ... Hvor let var det at komme på ideen med at vende virkeligheden om?

Du har ret i at robotarmen er givet, men nu er vi jo RUCcere, så vi har ikke formuleret det som "opgaven er vafler, det er et ufravigeligt krav at...", men workshoppens form er helt klart "værsågod, her er en robotarm, få den til at lave noget interessant" :). Det ville altså være, givet at de får en fungerende robotarm forærende og kun har 8 dage, en uklog disposition for de studerende at forsage armen og gå i gang med at bygge en effektiv vaffelfabrik på en anden måde :) Jeg tror ikke det var svært for dem at tænke i flytbar vaffeljern - dog skulle de lige have lidt hjælp til at indse at de ikke behøvede bygge en seperat elektronisk styrbar dejdispenser - det kan robotarmen jo også klare ved selv at vippe en passiv dispenser i form af en skål.

Ang. evaluering, så taler vi bestemt om der kunne være andre måder at løse det på, men her var de studerendes dispositioner sådanset fornuftig nok, givet rammerne :)

  • 0
  • 0

Hej Peter,

Du har nogle interessante pointer, jeg tror jeg vil dele mit svar i to:

Umiddelbart ville jeg implementere vaffelbagning med en stribe vaffeljern med hver sin anordning til at åbne låget og stående på hver sin vippeplade og så en bevægelig dej-dispenser på en skinne der kunne servicere flere jern. Det lader til at skalere bedre...

Se det er interessant, for (afhængig af hvad du mener), så ville jeg sige at 10 anordninger til at åbne låget og 10 anordninger til at vippe vaffeljernet netop var en dyr skalering - jeg ville hellere have én ting til at gøre det hele, uanset om det var én eller 100 samtidige vaffeljern den skulle betjene.

Jeg ville, netop som dig, tænke i en anordning på en skinne, som kunne betjene et vilkårlig antal vaffeljern. Vaffeljernene ville jeg montere på en passiv (ikke elektronisk styret) vippeting, og dejdispenseren på en skinne ville blive udstyret med 3 funktioner:

  • åbne låget på den vaffeljern der er under mig
  • vippe den vaffeljern der er under mig
  • hælde dej i den vaffeljern der er under mig

I det konkrete workshop, hvor man får forærende en robotarm, ville de to mest oplagte multivaffelløsninger være enten at have vaffeljernene i en cirkel, med robotarmen i centrum, eller at montere robotarmen på skinner.

  • 0
  • 0

Hej Glenn Mange tak for de mange gode links! Det er tydeligvis noget du følger godt med i.

Ja, der er masser at tage fat på, og det er mere tiden end teknologien, der sætter sin begrænsning hos os. Vi ville synes det var et megafedt projekt at lave en Open Source løsning som gør at man kunne tage en vilkårlig (egnet IR) kamera, en vilkårlig optik, et vilkårlig lys/lasermønster, køre et kalibreringsprogram og så have et depthmap. Det ville være virkelig nyttig til mange projekter at kunne vælge en anden opløsning og vidvinkel/zoom end Kinecten tilbyder...

Men men men - jeg skønner det ville tage en dygtig person det meste af arbejdstiden i et halvt år. Og jeg mener det er patentbelagt, så det ville være for at kunne bruge til forskning og kunst, ikke noget man umiddelbart kunne sælge. Så jeg ved ikke om vi nogensinde når til det... Men er der nogen derude som kan og vil og brænder for det så kontakt mig! http://fablab.ruc.dk/about

  • 0
  • 0
Bidrag med din viden – log ind og deltag i debatten