
MegaBots har under några månaders tid utvecklat en bättre arm till sin jätterobot Eagle Prime. Den nya armen kan slå betydligt snabbare och man har dessutom byggt in hydraulikslangarna inuti armen eftersom de tidigare exponerade slangarna var en tydlig akilleshäl under fajterna. De verkar även ha fått spons av bland annat AutoDesk då hela videon känns lite som en reklamfilm för AutoDesk Fusion 360. Men vem sa att det var billigt att bygga jätterobotar?
Under CES 2018 visades en mängd robotar upp. Bland annat den pingisspelande roboten Forpheus från Omron som varit med tidigare men nu har förbättrats en aning. Bland annat kan robotens AI nu avgöra vilken typ av slag motståndaren är på väg att göra, till exempel en smash, och agera därefter. Roboten kan även känna av hur bra motståndaren spelar och anpassa sin svårighetsgrad därefter.
En annan robot som visades upp under CES 2018 var denna Alfapetspelande robot från ITRI (Industrial Technology Research Institute) som egentligen är avsedd för industrin. Genom att kombinera AI med ett intelligent 3D-visionsystem och teknik för öga-hand-koordination kan roboten spela Scrabble, mer känt som Alfapet i Sverige. De vanliga brickorna har dock fått bytas ut mot träkuber för att roboten lättare ska kunna plocka upp dem.
Videon här under från ITRI visar lite mer om hur roboten fungerar.
MatGeek, eller Johan Hedberg som han egentligen heter, har nördat in på mat och driver bland annat en YouTube-kanal på detta tema. I det senaste videoreportaget har han besökt KitchenTime för att ta en titt på deras robotlager. Det handlar om ett AutoStore-system som de för ett år sedan investerade 30 miljoner kronor i.
På tal om mat så har Fanuc slängt upp en video på två av sina robotar som plockar, staplar och förpackar våfflor från ett löpande band. Det är alltid en fröjd att se blixtsnabba och exakta deltarobotar plocka saker i övermänsklig hastighet, åtminstone om man är robotnörd. Den ena roboten är en deltarobot av modell M-2iA/6HL och den andra en LR Mate 200iD/7LC. Med hjälp av Fanuc 2D iRVision och Fanuc iRPickTool kan roboten plocka upp våfflorna med precision, trots att de ligger slumpmässigt på bandet.
Alla stora biltillverkare satsar numera på självkörande bilar i någon form. Men hur lång tid är det kvar innan vanligt folk kommer kunna köpa sin egen självkörande bil? Den frågan ställer sig The Verge i denna video.
DeepMind har utvecklat en AI som via ett CNN (Convolutional Neural Network) kan koppla samman video och audio för att avgöra om ett visst ljud hör ihop med en specifik video. AI:n kan även grafiskt markera de delar av videon som den anser vara ljudkällan. Den kan även matas med ljud och utifrån ljuddatan peka ut bilder som matchar ljudet, eller vice versa.
Ett annat CNN är DroNet som gör att en drönare kan flyga autonomt ute i trafiken bland andra fordon utan att kollidera med dessa. DroNet är utvecklat av Robotics and Perception Group vid ETH Zürich i Schweiz och utgår från en gråskalevideoström i 200 x 200 pixlar. Utifrån denna inputdata kan det neurala nätverket fatta realtidsbeslut om i vilken vinkel drönaren ska styra samt hur hög sannolikheten för en kollision är för stunden. De har tränat upp drönaren via GoPro-filmer från bilar och cyklar som åkt omkring i stadsmiljö.
Drönaren kan även flyga på högre höjder samt inomhus utan extra träning. Nu har forskarna öppnat upp sitt nätverk och träningsdata så fler inom robotcommunityt ska kunna lära sig av deras framsteg.
I Singapore har forskare vid NUS Environmental Research Institute and Tropical Marine Science Institute utvecklat flytande robotar som åker omkring autonomt i olika vattenreservoarer för att mäta kvaliteten på vattnet och eventuella föroreningar. Forskarna ville dock att robotarna skulle smälta in bättre i miljön där de simmade runt och utformade dem därför som svanar. På lite håll kan dessa robotar lätt förväxlas med riktiga svanar. Datan som robotarna samlar in laddas upp i molnet och analyseras i realtid så det snabbt går att upptäcka ifall vattnet inte skulle vara drickbart. Läs mer om svanrobotarna på länkarna nedan.
IEEE Spectrum, NUS, Channel News Asia
Så här hälsar tydligen robotar på varandra – åtminstone i robotlabbet hos ETH Zürich.