0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人形機(jī)器人場景應(yīng)用全解析,2024???AI ROBOT創(chuàng)新挑戰(zhàn)賽火熱報名中!

大象機(jī)器人科技 ? 來源:大象機(jī)器人科技 ? 作者:大象機(jī)器人科技 ? 2024-05-14 10:49 ? 次閱讀

人工智能AI)已成為推動科技革命和產(chǎn)業(yè)變革的關(guān)鍵力量。隨著大模型等AIGC技術(shù)的迅猛發(fā)展,AI正深刻改變我們的生活并重新定義生產(chǎn)方式。越來越多人期望將AI技術(shù)從純粹的思維和計算擴(kuò)展到與物理世界的互動中,即發(fā)展具身智能。

為了推廣并深化具身智能的創(chuàng)新和應(yīng)用,“睿抗機(jī)器人開發(fā)者大賽——AI ROBOT創(chuàng)新挑戰(zhàn)賽”應(yīng)用而生,大賽旨在激發(fā)全國高校學(xué)生的研究熱情,探索AI與機(jī)器人技術(shù)的融合,展示尖端技術(shù)成果。

這一平臺不僅可以促進(jìn)技術(shù)交流和學(xué)習(xí),更可以通過競賽提高中國大學(xué)生的科技實(shí)踐能力,推動教育與產(chǎn)業(yè)的深度融合,為機(jī)器人產(chǎn)業(yè)注入新活力。

本屆??箼C(jī)器人開發(fā)者大賽,特選用大象機(jī)器人公司的輪式人形機(jī)器人作為官方賽具。

這款機(jī)器人以其創(chuàng)新的設(shè)計和卓越的性能,在全球范圍內(nèi)獲得了廣泛關(guān)注和認(rèn)可。其輪式移動底盤結(jié)合雙臂協(xié)作機(jī)械臂,賦予了其卓越的靈活性和運(yùn)動能力,使其能夠完成各種復(fù)雜的動作和任務(wù)。

通過本次大賽,參賽者有機(jī)會深入了解和應(yīng)用機(jī)器人動作控制、視覺處理、大語言模型以及人機(jī)交互等前沿技術(shù),這不僅能夠提升他們的技術(shù)能力,也將推動機(jī)器人技術(shù)的創(chuàng)新發(fā)展。

技術(shù)亮點(diǎn)

AI ROBOT

智能機(jī)器人雙臂協(xié)同操作

大模型賦能機(jī)器人實(shí)現(xiàn)人類語言指令識別和理解

基于GPU的高階渲染引擎,支持高保真傳感器數(shù)據(jù)輸出的物理仿真,實(shí)現(xiàn)機(jī)器人快速開發(fā)

快速生成合成數(shù)據(jù)降低數(shù)據(jù)采集難度

競賽任務(wù)

AI ROBOT

任務(wù)1:機(jī)器人運(yùn)動控制

選手需要通過發(fā)布運(yùn)動指令或運(yùn)行控制代碼實(shí)現(xiàn)對機(jī)器人的簡單運(yùn)動控制。

任務(wù)2:Isaac Sim仿真

Isaac Sim 是由 NVIDIA 開發(fā)的一個機(jī)器人模擬平臺,主要用于機(jī)器人仿真和人工智能的訓(xùn)練。選手需要使用現(xiàn)場提供的模型文件進(jìn)行機(jī)器人仿真。

任務(wù)3:Replicator合成數(shù)據(jù)生成

選手需要使用平臺提供的待抓取數(shù)字資產(chǎn)文件在Isaac Sim中應(yīng)用Replicator生成合成數(shù)據(jù)。

任務(wù)4:地圖構(gòu)建

選手需要在比賽現(xiàn)場環(huán)境中控制機(jī)器人運(yùn)動采集數(shù)據(jù)、構(gòu)建地圖

任務(wù)5:模型訓(xùn)練

選手需要在TAO中利用Replicator生成的數(shù)據(jù)集進(jìn)行模型訓(xùn)練

任務(wù)6:場景實(shí)現(xiàn)

選手需要與機(jī)器人通過語音交互、多輪對話,進(jìn)行點(diǎn)餐,點(diǎn)餐完成后機(jī)器人前往茶水區(qū)執(zhí)行對應(yīng)任務(wù),任務(wù)完成后,機(jī)器人把餐食送到辦公區(qū)指定區(qū)域。

wKgZomZCzV2AWntGAAfPSa65weM446.png

核心技術(shù)解析

AI ROBOT

對象檢測與追蹤

應(yīng)用場景:該部分主要使用了NVIDIA的TAO Toolkit進(jìn)行對象檢測模型的訓(xùn)練、評估、剪枝和重訓(xùn)練。示范了如何使用預(yù)訓(xùn)練的ResNet-18模型對KITTI數(shù)據(jù)集進(jìn)行訓(xùn)練和評估。

核心技術(shù):包括深度學(xué)習(xí)模型訓(xùn)練、模型剪枝以提高效率、以及使用ONNX格式導(dǎo)出模型以便在不同平臺上部署。

Run TAO training

!tao model ssd train --gpus 1 --gpu_index $GPU_INDEX 
   -e $SPECS_DIR/ssd_train_resnet18_kitti.txt 
   -r $USER_EXPERIMENT_DIR/experiment_dir_unpruned 
   -m $USER_EXPERIMENT_DIR/pretrained_resnet18/pretrained_object_detection_vresnet18/resnet_18.hdf5  

Evaluate trained models

!tao model ssd evaluate --gpu_index $GPU_INDEX 
   -e $SPECS_DIR/ssd_train_resnet18_kitti.txt 
   -m $USER_EXPERIMENT_DIR/experiment_dir_unpruned/weights/ssd_resnet18_epoch_$EPOCH.hdf5

Prune trained models???????

!tao model ssd prune --gpu_index $GPU_INDEX 
   -m $USER_EXPERIMENT_DIR/experiment_dir_unpruned/weights/ssd_resnet18_epoch_$EPOCH.hdf5 
   -o $USER_EXPERIMENT_DIR/experiment_dir_pruned/ssd_resnet18_pruned.hdf5 
   -eq intersection 
   -pth 0.1   

Retrain pruned models???????

!tao model ssd train --gpus 1 --gpu_index $GPU_INDEX 
   -e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt 
   -r $USER_EXPERIMENT_DIR/experiment_dir_retrain 
   -m $USER_EXPERIMENT_DIR/experiment_dir_pruned/ssd_resnet18_pruned.hdf5  

Evaluate retrained model???????

!tao model ssd evaluate --gpu_index $GPU_INDEX 
   -e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt 
   -m $USER_EXPERIMENT_DIR/experiment_dir_retrain/weights/ssd_resnet18_epoch_$EPOCH.hdf5

Visualize inferences???????

!tao model ssd inference --gpu_index $GPU_INDEX -i $DATA_DOWNLOAD_DIR/test_samples 
   -e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt 
   -m $USER_EXPERIMENT_DIR/experiment_dir_retrain/weights/ssd_resnet18_epoch_$EPOCH.hdf5 
   -r $USER_EXPERIMENT_DIR/

Model Export???????

!tao model ssd export --gpu_index $GPU_INDEX 
   -m $USER_EXPERIMENT_DIR/experiment_dir_retrain/weights/ssd_resnet18_epoch_$EPOCH.hdf5 
   -o $USER_EXPERIMENT_DIR/export/ssd_resnet18_epoch_$EPOCH.onnx 
   -e $SPECS_DIR/ssd_retrain_resnet18_kitti.txt 
   --batch_size 16 
   --gen_ds_config

機(jī)械臂控制

應(yīng)用場景:該部分主要控制機(jī)械臂,從定位物體、抓取到物體的搬運(yùn)。包括機(jī)械臂的坐標(biāo)轉(zhuǎn)換、夾爪的控制和關(guān)節(jié)角度的調(diào)整。

核心技術(shù):通過Python代碼控制機(jī)械臂的動作,使用轉(zhuǎn)換函數(shù)處理機(jī)器視覺系統(tǒng)與機(jī)械臂之間的坐標(biāo)轉(zhuǎn)換,以及實(shí)時反饋控制機(jī)械臂的精確位置。???????

# 初始化一個MyCobot對象
mc = MyCobot(PI_PORT, PI_BAUD)

# 相機(jī)坐標(biāo)(x,y,z)轉(zhuǎn)換為機(jī)械臂目標(biāo)點(diǎn)
cup_target = transform_point(cup_x,cup_y,cup_z)
# 打開夾爪
mc.set_gripper_state(0, 70)
time.sleep(2)
# 機(jī)械臂頭部到達(dá)目標(biāo)點(diǎn)
mc.send_coords(cup_target, 30, 1)
time.sleep(1)
# 控制機(jī)械臂上抬避免打到物體
angle_datas = mc.get_angles()
print('angle_datas:',angle_datas)
mc.send_angle(Angle.J2.value,angle_datas[1]-5,20)
time.sleep(2)
# 機(jī)械臂頭部再次到達(dá)目標(biāo)點(diǎn)
mc.send_coords(cup_target, 30, 1)
time.sleep(3)
# 抓取
mc.set_gripper_state(1, 70)
time.sleep(3)
# 控制關(guān)節(jié)2運(yùn)動,將物品拿起
angle_datas = mc.get_angles()
mc.send_angle(Angle.J2.value,angle_datas[1]-23,20)
time.sleep(2)

語音識別

應(yīng)用場景:該部分是語音識別流程,從錄音、保存音頻文件到使用語音識別庫(如SpeechRecognition)進(jìn)行語音到文本的轉(zhuǎn)換。

核心技術(shù):使用PyAudio進(jìn)行音頻的捕捉和處理,利用SpeechRecognition庫進(jìn)行本地語音識別。???????

#語音錄制
def record():
   p = pyaudio.PyAudio()

   stream = p.open(format=FORMAT,
                   channels=CHANNELS,
                   rate=RATE,
                   input=True,
                   frames_per_buffer=CHUNK)

   print("請點(diǎn)單...")
   frames = []
   for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
       data = stream.read(CHUNK)
       frames.append(data)
   print("點(diǎn)單結(jié)束")
   stream.stop_stream()
   stream.close()
   p.terminate()
   wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
   wf.setnchannels(CHANNELS)
   wf.setsampwidth(p.get_sample_size(FORMAT))
   wf.setframerate(RATE)
   wf.writeframes(b''.join(frames))
   wf.close()
   
#語音識別
def detect_voice():
   r = sr.Recognizer()
   test = sr.AudioFile(WAVE_OUTPUT_FILENAME)
   with test as source:
       audio = r.record(source)
   return r.recognize_sphinx(audio, language='zh-cn')

自動導(dǎo)航

該部分主要實(shí)現(xiàn)了一個基于ROS(機(jī)器人操作系統(tǒng))的自動導(dǎo)航系統(tǒng),用于指導(dǎo)機(jī)器人在預(yù)設(shè)環(huán)境地圖中自主移動到指定位置。以下是該代碼實(shí)現(xiàn)的技術(shù)和場景概括:

初始化和配置:代碼中首先初始化了一個名為map_navigation的ROS節(jié)點(diǎn),這是進(jìn)行任何ROS通信前的必要步驟。

設(shè)置了三個發(fā)布器,分別用于發(fā)送速度指令(/cmd_vel)、設(shè)置初始位置(/initialpose)和取消導(dǎo)航目標(biāo)(/move_base/cancel)。

導(dǎo)航到目標(biāo)點(diǎn):通過定義moveToGoal函數(shù),代碼實(shí)現(xiàn)了機(jī)器人到達(dá)特定目標(biāo)位置的功能。這涉及到與move_base動作服務(wù)器的交互,該服務(wù)器負(fù)責(zé)處理路徑規(guī)劃和導(dǎo)航。

動作客戶端通過發(fā)送一個包含目標(biāo)位置和姿態(tài)的MoveBaseGoal到move_base服務(wù)器,從而指示機(jī)器人移動到指定位置。

目標(biāo)位置的設(shè)定和導(dǎo)航執(zhí)行:目標(biāo)位置和姿態(tài)通過參數(shù)(xGoal, yGoal, orientation_z, orientation_w)傳遞給moveToGoal函數(shù)。

機(jī)器人在收到目標(biāo)位置后,動作客戶端等待結(jié)果,判斷是否成功到達(dá)目標(biāo)。

結(jié)果處理:根據(jù)動作客戶端返回的狀態(tài),判斷機(jī)器人是否成功到達(dá)目標(biāo)位置,并進(jìn)行相應(yīng)的日志記錄和反饋。???????

import rospy
import actionlib
import sys
from geometry_msgs.msg import PoseWithCovarianceStamped
from move_base_msgs.msg import MoveBaseAction, MoveBaseGoal
from actionlib_msgs.msg import *
from actionlib_msgs.msg import GoalID
from geometry_msgs.msg import Point
from geometry_msgs.msg import Twist


class MapNavigation:
   def __init__(self):
       self.goalReached = None
       rospy.init_node('map_navigation', anonymous=False)  # 初始化 ROS 節(jié)點(diǎn)
       self.pub = rospy.Publisher('/cmd_vel', Twist, queue_size=10)  # 發(fā)布速度指令的發(fā)布器
       self.pub_setpose = rospy.Publisher('/initialpose', PoseWithCovarianceStamped, queue_size=10)  # 發(fā)布設(shè)置初始姿態(tài)的發(fā)布器
       self.pub_cancel = rospy.Publisher('/move_base/cancel', GoalID, queue_size=10)  # 發(fā)布取消目標(biāo)的發(fā)布器

   # move_base
   def moveToGoal(self, xGoal, yGoal, orientation_z, orientation_w):       # 移動到目標(biāo)點(diǎn)
       ac = actionlib.SimpleActionClient("move_base", MoveBaseAction)      # 創(chuàng)建動作客戶端
       while (not ac.wait_for_server(rospy.Duration.from_sec(5.0))):
           sys.exit(0)

       goal = MoveBaseGoal()
       goal.target_pose.header.frame_id = "map"
       goal.target_pose.header.stamp = rospy.Time.now()
       goal.target_pose.pose.position = Point(xGoal, yGoal, 0)
       goal.target_pose.pose.orientation.x = 0.0
       goal.target_pose.pose.orientation.y = 0.0
       goal.target_pose.pose.orientation.z = orientation_z
       goal.target_pose.pose.orientation.w = orientation_w

       rospy.loginfo("Sending goal location ...")
       ac.send_goal(goal)                          # 發(fā)送目標(biāo)位置

       ac.wait_for_result(rospy.Duration(600))             # 設(shè)置超時時間

       if (ac.get_state() == GoalStatus.SUCCEEDED):            # 判斷是否成功到達(dá)目標(biāo)
           rospy.loginfo("You have reached the destination")
           return True
       else:
           rospy.loginfo("The robot failed to reach the destination")
           return False


map_navigation = MapNavigation()  # 初始化導(dǎo)航
x_goal, y_goal, orientation_z, orientation_w = (0.0598191, -1.81509, 0.999547, 0.024365)  # 設(shè)置需要導(dǎo)航到達(dá)的點(diǎn)位
flag_feed_goalReached = map_navigation.moveToGoal(x_goal, y_goal, orientation_z, orientation_w)  # 開始導(dǎo)航,并返回是否到達(dá)目標(biāo)點(diǎn)位
if flag_feed_goalReached:
   print("command completed")  # 成功到達(dá)目標(biāo)定位

二維碼識別抓取

這份代碼主要展示了如何使用Python控制大象機(jī)器人的Mercury系列機(jī)械臂進(jìn)行二維碼識別和基于位置的物體操作。以下是該代碼實(shí)現(xiàn)的技術(shù)和場景概括:

硬件設(shè)置與初始化:代碼首先初始化Mercury機(jī)械臂,設(shè)置其與計算機(jī)的通訊端口。

同時設(shè)置和配置UVC相機(jī),加載相機(jī)的校準(zhǔn)參數(shù)(內(nèi)參和畸變系數(shù)),這些參數(shù)用于后續(xù)圖像處理和位置計算。

圖像捕捉與二維碼識別:使用UVC相機(jī)捕捉實(shí)時圖像幀。

應(yīng)用stag.detectMarkers方法識別圖像中的二維碼并獲取其角點(diǎn)信息,這是二維碼位置識別的關(guān)鍵步驟。

二維碼位置計算與機(jī)械臂定位:根據(jù)捕獲的二維碼角點(diǎn)及相機(jī)校準(zhǔn)參數(shù),計算二維碼相對于相機(jī)的空間坐標(biāo)。

通過手眼標(biāo)定技術(shù)(Eyes_in_hand_right方法),將二維碼的相對坐標(biāo)轉(zhuǎn)換為機(jī)械臂基座坐標(biāo)系中的位置。

控制機(jī)械臂移動到計算出的二維碼位置。

交互執(zhí)行:機(jī)械臂移動到二維碼所在位置后,通過控制夾爪的開閉來實(shí)現(xiàn)物體的抓取操作。

from pymycobot import Mercury
from uvc_camera import UVCCamera
import stag
import numpy as np  # 導(dǎo)入需要的庫

mr = Mercury("/dev/ttyACM2")  # 設(shè)置右臂端口號

mr.send_angles([92.78, -3.19, 0.0, -135.63, -112.56, 70.86, -49.26], 30)  # 將機(jī)械臂移至二維碼區(qū)域
camera_params = np.load("src/camera_params.npz")  # 讀取相機(jī)配置文件
mtx, dist = camera_params["mtx"], camera_params["dist"]  # 獲取相機(jī)內(nèi)參和畸變系數(shù)
camera = UVCCamera(4, mtx, dist)  # 設(shè)置相機(jī)id
camera.update_frame()  # 更新圖像幀
frame = camera.color_frame()  # 獲取彩色圖像幀數(shù)據(jù)
(corners, ids, rejected_corners) = stag.detectMarkers(frame, 11)  # 根據(jù)圖像,獲取二維碼角點(diǎn)
marker_pos_pack = calc_markers_base_position(corners, ids, 32, mtx,
                                            dist)  # 根據(jù)角點(diǎn)和相機(jī)內(nèi)參、畸變系數(shù),獲取二維碼相對于相機(jī)的坐標(biāo)
cur_coords = np.array(mr.get_base_coords())  # 獲取機(jī)械臂末端坐標(biāo)
cur_bcl = cur_coords.copy()
cur_bcl[-3:] *= (np.pi / 180)  # 將機(jī)械臂末端旋轉(zhuǎn)角度轉(zhuǎn)為弧度
right_fact_bcl = Eyes_in_hand_right(cur_bcl, marker_pos_pack)  # 通過手眼標(biāo)定獲取二維碼相對于基體的坐標(biāo)

right_target_coords = cur_coords.copy()
right_target_coords[0] = right_fact_bcl[0]
right_target_coords[1] = right_fact_bcl[1]
right_target_coords[2] = right_fact_bcl[2]
mr.send_base_coords(right_target_coords, 30)  # 控制機(jī)械臂移動至二維碼處

mr.set_gripper_value(0, 100)  # 閉合夾爪,抓取物品

報名參賽

AI ROBOT

報名地址

https://www.raicom.com.cn

wKgZomZC0KmAPHzXAAA2Y-ORcQQ508.png

注:進(jìn)入網(wǎng)站,成功注冊之后在“賽事報名”中找到“AI ROBOT創(chuàng)新挑戰(zhàn)賽”項目進(jìn)行報名。

參賽對象

本科組:全日制高校在讀學(xué)生(本科、研究生)

高職組:全日制高校在讀學(xué)生(高職)

參賽要求

1) 本賽項為團(tuán)體賽,以院校為單位組隊參賽,本科組、高組須為高校在籍學(xué)生和在職老師,不得跨校組隊。

2) 每個賽隊由2-3名參賽學(xué)生(設(shè)隊長1名)和1-2名指導(dǎo)老師。

3)比賽過程中,參賽者需要在規(guī)定的時間內(nèi)完成所選賽項的任務(wù)。這些任務(wù)可能包括機(jī)器人的設(shè)計、編程、調(diào)試以及實(shí)際運(yùn)行等。

參賽時間(省賽選拔賽)

報名截止時間:2024年5月30日(最晚截止時間)

區(qū)域賽選拔時間:2024年7月10日— 7月20日

晉級公示:2024年7月25日(公示時間不少于 5 個工作日)

注:各區(qū)域賽比賽時間和地點(diǎn)等安排以區(qū)域賽通知為準(zhǔn)。

隨著科技的不斷進(jìn)步,我們相信通過此類競賽的平臺,能夠有效促進(jìn)科技與教育的深度融合,激發(fā)更多青年才俊在人工智能和機(jī)器人領(lǐng)域的探索熱情。

我們期待看到來自各地的優(yōu)秀參賽者在本屆大賽中展示出色的技術(shù)創(chuàng)新和解決方案,共同推動全球機(jī)器人技術(shù)向更高水平發(fā)展。讓我們攜手前行,共創(chuàng)智能科技的美好未來。


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    210

    文章

    28103

    瀏覽量

    205852
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29806

    瀏覽量

    268106
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46652

    瀏覽量

    237087
  • python
    +關(guān)注

    關(guān)注

    55

    文章

    4767

    瀏覽量

    84375
  • 機(jī)械臂
    +關(guān)注

    關(guān)注

    12

    文章

    506

    瀏覽量

    24458
收藏 人收藏

    評論

    相關(guān)推薦

    50萬獎金池!開放原子大賽——第二屆OpenHarmony創(chuàng)新應(yīng)用挑戰(zhàn)賽正式啟動

    位大咖導(dǎo)師指導(dǎo):為你答疑解惑,啟發(fā)靈感 各位開發(fā)者們,你們準(zhǔn)備好了嗎?運(yùn)用OpenHarmony突破極限,用創(chuàng)新定義未來。 報名鏈接: 第二屆OpenHarmony創(chuàng)新應(yīng)用挑戰(zhàn)賽-開放
    發(fā)表于 10-24 15:40

    LabVIEW挑戰(zhàn)賽正式開賽,臺北總決賽等著你!

    挑戰(zhàn)賽亞軍:三萬人民幣 整LabVIEW 挑戰(zhàn)賽季軍:一萬民幣 整LabVIEW 挑戰(zhàn)賽佳作(共三名):可獲得價值人民幣 5000 元的獎品以上獲獎
    發(fā)表于 05-23 10:56

    小小班機(jī)器人創(chuàng)新挑戰(zhàn)賽走進(jìn)武漢

    早期入駐項目“小小班”機(jī)器人創(chuàng)新團(tuán)隊獲第二名,直接晉級全球機(jī)器人創(chuàng)新挑戰(zhàn)賽的總決賽及武漢2017創(chuàng)業(yè)星光大道年度總決賽。 本次大賽組委會相關(guān)
    發(fā)表于 05-05 09:30

    海渡學(xué)院虛擬仿真排位3月開賽,現(xiàn)金大獎等你挑戰(zhàn)!

    `海渡學(xué)院虛擬仿真排位3月開賽,火熱報名,每月現(xiàn)金大獎等你拿!工業(yè)機(jī)器人愛好者均可報名參賽!
    發(fā)表于 02-28 14:15

    ICRA 2018 DJI RoboMaster 人工智能挑戰(zhàn)賽報名正式啟動

    、東北大學(xué)等。經(jīng)過3個比賽日的激烈角逐,東北大學(xué)獲得總冠軍。如今,ICRA 2018 DJI RoboMaster 人工智能挑戰(zhàn)賽報名正式啟動!讓我們在這里,一同感受機(jī)器人尖端技術(shù)的科技魅力,觸碰人工智能
    發(fā)表于 05-15 17:21

    AI語音智能機(jī)器人開發(fā)實(shí)戰(zhàn)

    ) "AI語音識別機(jī)器人"網(wǎng)絡(luò)通信編碼與實(shí)現(xiàn)(7)AI語音識別解析的軟硬件實(shí)現(xiàn)現(xiàn)在凡報名本次直播課程,掃下方二維碼進(jìn)群,在朋友圈轉(zhuǎn)發(fā)本次直播
    發(fā)表于 01-04 11:48

    等個有“源”|OpenHarmony 成長計劃學(xué)生挑戰(zhàn)賽報名啟動

    ,涵蓋貧困、不平等、氣候、環(huán)境退化、繁榮以及和平與正義等方面。本大賽面向所有在校大學(xué)生,注冊、認(rèn)證即可報名參與成長計劃學(xué)生挑戰(zhàn)賽,若組團(tuán)參賽則人數(shù)不得超過 6 。本大賽為開發(fā)者提供 OpenHarmony 開源項目的實(shí)踐機(jī)會及
    發(fā)表于 06-13 10:22

    等個有“源”|OpenHarmony 成長計劃學(xué)生挑戰(zhàn)賽報名啟動

    面臨的全球挑戰(zhàn),涵蓋貧困、不平等、氣候、環(huán)境退化、繁榮以及和平與正義等方面。本大賽面向所有在校大學(xué)生,注冊、認(rèn)證即可報名參與成長計劃學(xué)生挑戰(zhàn)賽,若組團(tuán)參賽則人數(shù)不得超過6。本大賽為開
    發(fā)表于 06-13 11:24

    高動態(tài)人形機(jī)器人“夸父”通過OpenHarmony 3.2 Release版本兼容性測評

    深圳開鴻數(shù)字產(chǎn)業(yè)發(fā)展有限公司(以下簡稱”深開鴻“)OpenHarmony生態(tài)建設(shè)能力和在新興行業(yè)領(lǐng)域的技術(shù)創(chuàng)新實(shí)力,也標(biāo)志著OpenHarmony在新興行業(yè)領(lǐng)域又向前邁進(jìn)了一步。 夸父人形機(jī)器人由深開
    發(fā)表于 12-20 09:31

    JRC2018京東X機(jī)器人挑戰(zhàn)賽啟動儀式在京舉行

    通過2018京東機(jī)器人挑戰(zhàn)賽,京東將匯聚智能機(jī)器人各種相關(guān)專業(yè)的高校隊伍和創(chuàng)業(yè)團(tuán)隊,培育和挖掘更多人才,幫助參賽隊伍進(jìn)行技術(shù)孵化。未來,融入了創(chuàng)新能力的智能
    的頭像 發(fā)表于 06-28 15:19 ?5419次閱讀

    2019機(jī)器人世界杯火神隊斬獲AdultSize的Technical Challenge 技術(shù)挑戰(zhàn)賽亞軍

    優(yōu)必選已經(jīng)連續(xù)三年和清華大學(xué)組隊參加RoboCup,2017年,火神隊獲得人形機(jī)器人Adult Size組技術(shù)挑戰(zhàn)賽亞軍。2018年,火神隊也獲得了人形
    的頭像 發(fā)表于 07-27 09:05 ?4060次閱讀

    中國在國際機(jī)器人挑戰(zhàn)賽占頭籌 并獲得25萬美元獎金

    勇奪第一項無人機(jī)自主控制挑戰(zhàn)賽冠軍,并獲得25萬美元獎金。這也是北京理工大學(xué)既2017年獲得首屆扎耶德國際機(jī)器人挑戰(zhàn)賽該項目冠軍后的成功衛(wèi)冕。
    發(fā)表于 02-28 08:52 ?591次閱讀

    獎金高達(dá)26萬!AIOps挑戰(zhàn)賽報名火熱招募!

    自2023年CCF國際AIOps挑戰(zhàn)賽開放報名以來,組委會已收到數(shù)百名選手的踴躍報名。此次比賽設(shè)置的獎項有:一等獎1名,獎金10萬;二等獎2名,獎金5萬;三等獎3名,獎金2萬。目前挑戰(zhàn)賽
    的頭像 發(fā)表于 08-16 12:12 ?605次閱讀

    OpenHarmony人形機(jī)器人創(chuàng)新挑戰(zhàn)賽來啦

    12月28日,第二十六屆中國機(jī)器人及人工智能大賽人形機(jī)器人創(chuàng)新挑戰(zhàn)賽在蘇州正式發(fā)布,首次結(jié)合
    的頭像 發(fā)表于 12-30 08:32 ?1019次閱讀
    OpenHarmony<b class='flag-5'>人形</b><b class='flag-5'>機(jī)器人</b><b class='flag-5'>創(chuàng)新</b><b class='flag-5'>挑戰(zhàn)賽</b>來啦

    人形機(jī)器人場景應(yīng)用聯(lián)盟正式成立

    日前,在“2024首屆人形機(jī)器人場景應(yīng)用峰會”上,人形機(jī)器人
    的頭像 發(fā)表于 08-19 11:17 ?578次閱讀