ROS를 사용하여 개발을 하다보니, ROS의 버전에 따라 Ubuntu의 배포판이 달라져야 하는 경우가 생긴다. 예를 들자면, ROS2의 현재 최신 LTS버전은 Humble로 Ubuntu 22.04에서 설치가 되어야 하고, ROS1의 최종 LTS버전은 Noetic으로 Ubuntu 20.04에서 지원이 멈춰있다 (이제 더이상 배포판 업데이트 지원 불가).
따라서 이 두가지 경우를 모두 사용하기 위해선, 각각 따로 개발용 PC를 구비하던가 아니면 외장 SSD를 이용하는 방법이 있긴 하지만, 번거로운건 어쩔수 없다.
하나의 SSD에 GRUB 부트로더를 하나만 사용하고, 스왑 파티션도 공용으로 사용하고, 루트 파티션만 분리하여 설치하면 위와 같은 문제가 깔끔이 해결된다. 여전히 재부팅이 필요한 건 어쩔수 없지만..^^
기록 차원에서 설치 순서를 간단히 정리해본다. 윈도우와 듀얼부팅으로 사용할 때도 적용 가능. 물론 배포판의 버전이 달라도 상관없음.
먼저, 가장 최신 버전의 배포판을 설치한다. 이건 여느때와 마찬가지로 그냥 설치하면 됨.
설치할 때, 디스크의 파티션을 설정하는 부분이 있는데, 이때 다음과 같은 구조로 만들어준다.
앞쪽 디스크 이름은 각자의 개발 환경에 따라 다를테니, 유념하시면 되고, 기존과 다른 점은 /boot 파티션을 따로 분리한 것과 루트 (/) 파티션을 만들고 또 동일한 크기 혹은 원하는 크기로 또 하나의 파티션을 만들어 놓은 것이다.
이제 설치를 완료 (루트 파티션을 /dev/sda2로 선택)하고.. 부팅이 제대로 되는 것을 확인한 다음…
다음으로 추가로 설치할 배포판 설치를 진행한다. 이때는 바로 설치를 진행하지 말고, Try Ubuntu 등 일단 임시로 사용할 수 있는 모드로 진입.
여기에선 부트로더 설치를 하지 않고, 배포판 설치를 진행하야 하므로, 터미널을 열고
$ ubiquity -b
와 같이 실행하여 설치를 진행한다. 디스크 설정 시, 설치할 파티션을 위에서 만든 /dev/sda3로 선택한다. 설치가 완료되면, 그냥 재부팅.
재부팅하면, 기존에 설치한 최신 배포판으로 부팅이 될텐데, 완료되면 터미널을 열고,
$ sudo update-grub2
를 하면, 자동으로 방금 전에 설치한 추가 배포판의 커널을 인식하여 GRUB의 부트 엔트리에 등록해준다. 또 기본값으로는 GRUB가 후다닥 지나가버리게 설정되어 있으므로, /etc/default/grub 파일을 열어서 다음과 같이 수정해준다.
# If you change this file, run 'update-grub' afterwards to update
# /boot/grub/grub.cfg.
# For full documentation of the options in this file, see:
# info -f grub -n 'Simple configuration'
GRUB_DEFAULT=0
GRUB_TIMEOUT_STYLE=menu
GRUB_TIMEOUT=10
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"
GRUB_CMDLINE_LINUX=""
이제 끝!
Dell 모니터 중 KVM 기능을 지원하는 제품의 경우, Windows나 macOS에서는 DDM (Dell Display Manager)라는 프로그램을 통해서 모니터를 키보드를 통해 제어할 수 있다.
이를 이용하면 유용한 점이, 모니터를 직접 조작하지 않고도, 입력 소스를 선택할 수 있어 두 대의 PC를 오가며 쉽게 작업할 수 있다는 점이다.
다만 아쉽게도 아직까지 Ubuntu에서 동작하는 DDM은 없는 상황이다. 하지만 구글링을 해보면 쉽게 이를 대체할 수 있는 방법이 나온다.
기본적으로 DDM의 역할은 모니터에 연결된 특정칩에 명령을 전달하는 것인데, 이 명령이 DDC/CI 기능을 이용한다. 아마 게임기나 셋탑박스를 연결할 때, 케이블을 꼽기만 해도 해당 입력소스로 자동으로 전환되는 것을 경험해보셨다면, 그 모니터가 DDC/CI 기능을 지원한다는 의미이다.
Ubuntu에도 이러한 기능을 수행하는 커맨드가 존재하는데, ddccontrol 이 그것이다.
설치는 다음과 같이
$ sudo apt install ddccontrol
설치하면 되고..
이제 실행을 해보면, 먼저 모니터를 인식하는지를 확인해보면…
$ ddccontrol -p
ddccontrol version 0.6.0
Copyright 2004-2005 Oleg I. Vdovikin (oleg@cs.msu.su)
Copyright 2004-2006 Nicolas Boichat (nicolas@boichat.ch)
This program comes with ABSOLUTELY NO WARRANTY.
You may redistribute copies of this program under the terms of the GNU General Public License.
Detected monitors :
- Device: dev:/dev/i2c-6
DDC/CI supported: Yes
Monitor Name: VESA standard monitor
Input type: Digital
(Automatically selected)
Reading EDID and initializing DDC/CI at bus dev:/dev/i2c-6...
I/O warning : failed to load external entity "/usr/share/ddccontrol-db/monitor/DEL426A.xml"
Document not parsed successfully.
I/O warning : failed to load external entity "/usr/share/ddccontrol-db/monitor/DELlcd.xml"
Document not parsed successfully.
EDID readings:
Plug and Play ID: DEL426A [VESA standard monitor]
Input type: Analog
...
= VESA standard monitor
...
> Input settings
> Input sources
> id=inputsource, name=Input Source Select (Main), address=0x60, delay=-1ms, type=2
Possible values:
> id=analog - name=Analog, value=1
> id=digital - name=Digital, value=3
supported, value=3855, maximum=14
...
와 같이 연결된 모니터 정보가 인식된다.
이중, 중요한 것이, 연결되어 있는 디바이스 정보인데, 여기에선 /dev/i2c-6으로 되어 있다. 또, Input sources를 설정하는 레지스터 주소가 0x60으로 되어 있는 것을 알 수 있다.
이제 0x60에 특정한 값을 넣으면, 해당되는 입력 소스로 전환할 수 있다는 것인데… 이 특정한 값이 무엇인지를 파악해야 하는데, 역시 검색해보면 답이 바로 나온다.
새로 만든 개발용PC에 사용할 모니터를 고민하다가, Dell U2723QE 모니터로 결정하고 구입하였음.
Dell UltraSharp 27 4K USB-C 허브 모니터 – U2723QE
화질이야 어짜피 IPS 패널 정도면, 큰 무리는 없을듯 하고… 27인치냐 32인치냐를 한참 고민했었는데… 27인치에서 4k를 Native 해상도로 사용하기엔 살짝 무리가 있고, 32인치는 Native 해상도로 사용하기엔 큰 문제가 없는데, 맥북 등에서 레티나 해상도로 사용하면 글자가 엄청나게 커지니… 또 책상의 크기도 반영하여 27인치로 결정
또 하나 재밌는 기능이 포함되어 있는데, KVM 기능이 내장되어 있음. 모니터 하나를 가지고 2대의 PC에서 사용할 수 있는 기능인데, 모니터의 입력 소스를 선택하면 해당되는 PC로 키보드와 마우스를 자동으로 전환해 줌. 따라서 편하게 메인PC를 사용하다가 노트북을 붙여서 사용할 때도 큰 무리없이 함께 사용 가능. Good!
가격은 공식 홈페이지에선 이상한 가격으로 되어 있는데, 대충 799,000원이 공식 가격인듯… (할인은 얄짤도 없다는…)
여러가지 이유로 윈도우에서 접속되어 있는 외부네트웍을 접속하고, 또 외부에서 WSL2 안의 시스템에 접속하고 싶을 때가 있는데, 이때는 WSL2의 Bridge 기능을 사용하면 된다.
먼저 Hyper-V 매니저를 설치하고, 실행한다. Windows 추가 기능 관리자를 사용하여 설치할 수 있다.
설치하고, 재부팅을 완료한 이후에, Hyper-V 매니저를 실행하면, 다음과 같이 보일텐데…
메뉴의 Action > Virtual Switch Manager를 실행한다.
이제 New virtual network switch를 클릭고, 외부 네트웍에 브릿지 해야 하므로 External를 선택한 후, Create Virtual Switch를 클릭한다.
이름은 적당히 입력하고 (나중에 사용해야 하므로 적당히…), Connection Type에서 External Network를 선택하고, 현재 외부망에 연결되어 있는 네트웍카드를 선택한다. (예시의 경우엔, 현재 노트북을 이용하여 무선랜으로 외부망에 접속중이므로, 무선랜카드를 선택하였음.)
Apply를 눌러 적용한다.
자, 이제 현재 사용자의 홈디렉토리에 .wslconfig 파일을 생성하고, 다음과 같이 입력한 후, 저장한다.
[WSL2]
networkingMode = bridged
vmSwitch = New Virtual Switch
vmSwitch의 이름은 아까 전 단계에서 생성했던 Virtual Network Switch 이름을 입력하면 된다.
PS C:\WINDOWS\system32> usbipd wsl list
BUSID VID:PID DEVICE STATE
2-1 27c6:533c Goodix fingerprint Not attached
2-5 0c45:6a0c Integrated Webcam Not attached
2-13 10c4:ea60 Silicon Labs CP210x USB to UART Bridge (COM3) Not attached
2-14 8087:0026 Intel(R) Wireless Bluetooth(R) Not attached
3-2 2188:6533 CalDigit Thunderbolt 3 Audio, USB Input Device Not attached
4-2 0853:0148 USB Input Device Not attached
4-8 2188:0747 USB Mass Storage Device Not attached
9-1 046d:c539 USB Input Device Not attached
9-2 413c:b080 Dell DA20 Adapter Not attached
와 같이 현재 윈도우PC에 연결된 USB 장치 리스트들이 보임. 오른쪽에는 현재 WSL에 연결되어 있는지 여부가 표시됨.
WSL2의 Ubuntu 20.04를 실행하고, 다음과 같이 usbipd 클라이언트 패키지를 설치한다.
...
[ 981.156497] vhci_hcd vhci_hcd.0: pdev(0) rhport(0) sockfd(3)
[ 981.157731] vhci_hcd vhci_hcd.0: devid(131085) speed(2) speed_str(full-speed)
[ 981.159973] vhci_hcd vhci_hcd.0: Device attached
[ 981.438826] vhci_hcd: vhci_device speed not set
[ 981.508832] usb 1-1: new full-speed USB device number 3 using vhci_hcd
[ 981.588445] vhci_hcd: vhci_device speed not set
[ 981.658522] usb 1-1: SetAddress Request (3) to port 0
[ 981.730925] usb 1-1: New USB device found, idVendor=10c4, idProduct=ea60, bcdDevice= 1.00
[ 981.731956] usb 1-1: New USB device strings: Mfr=1, Product=2, SerialNumber=3
[ 981.732837] usb 1-1: Product: CP2102 USB to UART Bridge Controller
[ 981.733628] usb 1-1: Manufacturer: Silicon Labs
[ 981.734221] usb 1-1: SerialNumber: 0001
[ 981.744934] cp210x 1-1:1.0: cp210x converter detected
[ 981.751507] usb 1-1: cp210x converter now attached to ttyUSB0
와 같이 정상적으로 연결되고, /dev에 장치가 생성됨을 볼 수 있음. 연결을 해제하려면 파워쉘에서
자세한 문법은 https://www.thegeekdiary.com/beginners-guide-to-udev-in-linux/를 참고하면 될듯.
팁.
USB 장치의 경우, idProduct, idVendor 등의 번호가 동일한 제품이 존재할 수 있는데, 이때는 ID_USB_INTERFACE_NUM를 사용하면, USB 허브 및 포트에 꼽힌 순서대로 인덱싱 번호를 얻을 수 있다. 이를 이용하면, 해당되는 장치에 대한 설정 가능
예전부터 이상하게 이쁜 공구만 나오면 수집하는 취미가 있는데, 인터넷 서핑 중 이쁜 드라이버 세트를 발견! 게다가 토크 조절도 가능하단다!!?!? 원래는 킥스타터 등 클라우드 펀딩에서 성공적으로 데뷔하고, 현재는 ARRORMAX에서 판매하고 있음. 주문하면 거의 그 즉시 쉬핑되긴하는데, 코로나 시국이라 그런지 DHL 배달이 살짝 느린 기분.
가격이 살짝 나가긴 하지만 일단 주문하고, 기다렸다가 얼마전에 받고 개봉 완료.. 외부 포장 케이스는 아래와 같고,
실제로 갖고 다닐 케이스는 회색 계열의 알루미늄 케이스이고, 드라이버가 살짝 보이게끔 되어 있음.
드라이버 비트는 총 34개가 들어 있고, 특성상 큰 크기의 비트는 존재하지 않음. 기계쪽보단 보드나 작은 전자제품 용도로만 사용해야 할 듯. 전원을 키고, 회전 동작에 따라 드라이버 비트가 회전하고 (처음에 살짝 헷갈림), 정해진 토그 이상이 부하 걸리면 멈춤.
$ cpufreq-info
cpufrequtils 008: cpufreq-info (C) Dominik Brodowski 2004-2009
Report errors and bugs to cpufreq@vger.kernel.org, please.
analyzing CPU 0:
driver: intel_pstate
CPUs which run at the same hardware frequency: 0
CPUs which need to have their frequency coordinated by software: 0
maximum transition latency: 4294.55 ms.
hardware limits: 800 MHz - 5.10 GHz
available cpufreq governors: performance, powersave
current policy: frequency should be within 3.00 GHz and 5.10 GHz.
The governor "performance" may decide which speed to use
within this range.
current CPU frequency is 4.91 GHz.
analyzing CPU 1:
driver: intel_pstate
CPUs which run at the same hardware frequency: 1
CPUs which need to have their frequency coordinated by software: 1
maximum transition latency: 4294.55 ms.
hardware limits: 800 MHz - 5.10 GHz
available cpufreq governors: performance, powersave
current policy: frequency should be within 3.00 GHz and 5.10 GHz.
The governor "performance" may decide which speed to use
within this range.
current CPU frequency is 4.73 GHz.
위와 같이 performance 모드로 셋팅되어 있고, CPU frequency가 올라가 있음을 확인할 수 있음.
여러개의 터미널은 tmux로도 해결이 가능하지만, 작업을 수행해 놓고 ssh 접속만 끊고 싶다면 screen이 해결 방법이 될 수 있음.
설치
$ sudo apt install screen
별다른 설정은 필요하지 않고, 단순히 명령만 입력하면 실행. 옵션이 다음과 같이 있지만, 몇 개만 알면 사용하는데는 문제 없음.
$ screen -h
Use: screen [-opts] [cmd [args]]
or: screen -r [host.tty]
Options:
-4 Resolve hostnames only to IPv4 addresses.
-6 Resolve hostnames only to IPv6 addresses.
-a Force all capabilities into each window's termcap.
-A -[r|R] Adapt all windows to the new display width & height.
-c file Read configuration file instead of '.screenrc'.
-d (-r) Detach the elsewhere running screen (and reattach here).
-dmS name Start as daemon: Screen session in detached mode.
-D (-r) Detach and logout remote (and reattach here).
-D -RR Do whatever is needed to get a screen session.
-e xy Change command characters.
-f Flow control on, -fn = off, -fa = auto.
-h lines Set the size of the scrollback history buffer.
-i Interrupt output sooner when flow control is on.
-l Login mode on (update /var/run/utmp), -ln = off.
-ls [match] or
-list Do nothing, just list our SockDir [on possible matches].
-L Turn on output logging.
-Logfile file Set logfile name.
-m ignore $STY variable, do create a new screen session.
-O Choose optimal output rather than exact vt100 emulation.
-p window Preselect the named window if it exists.
-q Quiet startup. Exits with non-zero return code if unsuccessful.
-Q Commands will send the response to the stdout of the querying process.
-r [session] Reattach to a detached screen process.
-R Reattach if possible, otherwise start a new session.
-s shell Shell to execute rather than $SHELL.
-S sockname Name this session .sockname instead of ...
-t title Set title. (window's name).
-T term Use term as $TERM for windows, rather than "screen".
-U Tell screen to use UTF-8 encoding.
-v Print "Screen version 4.08.00 (GNU) 05-Feb-20".
-wipe [match] Do nothing, just clean up SockDir [on possible matches].
-x Attach to a not detached screen. (Multi display mode).
-X Execute as a screen command in the specified session.
실행시 screen 세션 이름 설정하기. 기본으로 부여되는 이름이 있지만 외우기 어려우므로, 사용자가 직접 지정 가능.
$ screen -S <session-name>
실행되어 있는 상태에서 세션과의 연결 끊기
Ctrl + A, d
실행되어 있는 세션에 다시 연결하기
$ screen -r <session-name>
실행되어 있는 세션 리스트 보기
$ screen -ls
팁.
screen를 실행해서 들어가면, 터미널 설정이 변경되어 PS1이 리셋되는 현상이 있는데, 이를 방지하려면 ~/.screenrc 파일에 다음과 같이 입력
$ vi ~/.screenrc
term screen-256color
screen를 실행하면, 이전 화면을 보는게 지원안됨. screen 내부 명령으로 해결해야 되는데,
> wsl --set-version Ubuntu-20.04 2 Conversion in progress, this may take a few minutes… For information on key differences with WSL 2 please visit https://aka.ms/wsl2 Conversion complete.
이 Repository의 printf.h, printf.c 파일을 해당 프로젝트에 추가하고, printf.h를 인클루드하여 사용.
사용자의 환경에 따라 _putchar 함수를 구현하면 됨.
void _putchar(char c)
{
/* Place your implementation of fputc here */
/* e.g. write a character to the EVAL_COM1 and Loop until the end of transmission */
HAL_UART_Transmit(&huart1, (uint8_t) &c, 1, 0xFFFF);
}
Ubuntu에서 시리얼 통신이나 기타 USB 디바이스를 이용할 경우, 기본 권한 및 퍼미션이 슈퍼 유저만 사용 가능하도록 설정되어있다. 따라서 매번 sudo 명령을 이용해 사용자 프로그램을 실행하거나, sudo chmod 명령으로 일반 사용자도 읽고 쓸수 있도록 설정해줘야 한다.
먼저 /dev/tty* 에 대한 권한 및 퍼미션 해결 방법. 사용자 계정을 dialout, tty 그룹에 추가해 준다.
$ sudo usermod -a -G dialout $USER
$ sudo usermod -a -G tty $USER
다음으로 USB 디비이스에 대한 해결 방법.
udev 룰을 추가해준다.
/etc/udev/rules.d 디렉토리에 안에 임의의 룰 파일을 생성해준다. 보통 앞의 숫자는 우선 순위이고, 확장자는 .rules 를 사용한다.
$ python3 Python 3.8.5 (default, Jul 28 2020, 12:59:40) [GCC 9.3.0] on linux Type "help", "copyright", "credits" or "license" for more information. import tensorflow as tf 2020-10-08 15:02:50.803732: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcudart.so.10.1 tf.config.list_physical_devices('GPU') 2020-10-08 15:03:01.717511: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcuda.so.1 2020-10-08 15:03:01.733336: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:982] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero 2020-10-08 15:03:01.733585: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1716] Found device 0 with properties: pciBusID: 0000:01:00.0 name: GeForce GTX 1650 computeCapability: 7.5 coreClock: 1.56GHz coreCount: 16 deviceMemorySize: 3.82GiB deviceMemoryBandwidth: 119.24GiB/s 2020-10-08 15:03:01.733603: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcudart.so.10.1 2020-10-08 15:03:01.734679: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcublas.so.10 2020-10-08 15:03:01.735901: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcufft.so.10 2020-10-08 15:03:01.736061: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcurand.so.10 2020-10-08 15:03:01.737163: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcusolver.so.10 2020-10-08 15:03:01.737773: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcusparse.so.10 2020-10-08 15:03:01.740221: I tensorflow/stream_executor/platform/default/dso_loader.cc:48] Successfully opened dynamic library libcudnn.so.7 2020-10-08 15:03:01.740295: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:982] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero 2020-10-08 15:03:01.740563: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:982] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero 2020-10-08 15:03:01.740768: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1858] Adding visible gpu devices: 0 [PhysicalDevice(name='/physical_device:GPU:0', device_type='GPU')]
$ sudo docker run hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
0e03bdcc26d7: Pull complete
Digest: sha256:6a65f928fb91fcfbc963f7aa6d57c8eeb426ad9a20c7ee045538ef34847f44f1
Status: Downloaded newer image for hello-world:latest
Hello from Docker!
This message shows that your installation appears to be working correctly.
To generate this message, Docker took the following steps:
1. The Docker client contacted the Docker daemon.
2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
(amd64)
3. The Docker daemon created a new container from that image which runs the
executable that produces the output you are currently reading.
4. The Docker daemon streamed that output to the Docker client, which sent it
to your terminal.
To try something more ambitious, you can run an Ubuntu container with:
$ docker run -it ubuntu bash
Share images, automate workflows, and more with a free Docker ID:
https://hub.docker.com/
For more examples and ideas, visit:
https://docs.docker.com/get-started/
Add user to docker group for execute without sudo command
보드를 구입한 본래의 목적이었던 TouchGFX를 사용하기 위해서 프로젝트 생성. 여러가지 유투브나 문서를 찾아봤지만, 한번에 매끄럽게 되는건 없는듯하다. ST에서 TouchGFX를 인수하였다곤 하지만 하나의 개발도구로 합치는데는 꽤 시간이 걸릴듯 한데… 뭐 그거야 나중 일이고.. 일단은 프로젝트를 생성하고 개발하기 위한 준비단계까지는 되어야 하니….
프로젝트 생성은 예전 데모와 마찬가지로 File > New > STM32 Project 로 시작한다. 보드도 역시 현재 보유한 32F746GDISCOVERY를 선택하고 다음으로 진행.
프로젝트 이름을 입력하고, 개발 언어는 C++로 선택. Finish를 선택하여 생성 시작. 이후 나오는 다이얼로그창에선 모두 Yes로 답하면 됨.
예전 데모와 같이 디바이스 설정을 위한 화면이 나타나면… 이제부터 설정 시작. (앞선 포스팅에선 편하다고 했었는데, 편하긴 개뿔… 좀더 한방에 되면 얼마나 좋아….)
(1) System Core > CORTEX_M7
(2) Connectivity > ETH
(3) Connectivity > QUADSPI
(4) Multimedia > LTDC
(5) TouchGFX 관련
이건 먼저, Additional Software를 클릭하고, 다음의 화면과 같이 TouchGFX를 선택.
그러면, 좌측에 Additional Software 탭과, TouchGFX 관련 설정 항목이 생성됨. Graphics Application를 체크하고 다음과 같이 설정.
(6) Middleware > FREERTOS
스택크기만 4096으로 변경.
이제 Project > Generate Code (Alt+K)를 실행하여 코드 생성. 생성이 완료되면, 프로젝트 창이 다음과 같이 되어야 함.
이제 TouchGFX의 ApplicationTemplate.touchgfx.part를 더블클릭하여 TouchGFX 디자이너를 실행한다. 만약 기존에 설치가 안되어있을 경우, 홈디렉토리 아래의 다음 주소를 가보면, 설치 파일이 존재한다.
메인 개발도구는 윈도우, 맥, 리눅스 등을 지원하고 있지만, TouchGFX 관련한 툴은 아직까진 윈도우만 지원합니다. 그래서 어쩔수 없이 윈도우에서 개발을 진행해야 할 듯 합니다. (윈도우 싫어요~~)
ST에선 자사의 다양한 MCU 및 보드들의 개발을 위해 통합 개발 도구를 지원하고 있습니다. (꾸준히 업데이트 되고 있는 듯 합니다.) https://www.st.com/en/development-tools/stm32cubeide.html 에 가보시면 받으실 수 있고, 메일을 통한 인증을 하셔야 합니다. 다운로드한 en.st-stm32cubeide_1.3.0_5720_20200220_1053_x86_64.exe.zip 파일을 압축을 해제하고 설치를 진행합니다.
특별한 설정없이 다음, 다음 진행하면서 설치하면 끝납니다.
바탕화면의 아이콘이나 시작메뉴에서 설치한 프로그램을 실행하면 처음엔 프로젝트들이 위치할 곳을 선택하도록 나오는데, 적절한 곳을 입력해주시고요,
시작화면이 짜잔 나타납니다. 이클립스를 기반으로 만들어진 툴인듯한데… 불편하네요..ㅎㅎ
어쨌든 툴의 자동 업데이트도 지원해주고 있습니다.
프로젝트를 하나 만들어보겠습니다.
상단의 메뉴에서 File > New > STM32 Project를 누르시거나 시작화면에서 Start new STM32 Project를 누르셔서 프로젝트를 만들어봅니다.
그러면 요렇게 창이 하나 뜹니다. 저는 STM32F746G-DISCO 보드를 사용할 예정이므로, 상단의 탭에서 Board Selector를 선택하고 STM32F746G-DISCO 보드를 찾아 클릭하고 다음으로 진행.
프로젝트의 이름을 입력하고, 개발언어는 C++로 선택합니다. 이렇게 만들어진 프로젝트는 처음 실행시 설정하였던 workspace 디렉토리 아래에 추가됩니다.
모든 주변기기들의 설정을 기본모드로 할것인지를 물어보는데, 당연히 Yes.
현재 개발툴 (이클립스)의 뷰를 STM32CubeMx 모드로 보여줄건지를 물어봅니다. 요것도 당연히 Yes.
이것저것 준비를 하면서 프로젝트 생성 중.
이렇게 짠 하고 나타납니다. 개발자들은 이렇게 기본 밥상이 차려진 상태에서 필요한 부분만 추가하여 빌드하고 이를 보드에 다운로드해서 사용하면 됩니다. (음.. 일단은 좀 많이 편해진듯…)
보드가 동작되는지 확인용으로… LED를 한번 깜빡여줘보겠습니다…
기본적으론 FREERTOS가 돌아가고 있는 상태이므로 LED 깜빡이용 Task를 하나 생성해줍니다.
프로젝트 파일을 선택하고, Middleware > FREERTOS를 선택합니다. 그런 다음 Task and Queues를 선택하면, 현재는 하나의 Task만 생성되어 실행되고 있습니다. Add 버튼을 누르고, 다음과 같이 입력한 후, 메뉴 > Project > Generate Code (Alt+K)를 실행합니다.
프로젝트의 main.c 파일을 가보면,
StartTaskBlinky 함수가 만들어져 있는데, 이곳에 위와 같이 코드를 입력해줍니다.
/* USER CODE BEGIN StartTaskBlinky */
GPIO_InitTypeDef gpioInitStructure;
gpioInitStructure.Pin = GPIO_PIN_1;
gpioInitStructure.Mode = GPIO_MODE_OUTPUT_PP;
gpioInitStructure.Pull = GPIO_PULLUP;
gpioInitStructure.Speed = GPIO_SPEED_HIGH;
HAL_GPIO_Init(GPIOI, &gpioInitStructure);
/* Infinite loop */
for(;;)
{
osDelay(200);
HAL_GPIO_TogglePin(GPIOI, GPIO_PIN_1);
}
/* USER CODE END StartTaskBlinky */
대략, 200ms 마다 GPIOI의 1번 핀을 토글 시켜주라는 건데, 현재 보드에는 그 핀에 LED가 연결되어 있습니다.
이제 프로젝트를 빌드하고… Run > Run를 클릭하면 자동으로 보드에 빌드된 펌웨어를 다운으로 하고 보드를 리셋해줍니다. 보드가 리셋되고, FREERTOS가 가동되는데 살짝의 시간이 지나고나면, 보드 뒷면의 LED가 깜빡임을 볼 수 있습니다.
Device name : STM32F74x/STM32F75x
Flash size : 1 MBytes
Device type : MCU
Device CPU : Cortex-M7
Memory Programming ...
Opening and parsing file: ST-LINK_GDB_server_a10660.srec
File : ST-LINK_GDB_server_a10660.srec
Size : 76388 Bytes
Address : 0x08000000
Erasing memory corresponding to segment 0:
Erasing internal memory sectors [0 2]
Download in Progress:
File download complete
Time elapsed during download operation: 00:00:01.944
Verifying ...
Download verified successfully
Debugger connection lost.
Shutting down...
로봇용 간단한 UI 모듈을 개발하는데 괜찮을듯 하여 주문한 제품, 깊고 복잡하게 들어가긴 좀 귀찮아 가장 예제가 많은 보드를 골라서 주문하였습니다. (후딱 개발하고 끝내기) 가격은 대략 8~9만원 정도이고, 흔하게 구할 수 있습니다. 거의 대부분 기능을 테스트 할 수 있도록 주변 소자들도 많이 들어있고, 전면부에는 큼지막한 5인치 터치 LCD가 붙어 있는데, 해상도가 480×272라서 약간 아쉬운 면은 있습니다. 뭐.. 필요하면 교체해서 써도 될듯 하고요…
가장 사용해보고 싶은 부분은 TouchGFX라는 녀석인데, ST에서 얼마전(아니면 한참전?)에 인수하여, 현재는 개발툴을 통합하는 과정에 있는듯 합니다. (검색해보니 버그도 많긴 합니다만.. 뭐 그런거야 개발자에겐 흔한….)
“eDP-1-1” 이 모니터 이름입니다. 터미널에서 명령을 입력하여 밝기가 조정이 되는지 확인해봅니다.
$ xrandr --output eDP-1-1 --brightness 0.5
정상적으로 밝기가 반정도 어두워지는 것을 확인할 수 있습니다. 0으로 하면 완전 검은색으로 변하니 주의하시고요. 이제 이것을 스크린 밝기를 조정하는 키와 맵핑을 해줘야 합니다.
두 개의 파일을 만들어줍니다.
$ sudo vi /etc/acpi/events/dell-brightness-up
event=video/brightnessup BRTUP 00000086 00000000
action=/etc/acpi/dell-brightness.sh up
$ sudo vi /etc/acpi/events/dell-brightness-down
event=video/brightnessdown BRTDN 00000087 00000000
action=/etc/acpi/dell-brightness.sh down
그런 다음 dell-brightness.sh 를 위 경로에 만들어줍니다.
$ sudo vi /etc/acpi/dell-brightness.sh
#!/bin/bash
DISPLAYNAME=$(xrandr --listmonitors | awk '$1 == "0:" {print $4}')
OLED_BR=`xrandr --verbose | grep -i brightness -m 1 | cut -f2 -d ' '`
CURR=`LC_ALL=C /usr/bin/printf "%.*f" 1 $OLED_BR`
MIN=0
MAX=1.0
if [ "$1" = "up" ];
then
VAL=`echo "scale=1; $CURR+0.1" | bc`
else
VAL=`echo "scale=1; $CURR-0.1" | bc`
fi
if [ `echo "$VAL < $MIN" | bc -l` = "1" ];
then
VAL=$MIN
elif [ `echo "$VAL > $MAX" | bc -l` = "1" ];
then
VAL=$MAX
else
`xrandr --output $DISPLAYNAME --brightness $VAL` 2>&1 >/dev/null | logger -t oled-brightness
fi
# Set Intel backlight to fake value
# to sync OSD brightness indicator to actual brightness
INTEL_PANEL="/sys/devices/pci0000:00/0000:00:02.0/drm/card0/card0-eDP-1/intel_backlight/"
if [ -d "$INTEL_PANEL" ]; then
PERCENT=`echo "scale=4; $VAL/$MAX" | bc -l`
INTEL_MAX=$(cat "$INTEL_PANEL/max_brightness")
INTEL_BRIGHTNESS=`echo "scale=4; $PERCENT*$INTEL_MAX" | bc -l`
INTEL_BRIGHTNESS=`LC_ALL=C /usr/bin/printf "%.*f" 0 $INTEL_BRIGHTNESS`
echo $INTEL_BRIGHTNESS > "$INTEL_PANEL/brightness"
fi
최근 Dell XPS 15 7590을 업무용으로 사용하게 되었는데, 기존 외장 USB 드라이브에 Ubuntu를 설치하고 사용하는데 약간의 차이가 생겨, 이에 대한 기록 차원에서 정리.
가장 큰 차이는 더이상 델의 최신 버전 노트북에선 Legacy External Boot가 지원되지 않는다고 합니다. 대략 찾아보니 보안 관련, 32bit에 대한 지원 종료 (64bit만 사용) 등의 이유로 그렇게 된 듯 합니다. 따라서 BIOS 화면에서도 이에 관한 옵션이 사라져 있습니다. 델 상담원이랑 채팅을 통해 상담했는데 그렇다고 하네요.
이에 따라 Grub를 이용해서 부팅하던 USB 설치 스틱도 써먹을 수가 없었는데, 이는 Ubuntu에 내장된 Startup Disk Creator 어플리케이션을 사용하여 쉽게 새로운 설치 스틱을 만들수 있습니다.
이와 같은 상황으로 기존 BIOS에서 Secure Boot 옵션을 껐던 적이 있었는데, 이젠 그것은 그냥 켜두시면 됩니다. (보안에 좋답니다. ㅎㅎㅎ)
Ubuntu 설치디스크로 부팅하시고 설치는 그냥 진행 하시되, 파티션 설정 부분에서 기존 /boot로 설정했던 파티션을 EFI 파티션으로 변경해야 합니다. 부트로더 설치할 디스크는 여전히 사용할 외장 USB 드라이브를 선택하시면 되고요. 그렇게 되면 파티션 설정은
Device Boot Start End Sectors Size Id Type
/dev/sda1 * 65535 3932099 3866565 1.9G ef EFI (FAT-12/16/32)
/dev/sda2 3932100 456385739 452453640 215.8G 83 Linux
/dev/sda3 456385740 488366819 31981080 15.3G 82 Linux swap / Solaris
와 같이 될겁니다.
이후 설치가 완료되고, 재부팅을 한 다음 로고가 나올때 F12키를 연타해보면, UEFI 리스트에 외장 USB 드라이브의 이름이 나오고, 이를 선택하면 잠시 검은색 화면이 나오고 재부팅되는데….
다시 F12키로 부팅리스트를 보면 ubuntu라는 UEFI가 추가로 생성됨을 볼수 있습니다. 이제 이것을 선택하면 정상적으로 부팅됩니다.
이제 사용하면 끝.!
덧:
화면 밝기가 조정이 안됩니다. 하지만 이는 버그인듯하여 쉽게 수정이 될듯 합니다.
기존 말썽을 부리던 Killer WiFi 카드의 드라이버가 그냥 잡힙니다. 하지만 성능은 여전히 구립니다.
이전에 사용하던 Dell XPS 15 9570에서 고질적으로 발생하던 스크린 Flickering 현상은 새로운 모델에선 나타나지 않습니다.
4K 등 HiDPi 환경에서 Ubuntu에 apt나 Ubuntu Software를 이용해 앱을 설치한 후 이를 실행을 하게 되면 레이아웃이 보기 싫게 깨지는 경우가 있다. Gtk 환경의 앱은 어느 정도 자체적으로 지원이 되는듯 한데, Qt 환경의 앱은 그러지 않는데, QT_AUTO_SCREEN_SCALE_FACTOR 환경 변수를 설정하면 쉽게 적용이 가능하다.
예를 들어, 스크린 녹화 앱인 vokoscreen의 경우 설치한 후에 실행을 하게 되면,
와 같이 되는데 (스크린샹으론 잘 구별이 되진 않지만….), QT_AUTO_SCREEN_SCALE_FACTOR 환경 변수를 설정한 후 실행하면,
와 같이, UI 레이아웃의 비율이 원래와 같이 나옴을 볼 수 있다.
수정하는 방법은 각 앱의 desktop 파일을 검색하고, (보통은 /usr/share/applications 디렉토리에 있음) 편집기를 이용해 해당되는 앱의 desktop 파일을 다음과 같이 수정한다.
Gazebo 11이 지난 달에 릴리즈 되었습니다. 이 버전이 Gazebo의 마지막 릴리즈 버전이고, 이후론 지원 기간까지 새로운 기능보단, 주로 버그 수정 등만 지원됩니다. 새로운 Ignition Gazebo가 나올 예정인데, 이는 Ignition Robotics라는 곳에서 업데이트 등을 지원할 예정입니다.
현재의 ROS의 최근 LTS 버전은 Melodic으로, 공식적으론 Gazebo 9만 지원합니다. 따라서 Gazebo 11을 사용하기 위해선 ROS와 연동하기 위한 패키지들을 새로 빌드해줘야 합니다.
ROS1 Melodic이 설치된 상태에서, Gazebo 11을 설치하려면 패키지의 의존성 등을 고려하여 다음과 같이 입력합니다.
RGB-D 카메라 중, 최근 많이 사용되고 있는 인텔 리얼센스 D400 시리즈 중 D435 모델을 사용하고 있다. 대부분 ROS를 이용해서 사용하는만큼 그냥 기본 옵션을 주로 사용하고 있었는데, 최근 카메라 관련 자료를 찾아보다가 위의 링크의 문서를 보게 되었다.
결론부터 알아보면, 카메라의 스펙을 고려하여 그에 해당하는 옵션을 선택해서 사용하는 것이 가장 좋은 품질의 Depth 데이터를 얻을수 있다는 얘기다.
Depth의 해상도는 848×480으로 한다. (D415의 경우 1280×720) 그 이외의 해상도를 선택하면 저 해상도를 기준으로 하여 스케일링한 후 출력을 내보내는 듯 하다. 만약 사용하려는 알고리즘의 성능을 고려하여 해상도를 낮춰야 한다면, 저 native 해상도로 받은 후, 후처리를 통해 해상도를 낮추는 것을 더 추천한다고 한다. (흐음~)
카메라를 사용하는 환경의 조명을 개선한다. (조명 조건이 좋을수록 Depth 데이터의 품질도 좋아진다.
사용하려는 물체의 위치를 카메라에 가능한 가깝게 하도록 노력한다. D400 시리즈 모델의 경우 IR 패턴광을 사용하여 Depth 정보를 계산하는만큼, 거리가 멀어지면 멀어질수록 오차는 기하급수적으로 심해진다.
여러 개의 카메라를 사용한다. (이건 좀 이해가 안가는데…) 암튼 FOV를 커버하기 위해서 여러 개의 카메라를 사용하는 것을 추천한다. D400 시리즈의 경우 여러개의 카메라를 사용해도 상관이 없고, 만약 하드웨어 동기화 기능을 사용할 경우, 카메라에 위치한 별도의 커넥터를 사용하여 연결하면, master-slave 관계를 설정하여 사용 가능하다.
$ tar zxf opencv-4.2.0.tar.gz
$ tar zxf opencv_contrib-4.2.0.tar.gz
CMake configuration
$ cd opencv-4.2.0
$ mkdir build
$ cd build
$ cmake -DOPENCV_EXTRA_MODULES_PATH=../../opencv_contrib-4.2.0/modules -DWITH_CUDA=ON -DBUILD_EXAMPLES=ON -DCMAKE_BUILD_TYPE=Release ..
Build
$ make -j8
It takes 15 ~ 20 minutes. And install,
$ sudo make install
Check installations
$ opencv_version
4.2.0
$ python3
Python 3.6.9 (default, Nov 7 2019, 10:44:02)
[GCC 8.3.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import cv2
>>> cv2
<module 'cv2' from '/usr/local/lib/python3.6/dist-packages/cv2/python-3.6/cv2.cpython-36m-x86_64-linux-gnu.so'>
>>>
$ python3
Python 3.6.9 (default, Nov 7 2019, 10:44:02)
[GCC 8.3.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorflow as tf
2020-01-17 00:54:07.956548: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libnvinfer.so.6
2020-01-17 00:54:07.957808: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libnvinfer_plugin.so.6
>>>
>>> tf.config.list_physical_devices('GPU')
2020-01-17 01:06:54.209819: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcuda.so.1
2020-01-17 01:06:54.244560: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:981] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2020-01-17 01:06:54.244971: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1555] Found device 0 with properties:
pciBusID: 0000:68:00.0 name: GeForce RTX 2080 Ti computeCapability: 7.5
coreClock: 1.545GHz coreCount: 68 deviceMemorySize: 10.76GiB deviceMemoryBandwidth: 573.69GiB/s
2020-01-17 01:06:54.245001: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcudart.so.10.1
2020-01-17 01:06:54.245027: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcublas.so.10
2020-01-17 01:06:54.246771: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcufft.so.10
2020-01-17 01:06:54.247101: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcurand.so.10
2020-01-17 01:06:54.248591: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcusolver.so.10
2020-01-17 01:06:54.249448: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcusparse.so.10
2020-01-17 01:06:54.249496: I tensorflow/stream_executor/platform/default/dso_loader.cc:44] Successfully opened dynamic library libcudnn.so.7
2020-01-17 01:06:54.249579: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:981] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2020-01-17 01:06:54.249978: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:981] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2020-01-17 01:06:54.250314: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1697] Adding visible gpu devices: 0
[PhysicalDevice(name='/physical_device:GPU:0', device_type='GPU')]
Qt 관련 환경 변수 중, 위와 비슷한 QT_SCALE_FACTOR도 있는데, 이는 폰트 크기를 포함한 모든 UI 컴포넌트를 조정한다. 또한 QT_SCREEN_SCALE_FACTORS 도 있는데, 이는 QT_AUTO_SCREEN_SCALE_FACTOR와 유사하게 동작하고, 사용자가 Scale Factor를 임의로 조정할 수 있다.
이전엔 DigitalOcean의 VPS에 LEMP (Nginx, MySQL, PHP)를 설치하고, 여기에 WordPress를 설치해서 사용하고 있었는데, 막상 사용하다보니 해외서버라서 그런지 좀 느렸다.Amazon Lightsail 역시 VPS로 아마존 서버를 사용하고, 서울에 있는 서버를 사용하니 꽤 빠르더라. 그리고 같은 가격에 DigitalOcean의 같은 가격대의 상품보단 쪼~~~~끔 더 나았고.
맥북, 아이패드, 아이폰 등에서 파일 및 데이터를 공유하여 사용하기 위해서 iCloud Drive를 사용 중입니다. 요 근래 맥북에 업데이트되는 과정에서 iCloud Drive의 데이터가 동기화되지 않거나, 특정 프로그램에서 링크가 깨지는 등의 증상이 나타나서 해결책을 찾아보았습니다.
에러증상 #1
“documents” can’t be opened because the original item can’t be found
에러증상 #2
맥북의 iCloud Drive의 파일과 다른 기기와의 파일 리스트가 서로 다름
이를 해결하기 위해선,
먼저 ~/Library/Application Support/CloudDocs 폴더를 지운다. 그리고, bird, cloudd 프로세스를 중지한다.
현재 작업용으로 델 XPS15 9570 모델을 사용하고 있습니다. 처음 Ubuntu를 설치하여 사용할 때는 큰 문제는 없었는데, 최근들어 Ubuntu 설치때부터 사용중에도 화면이 계속 깜빡이거나 픽셀이 깨지는 등의 에러가 발생하였습니다.
덧: 검색해 본 결과, i915 (인텔 그래픽 드라이버)의 문제로, 4K 모니터를 가진 인텔 랩탑에서 대부분 발생하는 문제로 보임.
마치 하드웨어 (디스플레이 부분)의 불량인듯 보였지만, 윈도우로 부팅하게되면 이런 증상은 나타나지 않았기에 서비스를 맡기기에도 애매하였는데요. 검색을 해보니 (키워드: kernel 5.0, screen flickering) 리눅스 커널이 5.0 버전으로 올라가면서 eDP (아마도 디스플레이 패널 관련) 드라이버의 코드가 변경됨에 따라 일부 LCD 패널에서 발생하는 문제라고 합니다.
It was introduced by an optimization for eDP 1.4+ (“link config fast and narrow”) in the 5.x kernel; the patch doesn’t work for some panels, including that of the XPS 15, and had to be rolled back.
이 문제를 해결하는 방법으론 커널 버전을 이를 해결한 버전으로 올려야 한다고 하는데, 찾아보고 설치해 본 결과 커널 버전을 올려도 이와 같은 문제가 해결되진 않았습니다.
다음 방법으론 커널 소스를 직접 받아, 문제되는 부분을 수정하고, 커널을 빌드하여 사용하는 방법이 있습니다. 다음의 과정은 이와 같은 과정을 정리하였습니다.
먼제 커널 빌드에 필요한 패키지를 설치합니다. (Install necessary packages)
다음으로 현재 사용중인 커널 버전의 빌드 configuration 파일을 복사해옵니다. move linux-stable directory, and copy current configuration of your current kernel.
$ cd linux-stable
$ cp /boot/config-`uname -r` .config
이제, 복사해온 configuration 파일을 현재 받은 커널 소스의 빌드 환경에 적용해 주도록 합니다. Now you have to adapt the old configuration to the new kernel.
$ yes '' | make oldconfig
이제 문제가 된 eDP 관련 소스 파일을 수정해 줍니다.
$ vi drivers/gpu/drm/i915/display/intel_dp.c
대략 2120번 라인으로 가보면, intel_dp_compute_link_config 함수 내에 다음의 라인을 수정해줍니다.
업데이트: 커널 버전이 바뀌면서 소스 파일의 위치 및 라인 변경
if (intel_dp_is_edp(intel_dp)) {
/*
* Use the maximum clock and number of lanes the eDP panel
* advertizes being capable of. The panels are generally
* designed to support only a single clock and lane
* configuration, and typically these values correspond to the
* native resolution of the panel.
*/
limits.min_lane_count = limits.max_lane_count;
limits.min_clock = limits.max_clock;
}
이 부분을,
if (false && intel_dp_is_edp(intel_dp)) {
/*
* Use the maximum clock and number of lanes the eDP panel
* advertizes being capable of. The panels are generally
* designed to support only a single clock and lane
* configuration, and typically these values correspond to the
* native resolution of the panel.
*/
limits.min_lane_count = limits.max_lane_count;
limits.min_clock = limits.max_clock;
}
와 같이 수정합니다.
이제 커널을 빌드합니다.
$ make -j8 deb-pkg
시간이 꽤 걸린 후에 빌드가 완료되면 상위 디렉토리에 몇개의 deb 파일이 생성됩니다. 이를 설치해주면 됩니다.
$ ll *.deb
-rw-r--r-- 1 byeongkyu byeongkyu 11204740 Jan 18 07:20 linux-headers-5.3.18+_5.3.18+-1_amd64.deb
-rw-r--r-- 1 byeongkyu byeongkyu 59519512 Jan 18 07:21 linux-image-5.3.18+_5.3.18+-1_amd64.deb
-rw-r--r-- 1 byeongkyu byeongkyu 841223388 Jan 18 07:26 linux-image-5.3.18+-dbg_5.3.18+-1_amd64.deb
-rw-r--r-- 1 byeongkyu byeongkyu 1057176 Jan 18 07:20 linux-libc-dev_5.3.18+-1_amd64.deb
linux-libc-dev, linux-headers, linux-image 요 세개의 패키지를 설치하고 완료된 이후 재부팅하면 적용됨을 볼 수 있습니다.
Ubuntu나 Raspbian 등 운영체제를 설치하기 위해선 해당 배포 웹페이지에서 iso 파일을 받게 된다. 보통 배포되는 웹페이지를 보면 파일과 함께 md5, sha256 파일이 같이 보여지게 되는데, 이를 이용해 내가 다운로드 받은 파일이 제대로 받아진 것인지를 확인할 수 있다.
macOS나 Ubuntu에선 기본으로 sha 관련 툴이 제공된다. 먼저 다운로드 받은 파일의 sha256 hash 코드를 확인해보려면,
$ shasum -a 256 ubuntu-18.04.3-desktop-amd64.iso
add4614b6fe3bb8e7dddcaab0ea97c476fbd4ffe288f2a4912cb06f1a47dcfa0 ubuntu-18.04.3-desktop-amd64.iso
결과로 다음과 같이 hash 코드가 생성되고 파일명을 같이 보여준다. 이를 위에서 보여졌던 SHA256SUMS 파일을 받아 비교해 보면,
$ shasum -a 256 -c SHA256SUMS.txt
ubuntu-18.04.3-desktop-amd64.iso: OK
shasum: ubuntu-18.04.3-live-server-amd64.iso:
ubuntu-18.04.3-live-server-amd64.iso: FAILED open or read
shasum: WARNING: 1 listed file could not be read
받을 파일 중 ubuntu-18.04.3-desktop-amd64.iso는 무결함을 검증하였다. 이제 안심하고 이 이미지 파일을 사용할 수 있게 된다.
$ mysql -u root -p
mysql> CREATE DATABASE <database-name> CHARACTER SET utf8 COLLATE utf8_bin;
mysql> GRANT ALL PRIVILEGES ON <database-name>.* TO '<confluenceuser>'@'localhost' IDENTIFIED BY '<password>';
기본 접근 경로는 http://<your_domain>:8090 이다. 처음 접속 시 라이센스 및 데이터베이스 관련 설정을 해야 하고, 약간의 시간이 걸리고 나면 완료.
설치형은 $10를 한번만 지불하면 된다. 물론 기술지원 (메이저 업데이트)을 위해선 1년마다 $10을 지불해야 하지만, 납득할 만한 가격인듯.
다음으로 현재 블로그에 사용하는 SSL을 이용해, 보안접속이 가능하도록 설정한다.
내부 프록시를 사용하는 방법을 사용하고, 또 현재 도메인을 이용해 <your-domain>/confluence 와 같이 시용하기 위해 몇가지 설정을 한다. 이를 위해서 nginx 설정 파일, confluence의 server.xml 파일을 수정한다.
로봇이든 다른 분야에서든 TTS (Text To Speech) 엔진이 필요할 때가 있는데, 보통은 오픈 소스로 공개된 저품질의 엔진이나, 클라우드 엔진을 사용하곤 한다. 물론 요즘 딥러닝 기술이 많이 발전하여 학습 후 실제 목소리와 비슷한 소리를 내는 것도 가능하다곤 하지만, 그건 논외로 하고….
macOS에는 NSSpeechSynthesizer라는 훌륭한 품질의 TTS 엔진 – 그것도 거의 모든 나라의 목소리가 포함되어 있는 – 이 내장되어 있다. 이를 사용하기 위해선 Swift나 ObjectC를 사용할 수도 있지만, 사용하기 쉬운 Python을 이용해서 사용도 가능하다.
먼저 필요한 패키지를 설치한다. 이를 위해 Python3, pip3가 설치되어 있어야 한다. Homebrew (https://docs.brew.sh/Installation)를 이용하면 쉽게 설치 가능하다.
$ pip3 install -U pyobjc
pyobjc 모듈은 Python과 ObjC 간 연결을 위한 것이다. pyobjc는 메타모듈로 이를 설치하면 사용에 필요한 거의 모든 모듈을 다 설치한다.
이제 Python3를 이용하여 다음의 스크립트를 실행해본다.
from AppKit import NSSpeechSynthesizer
speech = NSSpeechSynthesizer.alloc().initWithVoice_("com.apple.speech.synthesis.voice.yuna.premium")
speech.startSpeakingString_(u'안녕? 만나서 반가워요.')
한국어 유나의 목소리로 맑은 음성을 들려줄 것이다. 이외에도 제어를 위한 다양한 함수들이 존재한다.
speech.isSpeaking()
speech.stopSpeaking()
사용 가능한 목소리 리스트를 확인하려면 다음과 같이 입력한다.
>> NSSpeechSynthesizer.availableVoices()
고품질의 목소리를 미리 다운로드 받아야 한다. System Preferences > Accessibility > Speech 에서 System Voice를 선택, Customize 항목으로 들어가면 각 나라별 목소리 리스트와 다운로드 받을 수 있는 체크박스가 존재한다.
많이 알려져 있는 사실이긴 한데, (마이크로소프트가 어떤 변덕인지는 몰라도) Windows 10에서 Linux를 손쉽게 사용할 수 있게 되었다. 복잡한 설치가 필요한 것도 아니고, 그냥 Microsoft Store에서 클릭 한번이면 설치가 완료된다. 아직 Native Linux에는 좀 미치진 못하지만, 그래도 쉽게 설치하고 써볼 수 있다는게 어딘가… ㅎㅎ
마이크로소프트의 웹페이지에서 쉽게 설명하곤 있지만, 그래도 설치는 해봤으니 여기에다가 정리
설치
몇번 재부팅 과정이 필요하다. 처음 WSL 기능 활성화 할때 한번, WSL 2로 변환하기 위해 Virtual Machine Platform 기능을 활성화 하기 위해서 한번.
Power Shell을 Administrator 모드로 연다. (왼쪽 하단 돋보기 버튼을 누르고 power shell을 입력한 후, 앱 아이콘이 보이면 오른쪽 버튼을 눌러 Run as Administrator를 선택하면 된다.)
ROS를 개발하다보면 여러가지 패키지들을 사용해야 하고, 또한 오픈소스로 공개되어 있는 (주로는 github 등에서 받아오는) 패키지를 받아 빌드하여 사용해야할 경우가 생긴다.
이때 빌드하려는 패키지가 사용하는 의존 패키지들을 설치해줘야 빌드가 제대로 될 수 있는데, 이를 일일이 설치하는 것부터가 일이 되는 경우가 있다. README.md 파일에 이런 패키지들을 설치해야 합니다라고 알려주고 설치방법을 다음과 같이 패키지 리스트와 같이 알려 주는 경우도 있다.
$ sudo apt install package1 package2 ...
ROS에선 이를 쉽게 해결하기 위해서 rosdep 툴을 제공한다. rosdep이 하는 일을 보면, 여러가지 패키지들의 이름을 저장해 놓고, 각 패키지의 이름에 해당하는 시스템 패키지 명을 db로 저장하고 있는 형태이다. 기본적으론 rosdep.yaml 파일을 메인 레포지토리에서 받아와서 사용하고 있으며, 사용자가 이 파일을 수정하여 사용할 수도 있다.
각 패키지의 package.xml 파일엔 이 패키지가 의존하는 패키지들의 리스트가 저장되어 있다 (잘 만들어진 패키지라면…). rosdep은 각 패지키의 package.xml 파일을 읽어와, 의존 패키지 리스트를 만들고, 이를 위에서 설명한 db와 매칭하여 시스템 패키지를 설치하는 과정을 거친다.
ROS 패키지를 개발할 때, Topic, Service, Action을 사용할 경우, 기존 정의되어 있는 여러가지 메시지를 사용할 수도 있지만, 편의상 사용자가의 커스텀 메시지를 이용해야 하는 경우가 있다.
이때 Python으로 개발하면 별다른 문제는 없지만, C++로 만든 노드의 경우 catkin 빌드를 하게 되면 커스텀 메시지의 header 파일을 찾을 수 없다는 에러가 나온다.
Errors << dynamixel_ros_control:make /home/robot/catkin_ws/logs/dynamixel_ros_control/build.make.000.log
In file included from /home/robot/catkin_ws/src/dynamixel_ros_control/include/dynamixel_ros_control/dynamixel_hw_interface.h:9:0,
from /home/robot/catkin_ws/src/dynamixel_ros_control/src/dynamixel_ros_control_node.cpp:3:
/home/robot/catkin_ws/src/dynamixel_ros_control/include/dynamixel_ros_control/dynamixel_motor.h:11:48: fatal error: dynamixel_ros_control/HomingAction.h: No such file or directory
compilation terminated.
make[2]: *** [CMakeFiles/dynamixel_ros_control_node.dir/src/dynamixel_ros_control_node.cpp.o] Error 1
make[1]: *** [CMakeFiles/dynamixel_ros_control_node.dir/all] Error 2
make: *** [all] Error 2
몇번 빌드를 반복하다보면 에러 없이 빌드 되는 경우도 있지만 마땅한 해결 방법은 아니다. 몇번 골치를 썩다가 wiki의 투토리얼을 다시금 살펴보니 해결책이 나와있었다. 하지만 패키지를 만들때 생성되는 CMakeList.txt 파일엔 이 내용이 반영되어 있지 않아 혼란이 있는 듯 하다.
7월 3일 ~ 7월 7일에 괌으로 좀 이른 여름 휴가를 다녀왔습니다. 형 가족까지 포함하여, 총 7명 (어른4, 아이3)이 멤버였고, 이로 인해 호텔도 방 두 개를, 렌트카도 7인승 차를 빌려야 했네요.
아이들 컨디션을 적극적으로 고려하여, 일반적으로 많이 이용하시는 야간 비행보단 주간 비행 (진에어)을 이용하였습니다. 비행기 가격은 큰 차이가 없었고, 오히려 Late Check-in, Late Check-out을 이용하지 않는 아주 깔끔한 시간대였다고 생각합니다.
아침에 출발하는 비행기
7월이면 괌은 우기로 접어드는 때로, 시시때때로 소나기가 오는 기후라고 합니다만, 이번에 저희가 방문했을 때는 물놀이 할 땐 적당히 구름이 있는 날씨, 드라이브 할 땐 아주 파란 하늘을 보여줘서, 날씨 운도 좀 괜찮았습니다. 물론 덥고 습한 날씨였던건 뭐 어쩔수 없었고요.
호텔 베란다에서 보는 풍경
파란 하늘, 푸른 바다
여행 일정은 저희가 처음 괌에 가는 이유로, 많은 분들이 체험하는 코스로, 호텔 (온워드 리조트)도 그냥 무난한 곳으로 정했습니다. 실패는 하지 않는, 오히려 아이들은 충분한 물놀이로 재밌게 즐겼던 것 같습니다.
리조트 바로 옆 워터파크, 리조트 이용객은 공짜
숙소에 커다란 워터파크가 있고, 바로 앞은 맑고 푸른 바다가, 주변도 잠깐만 이동하면 식당이나 마트도 있어 편리했고, 오히려가 시내에서 살짝 거리가 있으니 사람들도 많지 않아 좋았습니다.
특히 셋째날엔 아들녀석을 위해 경비행기 조정 체험도 하였는데, 이륙부터 비행, 착륙까지 아들 녀석이 직접 조종간을 잡아 조종하였습니다. (물론 옆에서 도움주시는 조종사 분이 계시고요.) 처음엔 땀을 흘리면서 긴장하던 녀석도 시간이 지나니 엄청 재미있어하더라고요.
경비행기 타기 전
숙력된 조종사가 옆에서 보조해주면서 비행 조종 체험
총 5일의 일정 중, 하루는 렌트카를 끌고 괌 남쪽을 쭈욱 돌아봤습니다. 물론 인증샷을 위한 사진 포인트들도 이때 쭈욱 들르면 됩니다. 괌이 그리 크지 않은 섬이라서, 약 3~4시간이면 다 돌아볼만 합니다.
아마 무슨 성당?
바다 아래로 내려가는 수족관
드라이브하다가 적당한 곳에서 세운 후 본 풍경
길다가 찾은 식당
사랑의 절벽
리조트 앞 바다, 카누도 무료 대여
전반전으로 느낀 괌은 그냥 제주도 느낌이었습니다. 한국 관광객들도 많고, 한국인 업체들도 많고, 호텔 역시 한국어 서비스가 거의 기본입니다. 영어를 잘 하지 못하더라도 편하게 다녀올수 있는 휴양지라고 생각합니다. 아울렛 등에서 쇼핑도 즐길수 있고, 음식도 괜찮았습니다. 물가도 우려했던 바와는 달리 많이 비싸진 않았고요.
코드 편집기로 Visual Studio Code를 사용하고 있다. 주로 로봇의 PC에 설치하여 모니터와 키보드를 연결하고 작업을 하지만, 어느 정도 완성이 되고 나면 로봇을 동작시키면서 개발을 해야 하므로 모니터와 키보드는 더이상 연결할 수 없게 된다.
ssh를 이용하여 접속한 후 GUI를 미러링하여 사용할 수 있지만, 그렇게 되면 많이 느려지게 된다. 그래서 간단한 작업들은 터미널에서 vim을 이용하여 코드를 수정하곤 하는데, 이것저것 다수의 코드를 수정하려면 다소 힘들게 된다.
Visual Studio Code의 확장기능 중 Remote – SSH가 이럴 경우 대단히 유용한다. 로봇(또는 그냥 원격머신)의 PC에 ssh로 접속하여 그냥 로컬머신에서 vscode를 사용하는 것과 동일하게 사용할 수 있다.
설치는 Extentions 탭으로 이용하여 Remote – SSH를 찾아 설치하면 끝.
그렇게 되면 왼쪽 탭에 모니터와 같은 모양의 아이콘이 생성된다.
처음 실행하게 되면, 위와 같이 host를 설정하라는 메시지가 나온다. Configure를 클릭하면
와 같이 나오는데, 주로 본인 계정하에서 사용하므로 첫번째와 같이 본인의 홈 폴더에 생성하도로 한다. 그렇게 되면 기존 config 파일이 나오거나, 없으면 다음과 같이 템플릿을 생성하여 보여준다.
# Read more about SSH config files: https://linux.die.net/man/5/ssh_config
Host alias
HostName hostname
User user
자 이제 원격PC에 접속하기 위한 계정 정보를 입력한다.
# Read more about SSH config files: https://linux.die.net/man/5/ssh_config
Host robot1_pc
HostName 192.168.9.10
User robot
위와 같이 계정 정보와 서버의 주소를 입력한다. 만약 hosts 파일에 컴퓨터명을 등록했으면 주소 대신 컴퓨터명을 적으면 된다. 위의 내용을 터미널 상에서 ssh를 접속하게 된다면 다음과 같은 내용이라고 보면 된다.
$ ssh robot@192.168.9.10
저장하고 나면, 왼쪽 Connections 창에 이름이 나타난다. 이제 이름 옆 창 표시를 클릭하면, 새로운 vscode 창이 생기면서 원격 머신에 접속하게 된다.
접속이 완료되면, 왼쪽 하단에 원격 PC이름이 나타나고, 터미널도 역시 원격 PC의 터미널이 보임을 알 수 있다. 또한, Open Folder를 클릭하면 원격 PC의 디렉토리 및 파일들이 나타난다. 이제부턴 로컬 머신과 같이 사용가능하다. (물론 파일 복사나 이동 등도 가능)
팁.
매번 접속시 비밀번호를 묻는게 귀찮다면, 원격PC의 known_hosts에 로컬PC의 ssh 퍼블릭 키를 등록하면 된다. 키 생성은 ssh-keygen으로 하고, 생성된 id_rsa.pub 파일의 내용을 원격 PC의 known_hosts 파일에 추가한다.
패러럴즈에 Ubuntu 18.04를 설치하고, 패러럴즈 툴을 설치했음에도 불구하고 해상도 설정이 좀 이상한 경우가 있다. 특히 Display scale을 조절할 수 있는 옵션이 나타나지 않는데, 이 경우 흐리멍텅한 화면이나, 네이티브 해상도 (아주 작은 글씨)로만 사용해야 한다.
검색해보니 설정에는 안보이지만, 터미널 상에서 UI 스케일을 조정할 수 있는 방법이 있었다.
$ gsettings set org.gnome.desktop.interface scaling-factor 2
로봇에 외장 기기를 부착할 경우 USB 시리얼포트 디바이스를 많이 사용한다. 요즘 나온 메인보드엔 시리얼포트가 없으니 당여한 이야기인데, USB 통신의 특성상 latency timer 값이 16ms로 기본으로 설정되어 있어, 빠른 응답 특성을 요구할때엔 속도 저하의 이유가 된다.
태생이 전자 공돌이라, 소프트웨어까진 어떻게 해본다 쳐도, 기구설계는 완전 다른 이야기인듯 하다. 물론 요즘에야 개발 도구들이 잘 되어 있어 뚝딱뚝딱 만들어 볼수 있다곤 하지만, 그래도 기본적인 사항은 알아야 이해를 하고 만들어볼 수 있는 듯.
3D 프린터를 좀더 알차게 사용해보고 싶은 마음에, 서점 간 김에 그래도 좀 예제가 많아보이는 책을 구입했다. 기초적인 요소들에 대한 설명과 각종 수치들이 있고, 한국에선 요런거 사용함 등등의 내용이 보인다. 아주 자세히 보진 못하겠지만, 간단한 기구 설계할 때 유용하게 사용할 수 있을 듯 하다.
한달 전 쯤? 아들 녀석이 방과후 학교에서 소라게 한마리를 가지고 왔습니다. 조그만 플라스틱 케이스와 젤리처럼 생긴 먹이 하나와 같이요. 사실 며칠 지나지 않아 죽거나 할 줄 알았는데 의외로? 한달이 지났는데도 잘 지내고, 밤이 되면 부스럭부스럭 조그만 케이스를 탈출하고자 노력하더군요. ㅠㅠ
인터넷을 검색해보니 소라게의 수명이 엄청 길더라고요. 자연에서 사는 녀석들은 몇십년을 산다고도 하고… 암튼 이대로는 안되겠다 싶어 인터넷을 검색해보고, 다이소에서 적당한 집 (큰 플라스틱 케이스)을 사오고, 코코칩이라 불리는 바닥재, 먹이용 젤리를 주문했습니다.
두텁게 코코칩을 깔아주고, 소라게를 새로운 집에 옮겨주고 젤리를 하나 까서 같이 놓아주었습니다.
원래 소라게의 습성이 어두운 밤에 주로 움직이고, 저런 코코칩 같은 바닥재를 깔아주면 파고 들어가서 산다고 하네요. 지금도 계속 바닥으로 파고들고, 가끔씩 먹이 있는 쪽으로 움직여 젤리를 파먹고 하고 있습니다. 새로운 집을 맘에 들어 하는 것 같습니다.
바닥재는 3주 정도에 한번씩 갈아주고, 그 동안은 너무 건조해지지 않도록 스프레이로 물을 조금씩 뿌려주면 되고, 젤리도 갈아주면 된다고 합니다. 혼자는 외로워할테니 한마리 더 넣어줘도 좋을듯 한데… 저 녀석이 암컷인지 숫컷인지 알 방법이 없네요.?? ^^
위와 같은 화면이 나오는데, 왼쪽은 블럭을 생성하기 위한 블럭 코딩 영역, 오른쪽 상단엔 생성된 블럭 모양을 실시간으로 확인이 가능하고, 오른쪽 중앙엔 추후 코드에 삽입하기 위한 JSON 코드, 오른쪽 하단엔 블럭을 실제 코드로 생성하기 위한 generator 코드가 생성된다.
일단 흐름을 보기 위해 아주 간단한 블럭을 생성해보도록 한다. 사용자의 문자열 입력을 받아 console에 출력하는 블럭을 만들어 보록 한다. 먼저 블럭의 name을 수정한다. 여기선 console_print로 한다.
다음으로 이 블럭은 다른 블럭들과 상하 연결하여 사용 가능해야 하므로, connection을 top+bottom connections로 변경한다. 이렇게 되면 미리보기 창의 블럭 모양이 변경됨을 볼 수 있다.
다음으로 사용자의 문자열을 입력 받아야 한다. 왼쪽 툴박스 창에서 Input 카테고리내에 value input 블럭을 inputs에 추가한다. 이 입력을 받아서 내부에서 처리하기 위한 변수명은 value_input 옆에 있는 NAME이다. 이를 필요에 따라 적절하게 수정한다.
이제 블럭에 기능을 설명하기 위한 텍스트 블럭을 추가한다. (Field 카테고리 Text 블럭)
입력은 Text만 받아야 하므로, 입력 type에 String 블럭을 추가한다.
마지막으로 블럭의 색상과, 이 블럭을 사용하는데 필요한 tooltip, help url 등을 입력한다.
Scratch 3.0은 외부기기와 연동하기 위해서 Scratch Link 앱을 이용해야 한다. (Scratch 내부에 구현할 수도 있을 것 같은데, 이렇게 되면 다른 운영체제에서 호환이 안될테니 아마도 이렇게 만들어 놓은듯 하다) 내부를 들여다보면 Scratch Link에서 WebSocket 서버를 제공하고, BLE, BT로 구분하여 접속할 수 있다. 통신은 JSONRPC를 이용한다. BLE, BT 모두 프로토콜은 동일하다.
따라서 Bluetooth 시리얼, BLE 등을 이용한 기기들은 기존 프로토콜을 이용하여 접속 및 연동이 가능하다. OROCA-Edubot도 이와 같은 과정을 통해 연동에 성공하였다. 이제 좀더 나아가 시리얼포트를 이용할 경우 (예를 들어 Arduino 보드나 사용자가 개발한 보드들)엔 어떻게 해야 할까?
고민해본 결과 가장 클리어한 방법은 Scratch Link를 확장하여 시리얼 통신을 지원하게끔 하면 될 것 같다. 마침 기존까진 실행파일로만 제공되었던 Scratch Link가 이젠 소스까지 제공되고 있다. 개발 지원 운영체제는 macOS와 윈도우이다.
위 과정이 완료되면 out 디렉토리에 scratch-device-manager.pem, scratch-device-manager.pfx 파일이 생성된다.
현재 내가 사용하고 있는 개발환경은 macOS 이므로, macOS 폴더로 이동하여 빌드를 시작한다. Xcode, pngcrush를 미리 설치되어 있어야 한다. Xcode는 앱스토어에서, pngcrush는 homebrew를 이용하면 쉽게 설치할 수 있다.
$ cd ..
$ cd macOS
$ make
빌드에 필요한 패키지들이 자동으로 설치되고, 에러가 없이 완료되면 dist 디렉토리가 생성되고 Scratch Link 앱이 생성되어 있음을 볼 수 있다.
이제 이 앱을 실행해보면, 기존과 같이 메뉴바에 Scratch Link가 위치한다.
Scratch 3.0를 실행하고, BLE와 BT 등 기존과 동일하게 동작하는지 확인한다. 지난번 개발환경 구축 포스팅에서 device-manager.scratch.mit.edu를 hosts 파일을 이용해 127.0.0.1로 강제 변경하였는데, 이제 Scratch Link를 직접 사용할 수 있으므로 localhost로 변경하여 사용해도 무방하다.
따라서, hosts 파일을 변경하는 작업을 하지 않고, scratch-vm 내에서 다음의 파일에 있는 웹소켓 주소를 localhost로 변경한다.
얼마전 Anki社가 문을 닫았다. Cozi, Vector 등 귀엽고 기능 많은 로봇들을 개발하였고, 언뜻 보기엔 많이 팔리기도 하였는데… 왜 그랬을까… 뭐 암튼! 항상 구매해보고 싶단 생각은 갖고 있었는데, 문을 닫았다니 더 구매해보고 싶어서 뉴스가 뜬 날 바로 주문했다. 가격은 대충 30만원 정도? 해외주문이라 시간이 좀 걸리는 듯 하더니 드디어 도착.
이 로봇은 저 귀여운 눈이 포인트! 로봇 전체 색상은 아주 짙은 회색 (검은색이라고 해야 되나?)이 기본이고, 군데군데 금색 포인트, LED 등이 배치되어 있다.
상자를 열어보면 알차게 로봇과 큐브가 넣어져 있다. 역시 제품은 꺼내자마자 켜고 동작되어야 제맛. 이것저것 많이 설정하거나 하면 사용자는 힘들어진다. 전원키고 스맛폰 연결해서 계정 연동하면 끝.
한글이 지원되지는 않고 영어로 명령을 내리거나 의사소통해야 된다. Wakeup 단어는 “Hey! Vector.”이다. 로봇이 뭔가 처리를 하는 동안엔 알아듣지 못하며, 중간중간 idle 상태에선 칼 같이 알아듣는다.
큐브를 이용해 이것저것 명령을 내릴수도 있고, 그냥 냅두면 알아서 갖고 논다. 몇시간 정도 갖고 놀아본 결과, 이 제품의 컨셉은 애완동물인듯 하다. 가만히 냅둬도 이곳저곳 돌아다니고, 충전을 위한 도킹 스테이션을 자기의 집으로 생각하는…
거리센서와 카메라를 이용해 어느 정도 SLAM 기능을 수행하는 듯하다. “Go to charging station!”이라고 명령을 내리면 스스로 주변에 있는 도킹 스테이션을 찾아 충전을 시작한다.
로봇을 제어하기 위한 API도 상당히 충실하게 지원한다. python3로 프로그래밍 가능하니 쉬울듯. 잠깐 생각해본 바로는 ROS 연동도 쉽게 될것 같다. 실제로 여러가지 프로젝트들이 Vector를 이용해서 진행되고 있는 듯.
영상처리에 많이 사용되는 OpenCV를 Jetson Nano에서도 사용 가능하다. 빌드 과정은 PC에서와 동일하나 플랫폼의 특성 상 몇가지 다른 부분이 있다. 기본으로 설치되어 있는 패키지를 사용해도 되지만, CUDA를 활용하기 위해선 빌드 과정을 통해 설치하여야 한다.
Jetson Nano엔 무선랜 기능이 포함되어 있지 않다. 라즈베리파이도 3b+ 모델에서는 무선랜 기능이 포함되어 있는데, 뭐 그냥 붙여줬으면 좋으련만… USB 동글 등을 이용해서 사용할수 있겠지만, Jetson Nano에는 pci-e 확장포트가 존재한다. 따라서 이 포트에 m.2 규격의 무선랜 모듈을 장착하여 사용할 수 있다.
주변에 쉽게 구할 수 있고, 나름 리눅스 친화적인 무선랜 모듈은 인텔 제품이며 여러가지 버전이 존재한다. 현재 Jetson Nano의 커널 버전은 4.9 (L4T) 버전이므로, 현재 구할 수 있는 무선랜 모듈 중 가장 나은 선택은 Intel ac8265이다. Intel ac9560이 좀더 최신 칩셋에 나은 기능을 갖고 있지만, 드라이버가 커널 4.14 이상에서만 동작하므로 현재로선 사용이 불가능하다.
TensorFlow는 그냥 툴이고 배우는데야 큰 문제는 없지만, 머신러닝을 이해하지 않고 TensorFlow를 배우는건 그냥 겉핥기만 될뿐인듯 하다. 문제는 그것을 배우고 활용하기 위한 전처리 작업들이 만만치 않다는 점. 초보자들이 양질의 데이터를 구하기란 매우 힘든 일인듯.
이 책은 그냥 자연어 처리에 이러한 방법도 있다라는 것을 보기 위해 구입한 책이다. 완벽하게 분석해서 내 것으로 만들면 좋겠지만, 내가 아직은 많이 필요한 내용이 아니므로 그냥 트렌드 파악용?
OpenCV는 영상처리 부분에선 많이 (그냥 99% 정도?) 사용되는 소프트웨어 프레임워크이다. 사실 기술서적은 버전이 변화함에 따라 쓸모없어지는 경우가 많아 구입이 좀 꺼려지긴하는데, 기본 기능들 (버전이 변하더라도 사용법은 거의 변하지 않는)에 대해 잘 정리되어 있는 책인듯 하여 구입하였다.
기본 기능부터, 약간의 고급 기능까지 함수들의 사용법에 대해 잘 정리되어 있고, Python으로 예제 코드가 되어 있고 결과물에 대해 스샷까지 잘 되어 있어 책상이 꼽아두었다가 필요할때 한번씩 꺼내볼만하다.
>>> upip.install("micropython-uasyncio")
Installing to: /lib/
Warning: pypi.org SSL certificate is not validated
Installing micropython-uasyncio 2.3 from https://files.pythonhosted.org/packages/2f/d0/da285cf389f3736b204514f936b9621976735096ba02f6cd701ef0426a05/micropython-uasyncio-2.3.tar.gz
Installing micropython-uasyncio.core 2.3 from https://files.pythonhosted.org/packages/2b/3a/5737ff41dfe85d3ddf4c783e9289f6c869526fd31b495bf012612e6c82cf/micropython-uasyncio.core-2.3.tar.gz
>>> import uasyncio
기본으로 제공되는 Tags 위젯은 사용된 Tag를 순서대로 모두다 보여줘서 좀 번거로운 면이 있다. 사용 빈도를 반영하여 많이 사용된 Tag를 크게 보여주고, 또 원하는 순위까지만 보여주는 것이 좀 괜찮을 것 같은데, 이를 위해선 해당 기능을 포함하는 플러그인을 설치해서 사용하거나, 간단히 functions.php를 수정하면 된다.
사용하는 테마의 디렉토리로 가서, functions.php 파일을 열고, 다음의 구문을 추가한다.
function wpb_tag_cloud() {
$tags = get_tags();
$args = array(
'smallest' => 12,
'largest' => 24,
'unit' => 'px',
'number' => 15,
'format' => 'flat',
'separator' => " ",
'orderby' => 'count',
'order' => 'DESC',
'show_count' => 1,
'echo' => false
);
$tag_string = wp_generate_tag_cloud( $tags, $args );
return $tag_string;
}
// Add a shortcode so that we can use it in widgets, posts, and pages
add_shortcode('wpb_popular_tags', 'wpb_tag_cloud');
// Enable shortcode execution in text widget
add_filter ('widget_text', 'do_shortcode');
여기에서 설정할 옵션은
smallest: 가장 낮은 순위의 Tag 폰트 크기
largest: 가장 높은 순위의 Tag 폰트 크기
number: 15 순위까지 보여주기
seperator: Tag들 보여줄때 구분자
이와 같이 설정하고, Widget 설정에서 Text 위젯을 추가하고, 내용에 wpb_popular_tags을 입력한다. 결과를 보면,
$ esptool.py --chip esp32 -p /dev/tty.SLAB_USBtoUART write_flash -z 0x1000 esp32-bluetooth.bin
esptool.py v2.6
Serial port /dev/tty.SLAB_USBtoUART
Connecting.....
Chip is ESP32D0WDQ6 (revision 1)
Features: WiFi, BT, Dual Core, 240MHz, VRef calibration in efuse, Coding Scheme None
MAC: 84:0d:8e:0c:c9:f0
Uploading stub...
Running stub...
Stub running...
Configuring flash size...
Auto-detected Flash size: 4MB
Compressed 1549888 bytes to 970594...
Wrote 1549888 bytes (970594 compressed) at 0x00001000 in 85.5 seconds (effective 145.0 kbit/s)...
Hash of data verified.
Leaving...
Hard resetting via RTS pin...
보드의 전원을 껐다가 다시 인가하고, 터미널에서 다음과 같이 입력하여 REPL 환경으로 진입.
$ screen /dev/tty.SLAB_USBtoUART 115200
처음엔 아무런 내용이 나타나지 않지만, 명령어를 입력하면 됨. 평소 사용한 REPL 환경와 동일.
>>> print("hello")
hello
>>>
REPL 환경에서 나오려면, ctrl + a, ctrl + \ 키를 순서대로 누르고, 화면 밑 프롬프트가 나오면 y를 눌러 종료 가능.
Adafruit에서 제공하는 Micro Python Tool을 이용해 보드 내부의 파일 시스템에 파일을 넣거나 스크립트를 실행할 수 있음.
$ pip3 install adafruit-ampy
보드 내부 파일 시스템에 있는 파일들 표시
$ ampy -p /dev/tty.SLAB_USBtoUART ls
/boot.py
다음의 명령어를 이용해 파일들 조작 가능.
ampy
Usage: ampy [OPTIONS] COMMAND [ARGS]...
ampy - Adafruit MicroPython Tool
Ampy is a tool to control MicroPython boards over a serial connection.
Using ampy you can manipulate files on the board's internal filesystem and
even run scripts.
Options:
-p, --port PORT Name of serial port for connected board. Can optionally
specify with AMPY_PORT environment variable. [required]
-b, --baud BAUD Baud rate for the serial connection (default 115200).
Can optionally specify with AMPY_BAUD environment
variable.
-d, --delay DELAY Delay in seconds before entering RAW MODE (default 0).
Can optionally specify with AMPY_DELAY environment
variable.
--version Show the version and exit.
--help Show this message and exit.
Commands:
get Retrieve a file from the board.
ls List contents of a directory on the board.
mkdir Create a directory on the board.
put Put a file or folder and its contents on the board.
reset Perform soft reset/reboot of the board.
rm Remove a file from the board.
rmdir Forcefully remove a folder and all its children from the board.
run Run a script and print its output.
Jetson Nano에는 라즈베리파이와 마찬가지로 40핀의 GPIO 헤더가 존재한다. 이를 이용해 다양한 외부기기와 연결 가능한데, python의 라이브러리를 이용하면 사용자가 제어 가능하다.
먼저 필요한 패키지를 설치한다. python3는 기본 설치되어 있고, pip3는 설치해야 한다.
$ sudo apt install python3-pip
다음으로 Jetson.GPIO 패키지를 설치한다.
$ sudo pip3 install Jetson.GPIO
이제 python3를 실행하고 설치한 패키지를 import 해보면 다음과 같이 퍼미션 에러가 발생한다. 몇가지 설정이 필요하다.
>>> import Jetson.GPIO
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/usr/local/lib/python3.6/dist-packages/Jetson/GPIO/__init__.py", line 1, in <module>
from .gpio import *
File "/usr/local/lib/python3.6/dist-packages/Jetson/GPIO/gpio.py", line 33, in <module>
raise RuntimeError("The current user does not have permissions set to "
RuntimeError: The current user does not have permissions set to access the library functionalites. Please configure permissions or use the root user to run this
다음으로 demos/mobile/html/toolbox_standard.js 툴박스 파일도 작업 디렉토리로 복사한다. 또 localization 관련한 디렉토리도 복사한다. 복사 위치는 msg 디렉토리 밑으로 한다. 본래 Blockly 디렉토리의 msg/js 디렉토리를 현재 개발 디렉토리로 복사한다. 완료되었으면 다음과 같이 보여야 한다.
이제 에디터를 이용해서 파일을 하나 생성한다. 파일 이름은 index.html 이다. 파일 내용은 다음과 같다.
<!DOCTYPE html>
<!-- HTML file to host Blockly in a mobile WebView. -->
<html>
<head>
<meta name="viewport" content="width=device-width, initial-scale=1, maximum-scale=1">
<link rel="stylesheet" href="styles.css">
<script src="blockly_compressed.js"></script>
<script src="blocks_compressed.js"></script>
<!-- TODO: Select msg file based on locale. -->
<script src="msg/js/en.js"></script>
<script src="toolbox_standard.js"></script>
</head>
<body>
<div id="blocklyDiv"></div>
<script type="text/javascript">
var workspacePlayground = Blockly.inject('blocklyDiv', {
media: 'media/',
toolbox: BLOCKLY_TOOLBOX_XML['standard'],
zoom: {controls: true}
});
</script>
</body>
</html>
지난 달에 열린 GTC에서 NVIDIA가 JETSON NANO를 발표하였습니다. 라즈베리파이만한 크기에 가격도 저렴? ($99)하고, 게다가 CUDA 코어까지 내장되어 있어, 요즘 유행하는 머신러닝 알고리즘들을 테스트 해보거나, 가지고 놀기 좋게끔 만든 보드인듯 합니다.
한국은 공식판매처가 한컴MDS로 되어 있어, 맘편하게 하나 주문해봤는데, 오늘에서야 도착했습니다. 아마 다른 분들도 다 오늘쯤 받으시겠네요.^^
패키징은 벌것 없습니다. 딸랑 종이박스 하나이고, 내용물도 메뉴얼을 제외하면 보드 하나만 들어있습니다. 흔한 USB 케이블도 없네요. 녹색 커버를 열면 아래와 같이 보드가 담겨있는 봉투가 보이고,
그 밑에 간단한 보드 메뉴얼과, 보드 받침대? 역할을 하는 종이접기류가 보이네요.
보드는 정전기 방지 봉투가 잘 포장되어 있고, 뜯어보면 많이 보셨던 JETSON NANO가 들어있습니다. 뭐 크게 감흥이 있는 건 아니고, 나노 모듈에 확장보드 형태로 되어 있습니다.
뒷면은 부품들을 배치하지 않아, 거의 평면이고, 다만 단자들이 전부다 노출되어 있는 관계로 사용하실땐 받침이나 커버가 꼭 있어야겠네요. (위에서 본 종이접기처럼….)
한쪽면에 확장 커넥터들을 몰아놨습니다. 왼쪽부터 DC어댑터 단자(5V/4A max), HDMI, DP, USB3.0 x4, Ethernet, Micro USB B (전원공급용, 5V/2A) 이고요.
보드 오른쪽은 라즈베리파이와 유사하게 확장 포트들이 배치되어 있습니다. GPIO와 POE 등. 반대쪽엔 UART, POWER SW, RESET, 카메라를 연결할 수 있는 단자가 보이고요. 여기에 라즈베리파이에 사용했던 카메라를 꼽을수 있다네요.
나노모듈을 제거하면 밑에 PCIe 확장포트가 보입니다.
여기에 아래 제품과 같은 무선랜/블루트스 카드를 꼽으면 무선 연결이 가능해집니다. 다른 용도로도 사용이 가능할 것 같고요. 다만 안테나가 비포함되어 있으니 안테나도 같이 주문해야 합니다.
나노모듈 밑에는 MicroSD 카드를 꼽을수 있습니다. JETSON 웹페이지에서 이미지를 다운로드 받아 SD카드에 굽고, 끼워서 부팅하면 됩니다.
라즈베리파이와 크기를 비교하면 가로 길이는 비슷하지만, 세로 길이가 좀 깁니다. 하지만 라즈베리파이의 경우 확장커넥터들이 오른쪽에 밀려있는 관계로 실제 조립하거나 사용할때는 나노가 좀더 편리할 수도 있겠단 생각이 듭니다.
몇가지 아쉬운 점들이 보이는데, USB C 단자를 설계해 놓고 Micro USB B 단자를 꼽아놓은 점, USB포트에 커넥터들 임시땜빵, 오디오출력이 가능함에도 오디오출력 포트가 없다는 점 등이 있네요. RTC를 위한 배터리 단자도 자리만 남겨놓고 조립은 안했네요.
뭐.. 처음 제작된 제품이니 조만간 리비전되어 나올 듯 합니다. 전원을 넣고 부팅하면 Ubuntu 설치할 때와 마찬가지로 언어선택, 키보드, 계정 생성 등의 진행절차가 나오고 완료하면 Ubuntu로 부팅이 가능합니다. Ubuntu 버전은 18.04가 설치되어 있으며, 일단 처음 설치한 후의 느낌은 라즈베리파이보단 좀더 쾌적하게 움직인다 정도 입니다.
Prusa i3 MK3를 구입하고 번들로 같이 왔던 Prusament PLA Galaxy Silver 필라멘트를 사용해왔더랬습니다. 짙은 회색에 PLA 재질이라 프린트 품질도 훌륭하고 표면도 아주 괜찮았습니다만… 그럭저럭 사용하다보니 한 롤을 다 써버렸습니다.
처음에 같이 주문했던 Prusament PLA Azure Blue, Prusament PLA Lipstick Red도 있긴 했지만 색상이 상당히 튀는 색이라 나중에 특별한 넘 뽑을때나 사용하기로 하고, 일반적으로 사용할 필라멘트를 추가 주문하였습니다.
이번에 주문한 제품은 Prusament PETG Urban Grey로 밝은 회색 빛의 PETG 재질의 필라멘트입니다. PETG는 PLA 보다 강도도 뛰어나고, ABS에 비해 환경 유해물질도 나오지 않습니다. 또 프린트 중 냄새도 현저히 없는 수준이고요.
오늘 받아서 간단히 큐브를 프린트 해보았는데, 출력 중 변홍도 없고 꽤 괜찮게 나옵니다. 다만 노즐 온도가 290도, 베드 온도가 90도까지 올라가야하니 PLA 출력때보다 열기가 좀 느껴지네요. 냄새도 PLA보다 덜 납니다. 가격은 한롤 당 $28.49 정도로 저렴한 PETG보단 비싼 편이나 Prusa에서 셋팅한 값을 그대로 사용할 수 있고, 출력 품질도 보장되니 그다지 비싸게 느껴지진 않습니다.
확장블럭 중 블로킹 기능을 필요로 하는 블럭을 만들어야 할 필요가 있다. 예를 들면 로봇의 경우 setDistance, setRotation 등 특정 거리나 특정 각도까지 움직이고, 이때 동작이 완료될 때까지 기다려야 하는 블럭이 존재한다.
Scratch 3.0의 Extension의 경우 개발 언어는 Javascript이다. 따라서 일반 언어에서 사용하듯 while 문을 이용한 제어가 불가능하다. 만약 while 문을 사용하면 스크립트 실행 자체가 멈춰버리므로, 프로그램 자체가 멈춰버리고, 이게 길게되면 각종 브라우저에서 에러와 같이 인식한다.
이를 구현하기 위해서 Promise와 setInterval의 조합으로 해결이 가능하다. 로봇이 움직이고 있다는 신호는 로봇의 상태 정보를 통해 파악할 수 있고, 움직이는 명령을 보낸 후, 로봇의 상태 정보를 지속적으로 모니터링하여 로봇의 동작이 완료되었음을 의미하는 플래그가 셋되면 블럭의 동작을 완료하면 된다.
워드프레스에서 카테고리를 선택하였을 때, 해당 카테고리에 해당되는 포스트들의 리스트만 보여주는 페이지가 필요할 수 있다. 아마 찾아보면 플러그인도 있긴 할텐데, 간단히 파일 하나 정도만 생성해주면 사용자가 원하는 카테고리 페이지를 만들 수 있다.
현재 사용하고 있는 테마의 디렉토리로 이동한다.
$ cd /var/www/html/wp-content/theme/twentyseventeen
category.php 파일을 생성한다. 만약 카테고리 이름별로 페이지를 생성하고 싶다면, 원하는 카테고리 이름을 추가하여 만들어주면 된다. 예를 들어 scratch 카테고리 페이지를 만든다면, category-scratch.php를 만들어준다. 워드프레스는 해당 페이지를 읽을 때 우선순위를 두게 되는데,