Android java touch screen

Урок 102. Touch – обработка касания

Раньше мы для View-компонентов использовали OnClickListener и ловили короткие нажатия. Теперь попробуем ловить касания и перемещения пальца по компоненту. Они состоят из трех типов событий:

— нажатие (палец прикоснулся к экрану)
— движение (палец движется по экрану)
— отпускание (палец оторвался от экрана)

Все эти события мы сможем ловить в обработчике OnTouchListener, который присвоим для View-компонента. Этот обработчик дает нам объект MotionEvent, из которого мы извлекаем тип события и координаты.

На этом уроке рассмотрим только одиночные касания. А мультитач – на следующем уроке.

Project name: P1021_Touch
Build Target: Android 2.3.3
Application name: Touch
Package name: ru.startandroid.develop.p1021touch
Create Activity: MainActivity

strings.xml и main.xml нам не понадобятся, их не трогаем.

Кодим MainActivity.java:

package ru.startandroid.develop.p1021touch; import android.app.Activity; import android.os.Bundle; import android.view.MotionEvent; import android.view.View; import android.view.View.OnTouchListener; import android.widget.TextView; public class MainActivity extends Activity implements OnTouchListener < TextView tv; float x; float y; String sDown; String sMove; String sUp; /** Called when the activity is first created. */ @Override public void onCreate(Bundle savedInstanceState) < super.onCreate(savedInstanceState); tv = new TextView(this); tv.setOnTouchListener(this); setContentView(tv); >@Override public boolean onTouch(View v, MotionEvent event) < x = event.getX(); y = event.getY(); switch (event.getAction()) < case MotionEvent.ACTION_DOWN: // нажатие sDown = "Down: " + x + "," + y; sMove = ""; sUp = ""; break; case MotionEvent.ACTION_MOVE: // движение sMove = "Move: " + x + "," + y; break; case MotionEvent.ACTION_UP: // отпускание case MotionEvent.ACTION_CANCEL: sMove = ""; sUp = "Up: " + x + "," + y; break; >tv.setText(sDown + "\n" + sMove + "\n" + sUp); return true; > >

MainActivity реализует интерфейс OnTouchListener для того, чтобы выступить обработчиком касаний.

В onCreate мы создаем новый TextView, сообщаем ему, что обработчиком касаний будет Activity, и помещаем на экран.

Интерфейс OnTouchListener предполагает, что Activity реализует его метод onTouch. На вход методу идет View для которого было событие касания и объект MotionEvent с информацией о событии.

Методы getX и getY дают нам X и Y координаты касания. Метод getAction дает тип события касания:

ACTION_DOWN – нажатие
ACTION_MOVE – движение
ACTION_UP – отпускание
ACTION_CANCEL – практически никогда не случается. Насколько я понял, возникает в случае каких-либо внутренних сбоев, и следует трактовать это как ACTION_UP.

В случае ACTION_DOWN мы пишем в sDown координаты нажатия.

В случае ACTION_MOVE пишем в sMove координаты точки текущего положения пальца. Если мы будем перемещать палец по экрану – этот текст будет постоянно меняться.

В случае ACTION_UP или ACTION_CANCEL пишем в sUp координаты точки, в которой отпустили палец.

Все это в конце события выводим в TextView. И возвращаем true – мы сами обработали событие.

Теперь мы будем водить пальцем по экрану (курсором по эмулятору) в приложении, и на экране увидим координаты начала движения, текущие координаты и координаты окончания движения.

Все сохраним и запустим приложение.

Ставим палец (курсор) на экран

Если вчерашний вечер не удался, голова не болит, рука тверда и не дрожит :), то появились координаты нажатия.

Если же рука дрогнула, то появится еще и координаты перемещения.

Продолжаем перемещать палец и видим, как меняются координаты Move.

Теперь отрываем палец от экрана и видим координаты точки, в которой это произошло

В целом все несложно. При мультитаче процесс немного усложнится, там уже будем отслеживать до 10 касаний.

Если вы уже знакомы с техникой рисования в Android, то вполне можете создать приложение выводящее на экран геометрическую фигуру, которую можно пальцем перемещать. Простейший пример реализации можно посмотреть тут: http://forum.startandroid.ru/viewtopic.php?f=28&t=535.

— обрабатываем множественные касания

Присоединяйтесь к нам в Telegram:

— в канале StartAndroid публикуются ссылки на новые статьи с сайта startandroid.ru и интересные материалы с хабра, medium.com и т.п.

— в чатах решаем возникающие вопросы и проблемы по различным темам: Android, Compose, Kotlin, RxJava, Dagger, Тестирование, Performance

— ну и если просто хочется поговорить с коллегами по разработке, то есть чат Флудильня

Источник

how does detecting touch position on android screen work?

enter image description here

What exactly is being returned by the getX() and getY() functions? Is it returning pixel values? When a finger touches a screen position, it will probably touch a number of pixels. So what exactly does the function return? Again, let us suppose that in the area I touch with my finger, there are multiple pixels on the screen, as shown below:
Suppose I need to click and drag the point at pixel 1, but the area my finger touches covers pixel 1 and 2. How do I accurately detect which pixel has been clicked, so that I can click and drag on pixel 1 or 2 when I need it?

1 Answer 1

I suppose the values are the center of the blob or area of the touch. Remember that it can be a tool like a mouse or a stylus so the area will be more precise. It has methods and constants for the supposed area of the finger that is touching.

The link has so many methods about that question, that I will not copy and paste, as its pretty documented, so I think you need to read it.

Some of then: getPressure() getSize() getPointerCount() getXPrecision()

About the returned value, the section Device Types will give plenty of information.

The interpretation of the contents of a MotionEvent varies significantly depending on the source class of the device.

On pointing devices with source class SOURCE_CLASS_POINTER such as touch screens, the pointer coordinates specify absolute positions such as view X/Y coordinates. Each complete gesture is represented by a sequence of motion events with actions that describe pointer state transitions and movements.

On joystick devices with source class SOURCE_CLASS_JOYSTICK, the pointer coordinates specify the absolute position of the joystick axes. The joystick axis values are normalized to a range of -1.0 to 1.0

Источник

Читайте также:  Python documentation generator sphinx
Оцените статью