LCOV - code coverage report
Current view: top level - io_uring - rsrc.c (source / functions) Hit Total Coverage
Test: coverage.info Lines: 0 521 0.0 %
Date: 2023-07-19 18:55:55 Functions: 0 35 0.0 %

          Line data    Source code
       1             : // SPDX-License-Identifier: GPL-2.0
       2             : #include <linux/kernel.h>
       3             : #include <linux/errno.h>
       4             : #include <linux/fs.h>
       5             : #include <linux/file.h>
       6             : #include <linux/mm.h>
       7             : #include <linux/slab.h>
       8             : #include <linux/nospec.h>
       9             : #include <linux/hugetlb.h>
      10             : #include <linux/compat.h>
      11             : #include <linux/io_uring.h>
      12             : 
      13             : #include <uapi/linux/io_uring.h>
      14             : 
      15             : #include "io_uring.h"
      16             : #include "openclose.h"
      17             : #include "rsrc.h"
      18             : 
      19             : struct io_rsrc_update {
      20             :         struct file                     *file;
      21             :         u64                             arg;
      22             :         u32                             nr_args;
      23             :         u32                             offset;
      24             : };
      25             : 
      26             : static void io_rsrc_buf_put(struct io_ring_ctx *ctx, struct io_rsrc_put *prsrc);
      27             : static void io_rsrc_file_put(struct io_ring_ctx *ctx, struct io_rsrc_put *prsrc);
      28             : static int io_sqe_buffer_register(struct io_ring_ctx *ctx, struct iovec *iov,
      29             :                                   struct io_mapped_ubuf **pimu,
      30             :                                   struct page **last_hpage);
      31             : 
      32             : /* only define max */
      33             : #define IORING_MAX_FIXED_FILES  (1U << 20)
      34             : #define IORING_MAX_REG_BUFFERS  (1U << 14)
      35             : 
      36           0 : int __io_account_mem(struct user_struct *user, unsigned long nr_pages)
      37             : {
      38             :         unsigned long page_limit, cur_pages, new_pages;
      39             : 
      40           0 :         if (!nr_pages)
      41             :                 return 0;
      42             : 
      43             :         /* Don't allow more pages than we can safely lock */
      44           0 :         page_limit = rlimit(RLIMIT_MEMLOCK) >> PAGE_SHIFT;
      45             : 
      46           0 :         cur_pages = atomic_long_read(&user->locked_vm);
      47             :         do {
      48           0 :                 new_pages = cur_pages + nr_pages;
      49           0 :                 if (new_pages > page_limit)
      50             :                         return -ENOMEM;
      51           0 :         } while (!atomic_long_try_cmpxchg(&user->locked_vm,
      52           0 :                                           &cur_pages, new_pages));
      53             :         return 0;
      54             : }
      55             : 
      56             : static void io_unaccount_mem(struct io_ring_ctx *ctx, unsigned long nr_pages)
      57             : {
      58           0 :         if (ctx->user)
      59           0 :                 __io_unaccount_mem(ctx->user, nr_pages);
      60             : 
      61           0 :         if (ctx->mm_account)
      62           0 :                 atomic64_sub(nr_pages, &ctx->mm_account->pinned_vm);
      63             : }
      64             : 
      65           0 : static int io_account_mem(struct io_ring_ctx *ctx, unsigned long nr_pages)
      66             : {
      67             :         int ret;
      68             : 
      69           0 :         if (ctx->user) {
      70           0 :                 ret = __io_account_mem(ctx->user, nr_pages);
      71           0 :                 if (ret)
      72             :                         return ret;
      73             :         }
      74             : 
      75           0 :         if (ctx->mm_account)
      76           0 :                 atomic64_add(nr_pages, &ctx->mm_account->pinned_vm);
      77             : 
      78             :         return 0;
      79             : }
      80             : 
      81           0 : static int io_copy_iov(struct io_ring_ctx *ctx, struct iovec *dst,
      82             :                        void __user *arg, unsigned index)
      83             : {
      84             :         struct iovec __user *src;
      85             : 
      86             : #ifdef CONFIG_COMPAT
      87             :         if (ctx->compat) {
      88             :                 struct compat_iovec __user *ciovs;
      89             :                 struct compat_iovec ciov;
      90             : 
      91             :                 ciovs = (struct compat_iovec __user *) arg;
      92             :                 if (copy_from_user(&ciov, &ciovs[index], sizeof(ciov)))
      93             :                         return -EFAULT;
      94             : 
      95             :                 dst->iov_base = u64_to_user_ptr((u64)ciov.iov_base);
      96             :                 dst->iov_len = ciov.iov_len;
      97             :                 return 0;
      98             :         }
      99             : #endif
     100           0 :         src = (struct iovec __user *) arg;
     101           0 :         if (copy_from_user(dst, &src[index], sizeof(*dst)))
     102             :                 return -EFAULT;
     103             :         return 0;
     104             : }
     105             : 
     106             : static int io_buffer_validate(struct iovec *iov)
     107             : {
     108           0 :         unsigned long tmp, acct_len = iov->iov_len + (PAGE_SIZE - 1);
     109             : 
     110             :         /*
     111             :          * Don't impose further limits on the size and buffer
     112             :          * constraints here, we'll -EINVAL later when IO is
     113             :          * submitted if they are wrong.
     114             :          */
     115           0 :         if (!iov->iov_base)
     116           0 :                 return iov->iov_len ? -EFAULT : 0;
     117           0 :         if (!iov->iov_len)
     118             :                 return -EFAULT;
     119             : 
     120             :         /* arbitrary limit, but we need something */
     121           0 :         if (iov->iov_len > SZ_1G)
     122             :                 return -EFAULT;
     123             : 
     124           0 :         if (check_add_overflow((unsigned long)iov->iov_base, acct_len, &tmp))
     125             :                 return -EOVERFLOW;
     126             : 
     127             :         return 0;
     128             : }
     129             : 
     130           0 : static void io_buffer_unmap(struct io_ring_ctx *ctx, struct io_mapped_ubuf **slot)
     131             : {
     132           0 :         struct io_mapped_ubuf *imu = *slot;
     133             :         unsigned int i;
     134             : 
     135           0 :         if (imu != ctx->dummy_ubuf) {
     136           0 :                 for (i = 0; i < imu->nr_bvecs; i++)
     137           0 :                         unpin_user_page(imu->bvec[i].bv_page);
     138           0 :                 if (imu->acct_pages)
     139           0 :                         io_unaccount_mem(ctx, imu->acct_pages);
     140           0 :                 kvfree(imu);
     141             :         }
     142           0 :         *slot = NULL;
     143           0 : }
     144             : 
     145           0 : static void io_rsrc_put_work(struct io_rsrc_node *node)
     146             : {
     147           0 :         struct io_rsrc_put *prsrc = &node->item;
     148             : 
     149           0 :         if (prsrc->tag)
     150           0 :                 io_post_aux_cqe(node->ctx, prsrc->tag, 0, 0);
     151             : 
     152           0 :         switch (node->type) {
     153             :         case IORING_RSRC_FILE:
     154           0 :                 io_rsrc_file_put(node->ctx, prsrc);
     155             :                 break;
     156             :         case IORING_RSRC_BUFFER:
     157           0 :                 io_rsrc_buf_put(node->ctx, prsrc);
     158             :                 break;
     159             :         default:
     160           0 :                 WARN_ON_ONCE(1);
     161             :                 break;
     162             :         }
     163           0 : }
     164             : 
     165           0 : void io_rsrc_node_destroy(struct io_ring_ctx *ctx, struct io_rsrc_node *node)
     166             : {
     167           0 :         if (!io_alloc_cache_put(&ctx->rsrc_node_cache, &node->cache))
     168           0 :                 kfree(node);
     169           0 : }
     170             : 
     171           0 : void io_rsrc_node_ref_zero(struct io_rsrc_node *node)
     172             :         __must_hold(&node->ctx->uring_lock)
     173             : {
     174           0 :         struct io_ring_ctx *ctx = node->ctx;
     175             : 
     176           0 :         while (!list_empty(&ctx->rsrc_ref_list)) {
     177           0 :                 node = list_first_entry(&ctx->rsrc_ref_list,
     178             :                                             struct io_rsrc_node, node);
     179             :                 /* recycle ref nodes in order */
     180           0 :                 if (node->refs)
     181             :                         break;
     182           0 :                 list_del(&node->node);
     183             : 
     184           0 :                 if (likely(!node->empty))
     185           0 :                         io_rsrc_put_work(node);
     186             :                 io_rsrc_node_destroy(ctx, node);
     187             :         }
     188           0 :         if (list_empty(&ctx->rsrc_ref_list) && unlikely(ctx->rsrc_quiesce))
     189           0 :                 wake_up_all(&ctx->rsrc_quiesce_wq);
     190           0 : }
     191             : 
     192           0 : struct io_rsrc_node *io_rsrc_node_alloc(struct io_ring_ctx *ctx)
     193             : {
     194             :         struct io_rsrc_node *ref_node;
     195             :         struct io_cache_entry *entry;
     196             : 
     197           0 :         entry = io_alloc_cache_get(&ctx->rsrc_node_cache);
     198           0 :         if (entry) {
     199             :                 ref_node = container_of(entry, struct io_rsrc_node, cache);
     200             :         } else {
     201           0 :                 ref_node = kzalloc(sizeof(*ref_node), GFP_KERNEL);
     202           0 :                 if (!ref_node)
     203             :                         return NULL;
     204             :         }
     205             : 
     206           0 :         ref_node->ctx = ctx;
     207           0 :         ref_node->empty = 0;
     208           0 :         ref_node->refs = 1;
     209           0 :         return ref_node;
     210             : }
     211             : 
     212           0 : __cold static int io_rsrc_ref_quiesce(struct io_rsrc_data *data,
     213             :                                       struct io_ring_ctx *ctx)
     214             : {
     215             :         struct io_rsrc_node *backup;
     216           0 :         DEFINE_WAIT(we);
     217             :         int ret;
     218             : 
     219             :         /* As We may drop ->uring_lock, other task may have started quiesce */
     220           0 :         if (data->quiesce)
     221             :                 return -ENXIO;
     222             : 
     223           0 :         backup = io_rsrc_node_alloc(ctx);
     224           0 :         if (!backup)
     225             :                 return -ENOMEM;
     226           0 :         ctx->rsrc_node->empty = true;
     227           0 :         ctx->rsrc_node->type = -1;
     228           0 :         list_add_tail(&ctx->rsrc_node->node, &ctx->rsrc_ref_list);
     229           0 :         io_put_rsrc_node(ctx, ctx->rsrc_node);
     230           0 :         ctx->rsrc_node = backup;
     231             : 
     232           0 :         if (list_empty(&ctx->rsrc_ref_list))
     233             :                 return 0;
     234             : 
     235           0 :         if (ctx->flags & IORING_SETUP_DEFER_TASKRUN) {
     236           0 :                 atomic_set(&ctx->cq_wait_nr, 1);
     237           0 :                 smp_mb();
     238             :         }
     239             : 
     240           0 :         ctx->rsrc_quiesce++;
     241           0 :         data->quiesce = true;
     242             :         do {
     243           0 :                 prepare_to_wait(&ctx->rsrc_quiesce_wq, &we, TASK_INTERRUPTIBLE);
     244           0 :                 mutex_unlock(&ctx->uring_lock);
     245             : 
     246           0 :                 ret = io_run_task_work_sig(ctx);
     247           0 :                 if (ret < 0) {
     248           0 :                         mutex_lock(&ctx->uring_lock);
     249           0 :                         if (list_empty(&ctx->rsrc_ref_list))
     250           0 :                                 ret = 0;
     251             :                         break;
     252             :                 }
     253             : 
     254           0 :                 schedule();
     255           0 :                 __set_current_state(TASK_RUNNING);
     256           0 :                 mutex_lock(&ctx->uring_lock);
     257           0 :                 ret = 0;
     258           0 :         } while (!list_empty(&ctx->rsrc_ref_list));
     259             : 
     260           0 :         finish_wait(&ctx->rsrc_quiesce_wq, &we);
     261           0 :         data->quiesce = false;
     262           0 :         ctx->rsrc_quiesce--;
     263             : 
     264           0 :         if (ctx->flags & IORING_SETUP_DEFER_TASKRUN) {
     265           0 :                 atomic_set(&ctx->cq_wait_nr, 0);
     266           0 :                 smp_mb();
     267             :         }
     268             :         return ret;
     269             : }
     270             : 
     271           0 : static void io_free_page_table(void **table, size_t size)
     272             : {
     273           0 :         unsigned i, nr_tables = DIV_ROUND_UP(size, PAGE_SIZE);
     274             : 
     275           0 :         for (i = 0; i < nr_tables; i++)
     276           0 :                 kfree(table[i]);
     277           0 :         kfree(table);
     278           0 : }
     279             : 
     280           0 : static void io_rsrc_data_free(struct io_rsrc_data *data)
     281             : {
     282           0 :         size_t size = data->nr * sizeof(data->tags[0][0]);
     283             : 
     284           0 :         if (data->tags)
     285           0 :                 io_free_page_table((void **)data->tags, size);
     286           0 :         kfree(data);
     287           0 : }
     288             : 
     289           0 : static __cold void **io_alloc_page_table(size_t size)
     290             : {
     291           0 :         unsigned i, nr_tables = DIV_ROUND_UP(size, PAGE_SIZE);
     292           0 :         size_t init_size = size;
     293             :         void **table;
     294             : 
     295           0 :         table = kcalloc(nr_tables, sizeof(*table), GFP_KERNEL_ACCOUNT);
     296           0 :         if (!table)
     297             :                 return NULL;
     298             : 
     299           0 :         for (i = 0; i < nr_tables; i++) {
     300           0 :                 unsigned int this_size = min_t(size_t, size, PAGE_SIZE);
     301             : 
     302           0 :                 table[i] = kzalloc(this_size, GFP_KERNEL_ACCOUNT);
     303           0 :                 if (!table[i]) {
     304           0 :                         io_free_page_table(table, init_size);
     305           0 :                         return NULL;
     306             :                 }
     307           0 :                 size -= this_size;
     308             :         }
     309             :         return table;
     310             : }
     311             : 
     312           0 : __cold static int io_rsrc_data_alloc(struct io_ring_ctx *ctx, int type,
     313             :                                      u64 __user *utags,
     314             :                                      unsigned nr, struct io_rsrc_data **pdata)
     315             : {
     316             :         struct io_rsrc_data *data;
     317           0 :         int ret = 0;
     318             :         unsigned i;
     319             : 
     320           0 :         data = kzalloc(sizeof(*data), GFP_KERNEL);
     321           0 :         if (!data)
     322             :                 return -ENOMEM;
     323           0 :         data->tags = (u64 **)io_alloc_page_table(nr * sizeof(data->tags[0][0]));
     324           0 :         if (!data->tags) {
     325           0 :                 kfree(data);
     326           0 :                 return -ENOMEM;
     327             :         }
     328             : 
     329           0 :         data->nr = nr;
     330           0 :         data->ctx = ctx;
     331           0 :         data->rsrc_type = type;
     332           0 :         if (utags) {
     333             :                 ret = -EFAULT;
     334           0 :                 for (i = 0; i < nr; i++) {
     335           0 :                         u64 *tag_slot = io_get_tag_slot(data, i);
     336             : 
     337           0 :                         if (copy_from_user(tag_slot, &utags[i],
     338             :                                            sizeof(*tag_slot)))
     339             :                                 goto fail;
     340             :                 }
     341             :         }
     342           0 :         *pdata = data;
     343           0 :         return 0;
     344             : fail:
     345           0 :         io_rsrc_data_free(data);
     346           0 :         return ret;
     347             : }
     348             : 
     349           0 : static int __io_sqe_files_update(struct io_ring_ctx *ctx,
     350             :                                  struct io_uring_rsrc_update2 *up,
     351             :                                  unsigned nr_args)
     352             : {
     353           0 :         u64 __user *tags = u64_to_user_ptr(up->tags);
     354           0 :         __s32 __user *fds = u64_to_user_ptr(up->data);
     355           0 :         struct io_rsrc_data *data = ctx->file_data;
     356             :         struct io_fixed_file *file_slot;
     357             :         struct file *file;
     358           0 :         int fd, i, err = 0;
     359             :         unsigned int done;
     360             : 
     361           0 :         if (!ctx->file_data)
     362             :                 return -ENXIO;
     363           0 :         if (up->offset + nr_args > ctx->nr_user_files)
     364             :                 return -EINVAL;
     365             : 
     366           0 :         for (done = 0; done < nr_args; done++) {
     367           0 :                 u64 tag = 0;
     368             : 
     369           0 :                 if ((tags && copy_from_user(&tag, &tags[done], sizeof(tag))) ||
     370           0 :                     copy_from_user(&fd, &fds[done], sizeof(fd))) {
     371             :                         err = -EFAULT;
     372           0 :                         break;
     373             :                 }
     374           0 :                 if ((fd == IORING_REGISTER_FILES_SKIP || fd == -1) && tag) {
     375             :                         err = -EINVAL;
     376             :                         break;
     377             :                 }
     378           0 :                 if (fd == IORING_REGISTER_FILES_SKIP)
     379           0 :                         continue;
     380             : 
     381           0 :                 i = array_index_nospec(up->offset + done, ctx->nr_user_files);
     382           0 :                 file_slot = io_fixed_file_slot(&ctx->file_table, i);
     383             : 
     384           0 :                 if (file_slot->file_ptr) {
     385           0 :                         file = (struct file *)(file_slot->file_ptr & FFS_MASK);
     386           0 :                         err = io_queue_rsrc_removal(data, i, file);
     387           0 :                         if (err)
     388             :                                 break;
     389           0 :                         file_slot->file_ptr = 0;
     390           0 :                         io_file_bitmap_clear(&ctx->file_table, i);
     391             :                 }
     392           0 :                 if (fd != -1) {
     393           0 :                         file = fget(fd);
     394           0 :                         if (!file) {
     395             :                                 err = -EBADF;
     396             :                                 break;
     397             :                         }
     398             :                         /*
     399             :                          * Don't allow io_uring instances to be registered. If
     400             :                          * UNIX isn't enabled, then this causes a reference
     401             :                          * cycle and this instance can never get freed. If UNIX
     402             :                          * is enabled we'll handle it just fine, but there's
     403             :                          * still no point in allowing a ring fd as it doesn't
     404             :                          * support regular read/write anyway.
     405             :                          */
     406           0 :                         if (io_is_uring_fops(file)) {
     407           0 :                                 fput(file);
     408           0 :                                 err = -EBADF;
     409           0 :                                 break;
     410             :                         }
     411           0 :                         err = io_scm_file_account(ctx, file);
     412             :                         if (err) {
     413             :                                 fput(file);
     414             :                                 break;
     415             :                         }
     416           0 :                         *io_get_tag_slot(data, i) = tag;
     417           0 :                         io_fixed_file_set(file_slot, file);
     418           0 :                         io_file_bitmap_set(&ctx->file_table, i);
     419             :                 }
     420             :         }
     421           0 :         return done ? done : err;
     422             : }
     423             : 
     424           0 : static int __io_sqe_buffers_update(struct io_ring_ctx *ctx,
     425             :                                    struct io_uring_rsrc_update2 *up,
     426             :                                    unsigned int nr_args)
     427             : {
     428           0 :         u64 __user *tags = u64_to_user_ptr(up->tags);
     429           0 :         struct iovec iov, __user *iovs = u64_to_user_ptr(up->data);
     430           0 :         struct page *last_hpage = NULL;
     431             :         __u32 done;
     432             :         int i, err;
     433             : 
     434           0 :         if (!ctx->buf_data)
     435             :                 return -ENXIO;
     436           0 :         if (up->offset + nr_args > ctx->nr_user_bufs)
     437             :                 return -EINVAL;
     438             : 
     439           0 :         for (done = 0; done < nr_args; done++) {
     440             :                 struct io_mapped_ubuf *imu;
     441           0 :                 u64 tag = 0;
     442             : 
     443           0 :                 err = io_copy_iov(ctx, &iov, iovs, done);
     444           0 :                 if (err)
     445             :                         break;
     446           0 :                 if (tags && copy_from_user(&tag, &tags[done], sizeof(tag))) {
     447             :                         err = -EFAULT;
     448             :                         break;
     449             :                 }
     450           0 :                 err = io_buffer_validate(&iov);
     451           0 :                 if (err)
     452             :                         break;
     453           0 :                 if (!iov.iov_base && tag) {
     454             :                         err = -EINVAL;
     455             :                         break;
     456             :                 }
     457           0 :                 err = io_sqe_buffer_register(ctx, &iov, &imu, &last_hpage);
     458           0 :                 if (err)
     459             :                         break;
     460             : 
     461           0 :                 i = array_index_nospec(up->offset + done, ctx->nr_user_bufs);
     462           0 :                 if (ctx->user_bufs[i] != ctx->dummy_ubuf) {
     463           0 :                         err = io_queue_rsrc_removal(ctx->buf_data, i,
     464             :                                                     ctx->user_bufs[i]);
     465           0 :                         if (unlikely(err)) {
     466           0 :                                 io_buffer_unmap(ctx, &imu);
     467           0 :                                 break;
     468             :                         }
     469           0 :                         ctx->user_bufs[i] = ctx->dummy_ubuf;
     470             :                 }
     471             : 
     472           0 :                 ctx->user_bufs[i] = imu;
     473           0 :                 *io_get_tag_slot(ctx->buf_data, i) = tag;
     474             :         }
     475           0 :         return done ? done : err;
     476             : }
     477             : 
     478           0 : static int __io_register_rsrc_update(struct io_ring_ctx *ctx, unsigned type,
     479             :                                      struct io_uring_rsrc_update2 *up,
     480             :                                      unsigned nr_args)
     481             : {
     482             :         __u32 tmp;
     483             : 
     484             :         lockdep_assert_held(&ctx->uring_lock);
     485             : 
     486           0 :         if (check_add_overflow(up->offset, nr_args, &tmp))
     487             :                 return -EOVERFLOW;
     488             : 
     489           0 :         switch (type) {
     490             :         case IORING_RSRC_FILE:
     491           0 :                 return __io_sqe_files_update(ctx, up, nr_args);
     492             :         case IORING_RSRC_BUFFER:
     493           0 :                 return __io_sqe_buffers_update(ctx, up, nr_args);
     494             :         }
     495             :         return -EINVAL;
     496             : }
     497             : 
     498           0 : int io_register_files_update(struct io_ring_ctx *ctx, void __user *arg,
     499             :                              unsigned nr_args)
     500             : {
     501             :         struct io_uring_rsrc_update2 up;
     502             : 
     503           0 :         if (!nr_args)
     504             :                 return -EINVAL;
     505           0 :         memset(&up, 0, sizeof(up));
     506           0 :         if (copy_from_user(&up, arg, sizeof(struct io_uring_rsrc_update)))
     507             :                 return -EFAULT;
     508           0 :         if (up.resv || up.resv2)
     509             :                 return -EINVAL;
     510             :         return __io_register_rsrc_update(ctx, IORING_RSRC_FILE, &up, nr_args);
     511             : }
     512             : 
     513           0 : int io_register_rsrc_update(struct io_ring_ctx *ctx, void __user *arg,
     514             :                             unsigned size, unsigned type)
     515             : {
     516             :         struct io_uring_rsrc_update2 up;
     517             : 
     518           0 :         if (size != sizeof(up))
     519             :                 return -EINVAL;
     520           0 :         if (copy_from_user(&up, arg, sizeof(up)))
     521             :                 return -EFAULT;
     522           0 :         if (!up.nr || up.resv || up.resv2)
     523             :                 return -EINVAL;
     524           0 :         return __io_register_rsrc_update(ctx, type, &up, up.nr);
     525             : }
     526             : 
     527           0 : __cold int io_register_rsrc(struct io_ring_ctx *ctx, void __user *arg,
     528             :                             unsigned int size, unsigned int type)
     529             : {
     530             :         struct io_uring_rsrc_register rr;
     531             : 
     532             :         /* keep it extendible */
     533           0 :         if (size != sizeof(rr))
     534             :                 return -EINVAL;
     535             : 
     536           0 :         memset(&rr, 0, sizeof(rr));
     537           0 :         if (copy_from_user(&rr, arg, size))
     538             :                 return -EFAULT;
     539           0 :         if (!rr.nr || rr.resv2)
     540             :                 return -EINVAL;
     541           0 :         if (rr.flags & ~IORING_RSRC_REGISTER_SPARSE)
     542             :                 return -EINVAL;
     543             : 
     544           0 :         switch (type) {
     545             :         case IORING_RSRC_FILE:
     546           0 :                 if (rr.flags & IORING_RSRC_REGISTER_SPARSE && rr.data)
     547             :                         break;
     548           0 :                 return io_sqe_files_register(ctx, u64_to_user_ptr(rr.data),
     549           0 :                                              rr.nr, u64_to_user_ptr(rr.tags));
     550             :         case IORING_RSRC_BUFFER:
     551           0 :                 if (rr.flags & IORING_RSRC_REGISTER_SPARSE && rr.data)
     552             :                         break;
     553           0 :                 return io_sqe_buffers_register(ctx, u64_to_user_ptr(rr.data),
     554           0 :                                                rr.nr, u64_to_user_ptr(rr.tags));
     555             :         }
     556             :         return -EINVAL;
     557             : }
     558             : 
     559           0 : int io_files_update_prep(struct io_kiocb *req, const struct io_uring_sqe *sqe)
     560             : {
     561           0 :         struct io_rsrc_update *up = io_kiocb_to_cmd(req, struct io_rsrc_update);
     562             : 
     563           0 :         if (unlikely(req->flags & (REQ_F_FIXED_FILE | REQ_F_BUFFER_SELECT)))
     564             :                 return -EINVAL;
     565           0 :         if (sqe->rw_flags || sqe->splice_fd_in)
     566             :                 return -EINVAL;
     567             : 
     568           0 :         up->offset = READ_ONCE(sqe->off);
     569           0 :         up->nr_args = READ_ONCE(sqe->len);
     570           0 :         if (!up->nr_args)
     571             :                 return -EINVAL;
     572           0 :         up->arg = READ_ONCE(sqe->addr);
     573           0 :         return 0;
     574             : }
     575             : 
     576           0 : static int io_files_update_with_index_alloc(struct io_kiocb *req,
     577             :                                             unsigned int issue_flags)
     578             : {
     579           0 :         struct io_rsrc_update *up = io_kiocb_to_cmd(req, struct io_rsrc_update);
     580           0 :         __s32 __user *fds = u64_to_user_ptr(up->arg);
     581             :         unsigned int done;
     582             :         struct file *file;
     583             :         int ret, fd;
     584             : 
     585           0 :         if (!req->ctx->file_data)
     586             :                 return -ENXIO;
     587             : 
     588           0 :         for (done = 0; done < up->nr_args; done++) {
     589           0 :                 if (copy_from_user(&fd, &fds[done], sizeof(fd))) {
     590           0 :                         ret = -EFAULT;
     591           0 :                         break;
     592             :                 }
     593             : 
     594           0 :                 file = fget(fd);
     595           0 :                 if (!file) {
     596           0 :                         ret = -EBADF;
     597           0 :                         break;
     598             :                 }
     599           0 :                 ret = io_fixed_fd_install(req, issue_flags, file,
     600             :                                           IORING_FILE_INDEX_ALLOC);
     601           0 :                 if (ret < 0)
     602             :                         break;
     603           0 :                 if (copy_to_user(&fds[done], &ret, sizeof(ret))) {
     604           0 :                         __io_close_fixed(req->ctx, issue_flags, ret);
     605           0 :                         ret = -EFAULT;
     606           0 :                         break;
     607             :                 }
     608             :         }
     609             : 
     610           0 :         if (done)
     611           0 :                 return done;
     612           0 :         return ret;
     613             : }
     614             : 
     615           0 : int io_files_update(struct io_kiocb *req, unsigned int issue_flags)
     616             : {
     617           0 :         struct io_rsrc_update *up = io_kiocb_to_cmd(req, struct io_rsrc_update);
     618           0 :         struct io_ring_ctx *ctx = req->ctx;
     619             :         struct io_uring_rsrc_update2 up2;
     620             :         int ret;
     621             : 
     622           0 :         up2.offset = up->offset;
     623           0 :         up2.data = up->arg;
     624           0 :         up2.nr = 0;
     625           0 :         up2.tags = 0;
     626           0 :         up2.resv = 0;
     627           0 :         up2.resv2 = 0;
     628             : 
     629           0 :         if (up->offset == IORING_FILE_INDEX_ALLOC) {
     630           0 :                 ret = io_files_update_with_index_alloc(req, issue_flags);
     631             :         } else {
     632           0 :                 io_ring_submit_lock(ctx, issue_flags);
     633           0 :                 ret = __io_register_rsrc_update(ctx, IORING_RSRC_FILE,
     634             :                                                 &up2, up->nr_args);
     635             :                 io_ring_submit_unlock(ctx, issue_flags);
     636             :         }
     637             : 
     638           0 :         if (ret < 0)
     639           0 :                 req_set_fail(req);
     640           0 :         io_req_set_res(req, ret, 0);
     641           0 :         return IOU_OK;
     642             : }
     643             : 
     644           0 : int io_queue_rsrc_removal(struct io_rsrc_data *data, unsigned idx, void *rsrc)
     645             : {
     646           0 :         struct io_ring_ctx *ctx = data->ctx;
     647           0 :         struct io_rsrc_node *node = ctx->rsrc_node;
     648           0 :         u64 *tag_slot = io_get_tag_slot(data, idx);
     649             : 
     650           0 :         ctx->rsrc_node = io_rsrc_node_alloc(ctx);
     651           0 :         if (unlikely(!ctx->rsrc_node)) {
     652           0 :                 ctx->rsrc_node = node;
     653           0 :                 return -ENOMEM;
     654             :         }
     655             : 
     656           0 :         node->item.rsrc = rsrc;
     657           0 :         node->type = data->rsrc_type;
     658           0 :         node->item.tag = *tag_slot;
     659           0 :         *tag_slot = 0;
     660           0 :         list_add_tail(&node->node, &ctx->rsrc_ref_list);
     661           0 :         io_put_rsrc_node(ctx, node);
     662             :         return 0;
     663             : }
     664             : 
     665           0 : void __io_sqe_files_unregister(struct io_ring_ctx *ctx)
     666             : {
     667             :         int i;
     668             : 
     669           0 :         for (i = 0; i < ctx->nr_user_files; i++) {
     670           0 :                 struct file *file = io_file_from_index(&ctx->file_table, i);
     671             : 
     672             :                 /* skip scm accounted files, they'll be freed by ->ring_sock */
     673           0 :                 if (!file || io_file_need_scm(file))
     674           0 :                         continue;
     675           0 :                 io_file_bitmap_clear(&ctx->file_table, i);
     676           0 :                 fput(file);
     677             :         }
     678             : 
     679             : #if defined(CONFIG_UNIX)
     680             :         if (ctx->ring_sock) {
     681             :                 struct sock *sock = ctx->ring_sock->sk;
     682             :                 struct sk_buff *skb;
     683             : 
     684             :                 while ((skb = skb_dequeue(&sock->sk_receive_queue)) != NULL)
     685             :                         kfree_skb(skb);
     686             :         }
     687             : #endif
     688           0 :         io_free_file_tables(&ctx->file_table);
     689           0 :         io_file_table_set_alloc_range(ctx, 0, 0);
     690           0 :         io_rsrc_data_free(ctx->file_data);
     691           0 :         ctx->file_data = NULL;
     692           0 :         ctx->nr_user_files = 0;
     693           0 : }
     694             : 
     695           0 : int io_sqe_files_unregister(struct io_ring_ctx *ctx)
     696             : {
     697           0 :         unsigned nr = ctx->nr_user_files;
     698             :         int ret;
     699             : 
     700           0 :         if (!ctx->file_data)
     701             :                 return -ENXIO;
     702             : 
     703             :         /*
     704             :          * Quiesce may unlock ->uring_lock, and while it's not held
     705             :          * prevent new requests using the table.
     706             :          */
     707           0 :         ctx->nr_user_files = 0;
     708           0 :         ret = io_rsrc_ref_quiesce(ctx->file_data, ctx);
     709           0 :         ctx->nr_user_files = nr;
     710           0 :         if (!ret)
     711           0 :                 __io_sqe_files_unregister(ctx);
     712             :         return ret;
     713             : }
     714             : 
     715             : /*
     716             :  * Ensure the UNIX gc is aware of our file set, so we are certain that
     717             :  * the io_uring can be safely unregistered on process exit, even if we have
     718             :  * loops in the file referencing. We account only files that can hold other
     719             :  * files because otherwise they can't form a loop and so are not interesting
     720             :  * for GC.
     721             :  */
     722           0 : int __io_scm_file_account(struct io_ring_ctx *ctx, struct file *file)
     723             : {
     724             : #if defined(CONFIG_UNIX)
     725             :         struct sock *sk = ctx->ring_sock->sk;
     726             :         struct sk_buff_head *head = &sk->sk_receive_queue;
     727             :         struct scm_fp_list *fpl;
     728             :         struct sk_buff *skb;
     729             : 
     730             :         if (likely(!io_file_need_scm(file)))
     731             :                 return 0;
     732             : 
     733             :         /*
     734             :          * See if we can merge this file into an existing skb SCM_RIGHTS
     735             :          * file set. If there's no room, fall back to allocating a new skb
     736             :          * and filling it in.
     737             :          */
     738             :         spin_lock_irq(&head->lock);
     739             :         skb = skb_peek(head);
     740             :         if (skb && UNIXCB(skb).fp->count < SCM_MAX_FD)
     741             :                 __skb_unlink(skb, head);
     742             :         else
     743             :                 skb = NULL;
     744             :         spin_unlock_irq(&head->lock);
     745             : 
     746             :         if (!skb) {
     747             :                 fpl = kzalloc(sizeof(*fpl), GFP_KERNEL);
     748             :                 if (!fpl)
     749             :                         return -ENOMEM;
     750             : 
     751             :                 skb = alloc_skb(0, GFP_KERNEL);
     752             :                 if (!skb) {
     753             :                         kfree(fpl);
     754             :                         return -ENOMEM;
     755             :                 }
     756             : 
     757             :                 fpl->user = get_uid(current_user());
     758             :                 fpl->max = SCM_MAX_FD;
     759             :                 fpl->count = 0;
     760             : 
     761             :                 UNIXCB(skb).fp = fpl;
     762             :                 skb->sk = sk;
     763             :                 skb->destructor = io_uring_destruct_scm;
     764             :                 refcount_add(skb->truesize, &sk->sk_wmem_alloc);
     765             :         }
     766             : 
     767             :         fpl = UNIXCB(skb).fp;
     768             :         fpl->fp[fpl->count++] = get_file(file);
     769             :         unix_inflight(fpl->user, file);
     770             :         skb_queue_head(head, skb);
     771             :         fput(file);
     772             : #endif
     773           0 :         return 0;
     774             : }
     775             : 
     776             : static __cold void io_rsrc_file_scm_put(struct io_ring_ctx *ctx, struct file *file)
     777             : {
     778             : #if defined(CONFIG_UNIX)
     779             :         struct sock *sock = ctx->ring_sock->sk;
     780             :         struct sk_buff_head list, *head = &sock->sk_receive_queue;
     781             :         struct sk_buff *skb;
     782             :         int i;
     783             : 
     784             :         __skb_queue_head_init(&list);
     785             : 
     786             :         /*
     787             :          * Find the skb that holds this file in its SCM_RIGHTS. When found,
     788             :          * remove this entry and rearrange the file array.
     789             :          */
     790             :         skb = skb_dequeue(head);
     791             :         while (skb) {
     792             :                 struct scm_fp_list *fp;
     793             : 
     794             :                 fp = UNIXCB(skb).fp;
     795             :                 for (i = 0; i < fp->count; i++) {
     796             :                         int left;
     797             : 
     798             :                         if (fp->fp[i] != file)
     799             :                                 continue;
     800             : 
     801             :                         unix_notinflight(fp->user, fp->fp[i]);
     802             :                         left = fp->count - 1 - i;
     803             :                         if (left) {
     804             :                                 memmove(&fp->fp[i], &fp->fp[i + 1],
     805             :                                                 left * sizeof(struct file *));
     806             :                         }
     807             :                         fp->count--;
     808             :                         if (!fp->count) {
     809             :                                 kfree_skb(skb);
     810             :                                 skb = NULL;
     811             :                         } else {
     812             :                                 __skb_queue_tail(&list, skb);
     813             :                         }
     814             :                         fput(file);
     815             :                         file = NULL;
     816             :                         break;
     817             :                 }
     818             : 
     819             :                 if (!file)
     820             :                         break;
     821             : 
     822             :                 __skb_queue_tail(&list, skb);
     823             : 
     824             :                 skb = skb_dequeue(head);
     825             :         }
     826             : 
     827             :         if (skb_peek(&list)) {
     828             :                 spin_lock_irq(&head->lock);
     829             :                 while ((skb = __skb_dequeue(&list)) != NULL)
     830             :                         __skb_queue_tail(head, skb);
     831             :                 spin_unlock_irq(&head->lock);
     832             :         }
     833             : #endif
     834             : }
     835             : 
     836             : static void io_rsrc_file_put(struct io_ring_ctx *ctx, struct io_rsrc_put *prsrc)
     837             : {
     838           0 :         struct file *file = prsrc->file;
     839             : 
     840           0 :         if (likely(!io_file_need_scm(file)))
     841           0 :                 fput(file);
     842             :         else
     843             :                 io_rsrc_file_scm_put(ctx, file);
     844             : }
     845             : 
     846           0 : int io_sqe_files_register(struct io_ring_ctx *ctx, void __user *arg,
     847             :                           unsigned nr_args, u64 __user *tags)
     848             : {
     849           0 :         __s32 __user *fds = (__s32 __user *) arg;
     850             :         struct file *file;
     851             :         int fd, ret;
     852             :         unsigned i;
     853             : 
     854           0 :         if (ctx->file_data)
     855             :                 return -EBUSY;
     856           0 :         if (!nr_args)
     857             :                 return -EINVAL;
     858           0 :         if (nr_args > IORING_MAX_FIXED_FILES)
     859             :                 return -EMFILE;
     860           0 :         if (nr_args > rlimit(RLIMIT_NOFILE))
     861             :                 return -EMFILE;
     862           0 :         ret = io_rsrc_data_alloc(ctx, IORING_RSRC_FILE, tags, nr_args,
     863             :                                  &ctx->file_data);
     864           0 :         if (ret)
     865             :                 return ret;
     866             : 
     867           0 :         if (!io_alloc_file_tables(&ctx->file_table, nr_args)) {
     868           0 :                 io_rsrc_data_free(ctx->file_data);
     869           0 :                 ctx->file_data = NULL;
     870           0 :                 return -ENOMEM;
     871             :         }
     872             : 
     873           0 :         for (i = 0; i < nr_args; i++, ctx->nr_user_files++) {
     874             :                 struct io_fixed_file *file_slot;
     875             : 
     876           0 :                 if (fds && copy_from_user(&fd, &fds[i], sizeof(fd))) {
     877             :                         ret = -EFAULT;
     878             :                         goto fail;
     879             :                 }
     880             :                 /* allow sparse sets */
     881           0 :                 if (!fds || fd == -1) {
     882           0 :                         ret = -EINVAL;
     883           0 :                         if (unlikely(*io_get_tag_slot(ctx->file_data, i)))
     884             :                                 goto fail;
     885           0 :                         continue;
     886             :                 }
     887             : 
     888           0 :                 file = fget(fd);
     889           0 :                 ret = -EBADF;
     890           0 :                 if (unlikely(!file))
     891             :                         goto fail;
     892             : 
     893             :                 /*
     894             :                  * Don't allow io_uring instances to be registered. If UNIX
     895             :                  * isn't enabled, then this causes a reference cycle and this
     896             :                  * instance can never get freed. If UNIX is enabled we'll
     897             :                  * handle it just fine, but there's still no point in allowing
     898             :                  * a ring fd as it doesn't support regular read/write anyway.
     899             :                  */
     900           0 :                 if (io_is_uring_fops(file)) {
     901           0 :                         fput(file);
     902           0 :                         goto fail;
     903             :                 }
     904           0 :                 ret = io_scm_file_account(ctx, file);
     905             :                 if (ret) {
     906             :                         fput(file);
     907             :                         goto fail;
     908             :                 }
     909           0 :                 file_slot = io_fixed_file_slot(&ctx->file_table, i);
     910           0 :                 io_fixed_file_set(file_slot, file);
     911           0 :                 io_file_bitmap_set(&ctx->file_table, i);
     912             :         }
     913             : 
     914             :         /* default it to the whole table */
     915           0 :         io_file_table_set_alloc_range(ctx, 0, ctx->nr_user_files);
     916           0 :         return 0;
     917             : fail:
     918           0 :         __io_sqe_files_unregister(ctx);
     919           0 :         return ret;
     920             : }
     921             : 
     922             : static void io_rsrc_buf_put(struct io_ring_ctx *ctx, struct io_rsrc_put *prsrc)
     923             : {
     924           0 :         io_buffer_unmap(ctx, &prsrc->buf);
     925           0 :         prsrc->buf = NULL;
     926             : }
     927             : 
     928           0 : void __io_sqe_buffers_unregister(struct io_ring_ctx *ctx)
     929             : {
     930             :         unsigned int i;
     931             : 
     932           0 :         for (i = 0; i < ctx->nr_user_bufs; i++)
     933           0 :                 io_buffer_unmap(ctx, &ctx->user_bufs[i]);
     934           0 :         kfree(ctx->user_bufs);
     935           0 :         io_rsrc_data_free(ctx->buf_data);
     936           0 :         ctx->user_bufs = NULL;
     937           0 :         ctx->buf_data = NULL;
     938           0 :         ctx->nr_user_bufs = 0;
     939           0 : }
     940             : 
     941           0 : int io_sqe_buffers_unregister(struct io_ring_ctx *ctx)
     942             : {
     943           0 :         unsigned nr = ctx->nr_user_bufs;
     944             :         int ret;
     945             : 
     946           0 :         if (!ctx->buf_data)
     947             :                 return -ENXIO;
     948             : 
     949             :         /*
     950             :          * Quiesce may unlock ->uring_lock, and while it's not held
     951             :          * prevent new requests using the table.
     952             :          */
     953           0 :         ctx->nr_user_bufs = 0;
     954           0 :         ret = io_rsrc_ref_quiesce(ctx->buf_data, ctx);
     955           0 :         ctx->nr_user_bufs = nr;
     956           0 :         if (!ret)
     957           0 :                 __io_sqe_buffers_unregister(ctx);
     958             :         return ret;
     959             : }
     960             : 
     961             : /*
     962             :  * Not super efficient, but this is just a registration time. And we do cache
     963             :  * the last compound head, so generally we'll only do a full search if we don't
     964             :  * match that one.
     965             :  *
     966             :  * We check if the given compound head page has already been accounted, to
     967             :  * avoid double accounting it. This allows us to account the full size of the
     968             :  * page, not just the constituent pages of a huge page.
     969             :  */
     970           0 : static bool headpage_already_acct(struct io_ring_ctx *ctx, struct page **pages,
     971             :                                   int nr_pages, struct page *hpage)
     972             : {
     973             :         int i, j;
     974             : 
     975             :         /* check current page array */
     976           0 :         for (i = 0; i < nr_pages; i++) {
     977           0 :                 if (!PageCompound(pages[i]))
     978           0 :                         continue;
     979           0 :                 if (compound_head(pages[i]) == hpage)
     980             :                         return true;
     981             :         }
     982             : 
     983             :         /* check previously registered pages */
     984           0 :         for (i = 0; i < ctx->nr_user_bufs; i++) {
     985           0 :                 struct io_mapped_ubuf *imu = ctx->user_bufs[i];
     986             : 
     987           0 :                 for (j = 0; j < imu->nr_bvecs; j++) {
     988           0 :                         if (!PageCompound(imu->bvec[j].bv_page))
     989           0 :                                 continue;
     990           0 :                         if (compound_head(imu->bvec[j].bv_page) == hpage)
     991             :                                 return true;
     992             :                 }
     993             :         }
     994             : 
     995             :         return false;
     996             : }
     997             : 
     998           0 : static int io_buffer_account_pin(struct io_ring_ctx *ctx, struct page **pages,
     999             :                                  int nr_pages, struct io_mapped_ubuf *imu,
    1000             :                                  struct page **last_hpage)
    1001             : {
    1002             :         int i, ret;
    1003             : 
    1004           0 :         imu->acct_pages = 0;
    1005           0 :         for (i = 0; i < nr_pages; i++) {
    1006           0 :                 if (!PageCompound(pages[i])) {
    1007           0 :                         imu->acct_pages++;
    1008             :                 } else {
    1009             :                         struct page *hpage;
    1010             : 
    1011           0 :                         hpage = compound_head(pages[i]);
    1012           0 :                         if (hpage == *last_hpage)
    1013           0 :                                 continue;
    1014           0 :                         *last_hpage = hpage;
    1015           0 :                         if (headpage_already_acct(ctx, pages, i, hpage))
    1016           0 :                                 continue;
    1017           0 :                         imu->acct_pages += page_size(hpage) >> PAGE_SHIFT;
    1018             :                 }
    1019             :         }
    1020             : 
    1021           0 :         if (!imu->acct_pages)
    1022             :                 return 0;
    1023             : 
    1024           0 :         ret = io_account_mem(ctx, imu->acct_pages);
    1025           0 :         if (ret)
    1026           0 :                 imu->acct_pages = 0;
    1027             :         return ret;
    1028             : }
    1029             : 
    1030           0 : struct page **io_pin_pages(unsigned long ubuf, unsigned long len, int *npages)
    1031             : {
    1032             :         unsigned long start, end, nr_pages;
    1033           0 :         struct vm_area_struct **vmas = NULL;
    1034           0 :         struct page **pages = NULL;
    1035           0 :         int i, pret, ret = -ENOMEM;
    1036             : 
    1037           0 :         end = (ubuf + len + PAGE_SIZE - 1) >> PAGE_SHIFT;
    1038           0 :         start = ubuf >> PAGE_SHIFT;
    1039           0 :         nr_pages = end - start;
    1040             : 
    1041           0 :         pages = kvmalloc_array(nr_pages, sizeof(struct page *), GFP_KERNEL);
    1042           0 :         if (!pages)
    1043             :                 goto done;
    1044             : 
    1045           0 :         vmas = kvmalloc_array(nr_pages, sizeof(struct vm_area_struct *),
    1046             :                               GFP_KERNEL);
    1047           0 :         if (!vmas)
    1048             :                 goto done;
    1049             : 
    1050           0 :         ret = 0;
    1051           0 :         mmap_read_lock(current->mm);
    1052           0 :         pret = pin_user_pages(ubuf, nr_pages, FOLL_WRITE | FOLL_LONGTERM,
    1053             :                               pages, vmas);
    1054           0 :         if (pret == nr_pages) {
    1055             :                 /* don't support file backed memory */
    1056           0 :                 for (i = 0; i < nr_pages; i++) {
    1057           0 :                         struct vm_area_struct *vma = vmas[i];
    1058             : 
    1059           0 :                         if (vma_is_shmem(vma))
    1060           0 :                                 continue;
    1061           0 :                         if (vma->vm_file &&
    1062             :                             !is_file_hugepages(vma->vm_file)) {
    1063             :                                 ret = -EOPNOTSUPP;
    1064             :                                 break;
    1065             :                         }
    1066             :                 }
    1067           0 :                 *npages = nr_pages;
    1068             :         } else {
    1069           0 :                 ret = pret < 0 ? pret : -EFAULT;
    1070             :         }
    1071           0 :         mmap_read_unlock(current->mm);
    1072           0 :         if (ret) {
    1073             :                 /*
    1074             :                  * if we did partial map, or found file backed vmas,
    1075             :                  * release any pages we did get
    1076             :                  */
    1077           0 :                 if (pret > 0)
    1078           0 :                         unpin_user_pages(pages, pret);
    1079             :                 goto done;
    1080             :         }
    1081             :         ret = 0;
    1082             : done:
    1083           0 :         kvfree(vmas);
    1084           0 :         if (ret < 0) {
    1085           0 :                 kvfree(pages);
    1086           0 :                 pages = ERR_PTR(ret);
    1087             :         }
    1088           0 :         return pages;
    1089             : }
    1090             : 
    1091           0 : static int io_sqe_buffer_register(struct io_ring_ctx *ctx, struct iovec *iov,
    1092             :                                   struct io_mapped_ubuf **pimu,
    1093             :                                   struct page **last_hpage)
    1094             : {
    1095           0 :         struct io_mapped_ubuf *imu = NULL;
    1096           0 :         struct page **pages = NULL;
    1097             :         unsigned long off;
    1098             :         size_t size;
    1099             :         int ret, nr_pages, i;
    1100           0 :         struct folio *folio = NULL;
    1101             : 
    1102           0 :         *pimu = ctx->dummy_ubuf;
    1103           0 :         if (!iov->iov_base)
    1104             :                 return 0;
    1105             : 
    1106           0 :         ret = -ENOMEM;
    1107           0 :         pages = io_pin_pages((unsigned long) iov->iov_base, iov->iov_len,
    1108             :                                 &nr_pages);
    1109           0 :         if (IS_ERR(pages)) {
    1110           0 :                 ret = PTR_ERR(pages);
    1111           0 :                 pages = NULL;
    1112           0 :                 goto done;
    1113             :         }
    1114             : 
    1115             :         /* If it's a huge page, try to coalesce them into a single bvec entry */
    1116           0 :         if (nr_pages > 1) {
    1117           0 :                 folio = page_folio(pages[0]);
    1118           0 :                 for (i = 1; i < nr_pages; i++) {
    1119             :                         /*
    1120             :                          * Pages must be consecutive and on the same folio for
    1121             :                          * this to work
    1122             :                          */
    1123           0 :                         if (page_folio(pages[i]) != folio ||
    1124           0 :                             pages[i] != pages[i - 1] + 1) {
    1125             :                                 folio = NULL;
    1126             :                                 break;
    1127             :                         }
    1128             :                 }
    1129           0 :                 if (folio) {
    1130             :                         /*
    1131             :                          * The pages are bound to the folio, it doesn't
    1132             :                          * actually unpin them but drops all but one reference,
    1133             :                          * which is usually put down by io_buffer_unmap().
    1134             :                          * Note, needs a better helper.
    1135             :                          */
    1136           0 :                         unpin_user_pages(&pages[1], nr_pages - 1);
    1137           0 :                         nr_pages = 1;
    1138             :                 }
    1139             :         }
    1140             : 
    1141           0 :         imu = kvmalloc(struct_size(imu, bvec, nr_pages), GFP_KERNEL);
    1142           0 :         if (!imu)
    1143             :                 goto done;
    1144             : 
    1145           0 :         ret = io_buffer_account_pin(ctx, pages, nr_pages, imu, last_hpage);
    1146           0 :         if (ret) {
    1147           0 :                 unpin_user_pages(pages, nr_pages);
    1148           0 :                 goto done;
    1149             :         }
    1150             : 
    1151           0 :         off = (unsigned long) iov->iov_base & ~PAGE_MASK;
    1152           0 :         size = iov->iov_len;
    1153             :         /* store original address for later verification */
    1154           0 :         imu->ubuf = (unsigned long) iov->iov_base;
    1155           0 :         imu->ubuf_end = imu->ubuf + iov->iov_len;
    1156           0 :         imu->nr_bvecs = nr_pages;
    1157           0 :         *pimu = imu;
    1158           0 :         ret = 0;
    1159             : 
    1160           0 :         if (folio) {
    1161           0 :                 bvec_set_page(&imu->bvec[0], pages[0], size, off);
    1162             :                 goto done;
    1163             :         }
    1164           0 :         for (i = 0; i < nr_pages; i++) {
    1165             :                 size_t vec_len;
    1166             : 
    1167           0 :                 vec_len = min_t(size_t, size, PAGE_SIZE - off);
    1168           0 :                 bvec_set_page(&imu->bvec[i], pages[i], vec_len, off);
    1169           0 :                 off = 0;
    1170           0 :                 size -= vec_len;
    1171             :         }
    1172             : done:
    1173           0 :         if (ret)
    1174           0 :                 kvfree(imu);
    1175           0 :         kvfree(pages);
    1176           0 :         return ret;
    1177             : }
    1178             : 
    1179             : static int io_buffers_map_alloc(struct io_ring_ctx *ctx, unsigned int nr_args)
    1180             : {
    1181           0 :         ctx->user_bufs = kcalloc(nr_args, sizeof(*ctx->user_bufs), GFP_KERNEL);
    1182           0 :         return ctx->user_bufs ? 0 : -ENOMEM;
    1183             : }
    1184             : 
    1185           0 : int io_sqe_buffers_register(struct io_ring_ctx *ctx, void __user *arg,
    1186             :                             unsigned int nr_args, u64 __user *tags)
    1187             : {
    1188           0 :         struct page *last_hpage = NULL;
    1189             :         struct io_rsrc_data *data;
    1190             :         int i, ret;
    1191             :         struct iovec iov;
    1192             : 
    1193             :         BUILD_BUG_ON(IORING_MAX_REG_BUFFERS >= (1u << 16));
    1194             : 
    1195           0 :         if (ctx->user_bufs)
    1196             :                 return -EBUSY;
    1197           0 :         if (!nr_args || nr_args > IORING_MAX_REG_BUFFERS)
    1198             :                 return -EINVAL;
    1199           0 :         ret = io_rsrc_data_alloc(ctx, IORING_RSRC_BUFFER, tags, nr_args, &data);
    1200           0 :         if (ret)
    1201             :                 return ret;
    1202           0 :         ret = io_buffers_map_alloc(ctx, nr_args);
    1203           0 :         if (ret) {
    1204           0 :                 io_rsrc_data_free(data);
    1205           0 :                 return ret;
    1206             :         }
    1207             : 
    1208           0 :         for (i = 0; i < nr_args; i++, ctx->nr_user_bufs++) {
    1209           0 :                 if (arg) {
    1210           0 :                         ret = io_copy_iov(ctx, &iov, arg, i);
    1211           0 :                         if (ret)
    1212             :                                 break;
    1213           0 :                         ret = io_buffer_validate(&iov);
    1214           0 :                         if (ret)
    1215             :                                 break;
    1216             :                 } else {
    1217           0 :                         memset(&iov, 0, sizeof(iov));
    1218             :                 }
    1219             : 
    1220           0 :                 if (!iov.iov_base && *io_get_tag_slot(data, i)) {
    1221             :                         ret = -EINVAL;
    1222             :                         break;
    1223             :                 }
    1224             : 
    1225           0 :                 ret = io_sqe_buffer_register(ctx, &iov, &ctx->user_bufs[i],
    1226             :                                              &last_hpage);
    1227           0 :                 if (ret)
    1228             :                         break;
    1229             :         }
    1230             : 
    1231           0 :         WARN_ON_ONCE(ctx->buf_data);
    1232             : 
    1233           0 :         ctx->buf_data = data;
    1234           0 :         if (ret)
    1235           0 :                 __io_sqe_buffers_unregister(ctx);
    1236             :         return ret;
    1237             : }
    1238             : 
    1239           0 : int io_import_fixed(int ddir, struct iov_iter *iter,
    1240             :                            struct io_mapped_ubuf *imu,
    1241             :                            u64 buf_addr, size_t len)
    1242             : {
    1243             :         u64 buf_end;
    1244             :         size_t offset;
    1245             : 
    1246           0 :         if (WARN_ON_ONCE(!imu))
    1247             :                 return -EFAULT;
    1248           0 :         if (unlikely(check_add_overflow(buf_addr, (u64)len, &buf_end)))
    1249             :                 return -EFAULT;
    1250             :         /* not inside the mapped region */
    1251           0 :         if (unlikely(buf_addr < imu->ubuf || buf_end > imu->ubuf_end))
    1252             :                 return -EFAULT;
    1253             : 
    1254             :         /*
    1255             :          * Might not be a start of buffer, set size appropriately
    1256             :          * and advance us to the beginning.
    1257             :          */
    1258           0 :         offset = buf_addr - imu->ubuf;
    1259           0 :         iov_iter_bvec(iter, ddir, imu->bvec, imu->nr_bvecs, offset + len);
    1260             : 
    1261           0 :         if (offset) {
    1262             :                 /*
    1263             :                  * Don't use iov_iter_advance() here, as it's really slow for
    1264             :                  * using the latter parts of a big fixed buffer - it iterates
    1265             :                  * over each segment manually. We can cheat a bit here, because
    1266             :                  * we know that:
    1267             :                  *
    1268             :                  * 1) it's a BVEC iter, we set it up
    1269             :                  * 2) all bvecs are PAGE_SIZE in size, except potentially the
    1270             :                  *    first and last bvec
    1271             :                  *
    1272             :                  * So just find our index, and adjust the iterator afterwards.
    1273             :                  * If the offset is within the first bvec (or the whole first
    1274             :                  * bvec, just use iov_iter_advance(). This makes it easier
    1275             :                  * since we can just skip the first segment, which may not
    1276             :                  * be PAGE_SIZE aligned.
    1277             :                  */
    1278           0 :                 const struct bio_vec *bvec = imu->bvec;
    1279             : 
    1280           0 :                 if (offset <= bvec->bv_len) {
    1281             :                         /*
    1282             :                          * Note, huge pages buffers consists of one large
    1283             :                          * bvec entry and should always go this way. The other
    1284             :                          * branch doesn't expect non PAGE_SIZE'd chunks.
    1285             :                          */
    1286           0 :                         iter->bvec = bvec;
    1287           0 :                         iter->nr_segs = bvec->bv_len;
    1288           0 :                         iter->count -= offset;
    1289           0 :                         iter->iov_offset = offset;
    1290             :                 } else {
    1291             :                         unsigned long seg_skip;
    1292             : 
    1293             :                         /* skip first vec */
    1294           0 :                         offset -= bvec->bv_len;
    1295           0 :                         seg_skip = 1 + (offset >> PAGE_SHIFT);
    1296             : 
    1297           0 :                         iter->bvec = bvec + seg_skip;
    1298           0 :                         iter->nr_segs -= seg_skip;
    1299           0 :                         iter->count -= bvec->bv_len + offset;
    1300           0 :                         iter->iov_offset = offset & ~PAGE_MASK;
    1301             :                 }
    1302             :         }
    1303             : 
    1304             :         return 0;
    1305             : }

Generated by: LCOV version 1.14