sfc_ef100: implement ndo_open/close and EVQ probing
authorEdward Cree <ecree@solarflare.com>
Mon, 27 Jul 2020 11:57:34 +0000 (12:57 +0100)
committerDavid S. Miller <davem@davemloft.net>
Mon, 27 Jul 2020 19:26:55 +0000 (12:26 -0700)
Channels are probed, but actual event handling is still stubbed out.

Stub implementation of check_caps is needed because ptp.c will call into
 it from efx_ptp_use_mac_tx_timestamps() to decide if it wants TXQs.

Signed-off-by: Edward Cree <ecree@solarflare.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/sfc/ef100_netdev.c
drivers/net/ethernet/sfc/ef100_nic.c
drivers/net/ethernet/sfc/ef100_nic.h
drivers/net/ethernet/sfc/ef100_rx.c
drivers/net/ethernet/sfc/ef100_rx.h
drivers/net/ethernet/sfc/ef100_tx.c
drivers/net/ethernet/sfc/ef100_tx.h

index f900b37..d1753ed 100644 (file)
@@ -29,6 +29,147 @@ static void ef100_update_name(struct efx_nic *efx)
        strcpy(efx->name, efx->net_dev->name);
 }
 
+static int ef100_alloc_vis(struct efx_nic *efx, unsigned int *allocated_vis)
+{
+       /* EF100 uses a single TXQ per channel, as all checksum offloading
+        * is configured in the TX descriptor, and there is no TX Pacer for
+        * HIGHPRI queues.
+        */
+       unsigned int tx_vis = efx->n_tx_channels + efx->n_extra_tx_channels;
+       unsigned int rx_vis = efx->n_rx_channels;
+       unsigned int min_vis, max_vis;
+
+       EFX_WARN_ON_PARANOID(efx->tx_queues_per_channel != 1);
+
+       tx_vis += efx->n_xdp_channels * efx->xdp_tx_per_channel;
+
+       max_vis = max(rx_vis, tx_vis);
+       /* Currently don't handle resource starvation and only accept
+        * our maximum needs and no less.
+        */
+       min_vis = max_vis;
+
+       return efx_mcdi_alloc_vis(efx, min_vis, max_vis,
+                                 NULL, allocated_vis);
+}
+
+static int ef100_remap_bar(struct efx_nic *efx, int max_vis)
+{
+       unsigned int uc_mem_map_size;
+       void __iomem *membase;
+
+       efx->max_vis = max_vis;
+       uc_mem_map_size = PAGE_ALIGN(max_vis * efx->vi_stride);
+
+       /* Extend the original UC mapping of the memory BAR */
+       membase = ioremap(efx->membase_phys, uc_mem_map_size);
+       if (!membase) {
+               netif_err(efx, probe, efx->net_dev,
+                         "could not extend memory BAR to %x\n",
+                         uc_mem_map_size);
+               return -ENOMEM;
+       }
+       iounmap(efx->membase);
+       efx->membase = membase;
+       return 0;
+}
+
+/* Context: process, rtnl_lock() held.
+ * Note that the kernel will ignore our return code; this method
+ * should really be a void.
+ */
+static int ef100_net_stop(struct net_device *net_dev)
+{
+       struct efx_nic *efx = netdev_priv(net_dev);
+
+       netif_dbg(efx, ifdown, efx->net_dev, "closing on CPU %d\n",
+                 raw_smp_processor_id());
+
+       netif_stop_queue(net_dev);
+       efx_stop_all(efx);
+       efx_disable_interrupts(efx);
+       efx_clear_interrupt_affinity(efx);
+       efx_nic_fini_interrupt(efx);
+       efx_fini_napi(efx);
+       efx_remove_channels(efx);
+       efx_mcdi_free_vis(efx);
+       efx_remove_interrupts(efx);
+
+       return 0;
+}
+
+/* Context: process, rtnl_lock() held. */
+static int ef100_net_open(struct net_device *net_dev)
+{
+       struct efx_nic *efx = netdev_priv(net_dev);
+       unsigned int allocated_vis;
+       int rc;
+
+       ef100_update_name(efx);
+       netif_dbg(efx, ifup, net_dev, "opening device on CPU %d\n",
+                 raw_smp_processor_id());
+
+       rc = efx_check_disabled(efx);
+       if (rc)
+               goto fail;
+
+       rc = efx_probe_interrupts(efx);
+       if (rc)
+               goto fail;
+
+       rc = efx_set_channels(efx);
+       if (rc)
+               goto fail;
+
+       rc = efx_mcdi_free_vis(efx);
+       if (rc)
+               goto fail;
+
+       rc = ef100_alloc_vis(efx, &allocated_vis);
+       if (rc)
+               goto fail;
+
+       rc = efx_probe_channels(efx);
+       if (rc)
+               return rc;
+
+       rc = ef100_remap_bar(efx, allocated_vis);
+       if (rc)
+               goto fail;
+
+       efx_init_napi(efx);
+
+       rc = efx_nic_init_interrupt(efx);
+       if (rc)
+               goto fail;
+       efx_set_interrupt_affinity(efx);
+
+       rc = efx_enable_interrupts(efx);
+       if (rc)
+               goto fail;
+
+       /* in case the MC rebooted while we were stopped, consume the change
+        * to the warm reboot count
+        */
+       (void) efx_mcdi_poll_reboot(efx);
+
+       efx_start_all(efx);
+
+       /* Link state detection is normally event-driven; we have
+        * to poll now because we could have missed a change
+        */
+       mutex_lock(&efx->mac_lock);
+       if (efx_mcdi_phy_poll(efx))
+               efx_link_status_changed(efx);
+       mutex_unlock(&efx->mac_lock);
+
+       return 0;
+
+fail:
+       ef100_net_stop(net_dev);
+       return rc;
+}
+
 /* Initiate a packet transmission.  We use one channel per CPU
  * (sharing when we have more CPUs than channels).
  *
@@ -64,6 +205,8 @@ err:
 }
 
 static const struct net_device_ops ef100_netdev_ops = {
+       .ndo_open               = ef100_net_open,
+       .ndo_stop               = ef100_net_stop,
        .ndo_start_xmit         = ef100_hard_start_xmit,
 };
 
index 189a8a7..be37055 100644 (file)
@@ -135,6 +135,34 @@ static int ef100_ev_probe(struct efx_channel *channel)
                                    GFP_KERNEL);
 }
 
+static int ef100_ev_init(struct efx_channel *channel)
+{
+       struct ef100_nic_data *nic_data = channel->efx->nic_data;
+
+       /* initial phase is 0 */
+       clear_bit(channel->channel, nic_data->evq_phases);
+
+       return efx_mcdi_ev_init(channel, false, false);
+}
+
+static void ef100_ev_read_ack(struct efx_channel *channel)
+{
+       efx_dword_t evq_prime;
+
+       EFX_POPULATE_DWORD_2(evq_prime,
+                            ERF_GZ_EVQ_ID, channel->channel,
+                            ERF_GZ_IDX, channel->eventq_read_ptr &
+                                        channel->eventq_mask);
+
+       efx_writed(channel->efx, &evq_prime,
+                  efx_reg(channel->efx, ER_GZ_EVQ_INT_PRIME));
+}
+
+static int ef100_ev_process(struct efx_channel *channel, int quota)
+{
+       return 0;
+}
+
 static irqreturn_t ef100_msi_interrupt(int irq, void *dev_id)
 {
        struct efx_msi_context *context = dev_id;
@@ -210,6 +238,13 @@ static int ef100_reset(struct efx_nic *efx, enum reset_type reset_type)
        return rc;
 }
 
+static unsigned int ef100_check_caps(const struct efx_nic *efx,
+                                    u8 flag, u32 offset)
+{
+       /* stub */
+       return 0;
+}
+
 /*     NIC level access functions
  */
 const struct efx_nic_type ef100_pf_nic_type = {
@@ -230,8 +265,24 @@ const struct efx_nic_type ef100_pf_nic_type = {
        .map_reset_flags = ef100_map_reset_flags,
        .reset = ef100_reset,
 
+       .check_caps = ef100_check_caps,
+
        .ev_probe = ef100_ev_probe,
+       .ev_init = ef100_ev_init,
+       .ev_fini = efx_mcdi_ev_fini,
+       .ev_remove = efx_mcdi_ev_remove,
        .irq_handle_msi = ef100_msi_interrupt,
+       .ev_process = ef100_ev_process,
+       .ev_read_ack = ef100_ev_read_ack,
+       .tx_probe = ef100_tx_probe,
+       .tx_init = ef100_tx_init,
+       .tx_write = ef100_tx_write,
+       .tx_enqueue = ef100_enqueue_skb,
+       .rx_probe = efx_mcdi_rx_probe,
+       .rx_init = efx_mcdi_rx_init,
+       .rx_remove = efx_mcdi_rx_remove,
+       .rx_write = ef100_rx_write,
+       .rx_packet = __ef100_rx_packet,
 
        /* Per-type bar/size configuration not used on ef100. Location of
         * registers is defined by extended capabilities.
index a4290d1..5d376e2 100644 (file)
@@ -21,6 +21,7 @@ struct ef100_nic_data {
        struct efx_nic *efx;
        struct efx_buffer mcdi_buf;
        u16 warm_boot_count;
+       DECLARE_BITMAP(evq_phases, EFX_MAX_CHANNELS);
 };
 
 #define efx_ef100_has_cap(caps, flag) \
index d6b62f9..4223a38 100644 (file)
 #include "rx_common.h"
 #include "efx.h"
 
+/* RX stubs */
+
+void ef100_rx_write(struct efx_rx_queue *rx_queue)
+{
+}
+
 void __ef100_rx_packet(struct efx_channel *channel)
 {
        /* Stub.  No RX path yet.  Discard the buffer. */
index a6083a9..b5dadf7 100644 (file)
@@ -14,6 +14,7 @@
 
 #include "net_driver.h"
 
+void ef100_rx_write(struct efx_rx_queue *rx_queue);
 void __ef100_rx_packet(struct efx_channel *channel);
 
 #endif
index b122954..15e646f 100644 (file)
 #include "nic_common.h"
 #include "ef100_tx.h"
 
+/* TX queue stubs */
+int ef100_tx_probe(struct efx_tx_queue *tx_queue)
+{
+       return 0;
+}
+
+void ef100_tx_init(struct efx_tx_queue *tx_queue)
+{
+       /* must be the inverse of lookup in efx_get_tx_channel */
+       tx_queue->core_txq =
+               netdev_get_tx_queue(tx_queue->efx->net_dev,
+                                   tx_queue->channel->channel -
+                                   tx_queue->efx->tx_channel_offset);
+}
+
+void ef100_tx_write(struct efx_tx_queue *tx_queue)
+{
+}
+
 /* Add a socket buffer to a TX queue
  *
  * You must hold netif_tx_lock() to call this function.
index a7895ef..9a472f7 100644 (file)
@@ -14,5 +14,9 @@
 
 #include "net_driver.h"
 
+int ef100_tx_probe(struct efx_tx_queue *tx_queue);
+void ef100_tx_init(struct efx_tx_queue *tx_queue);
+void ef100_tx_write(struct efx_tx_queue *tx_queue);
+
 netdev_tx_t ef100_enqueue_skb(struct efx_tx_queue *tx_queue, struct sk_buff *skb);
 #endif